Data und AI sind Dein zu Hause? Des Weiteren gestaltet sich Deine neue Herausforderung wie folgt:
Design, Implementierung und Betrieb von Datenpipelines in Palantir Foundry zur Integration und Transformation von Daten aus verschiedenen Quellsystemen (z. B. APIs, operative Systeme, externe Datenquellen)
Modellierung und Pflege von Datenstrukturen und Ontologien zur Abbildung von Geschäftsprozessen und -beziehungen
Sicherstellung von Datenqualität, -konsistenz und -nachvollziehbarkeit durch geeignete Validierungs-, Monitoring- und Logging-Mechanismen
Übersetzung von fachlichen Anforderungen in skalierbare Datenmodelle und Transformationslogik (z. B. mittels Code Repositories, Pipelines, SQL/PySpark)
Integration neuer Datenquellen sowie kontinuierliche Weiterentwicklung bestehender Datenmodelle innerhalb der Datenplattform
Analyse und Optimierung der Performance von Datenpipelines sowie Sicherstellung einer effizienten Verarbeitung großer Datenmengen
Enge Zusammenarbeit mit Fachbereichen, Datenanalysten und Data Scientists zur Übersetzung von Anforderungen in technische Lösungen
Mitwirkung bei der Konzeption und Umsetzung von Advanced-Analytics- und KI-Anwendungsfällen
Dokumentation von Datenflüssen, Datenmodellen und technischen Implementierungen
Anwenderunterstützung hinsichtlich Datenverfügbarkeit, Datennutzung und Interpretation bereitgestellter Datensätze
Unterstützung im Betrieb, inkl. Troubleshooting, Incident Handling und kontinuierlicher Verbesserung von Datenprozessen
Dein Profil
Data ist auch in Deiner DNA? Das solltest Du mitbringen:
Abgeschlossenes Studium in einem quantitativen oder analytischen Bereich (z. B. Wirtschaftsinformatik, Data Science, Naturwissenschaften oder Ingenieurwesen)
Idealerweise erste Erfahrungen als Data Engineer, Software Engineer oder in einer vergleichbaren technischen Rolle
Fundierte praktische Erfahrung mit PySpark
Solide Kenntnisse in Palantir Foundry, insbesondere Workshop und Contour
Sicherer Umgang mit Versionskontrollsystemen (z. B. Git)
Regelmäßige Meetings werden auf Englisch abgehalten. Kroatischkenntnisse sind erforderlich.
Reisebereitschaft für Kundeneinsätze
Nice to Have
Erfahrung in AWS-Umgebungen
Praktische Kenntnisse in Terraform (Infrastructure as Code)
Erfahrung im Aufbau skalierbarer und effizienter Datenpipelines
Vertrautheit mit agilen Methoden und Tools wie Jira und Confluence
Wir bieten
Data bewegt uns! Was Dich auf Deiner persönlichen Journey erwartet, findest Du hier: Work-Life-Balance Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung, ein hybrides Arbeitsmodell, workation – nutze die Möglichkeit, innerhalb der EU aus dem Ausland zu arbeiten. Kultur & Zusammenarbeit Einzigartige Teamatmosphäre, flache Hierarchien zu unserem CEO Alex sowie eine offene Feedbackkultur, jährliche Teamworkshops auf unserem Data.Castle im Zillertal, gelebtes Data.Musketeer Prinzip – „einer für alle, alle für einen!“, unser [at] Buddy Programm zur besseren Vernetzung, regelmäßig stattfindende Fach- und Freizeitevents, hundefreundliche Büros Fachliche & persönliche Entwicklung Intensiver Onboarding- & Einarbeitungsprozess, persönlicher Entwicklungsplan und individuelle Weiterbildungsmöglichkeiten, vielfältiges Workshop- und Schulungsangebot innerhalb der Data.Academy durch unsere erfahrenen Data.Musketeers sowie externen Anbieter, Führungs-, Projektleiter- und Expertenlaufbahn