Wir bieten dir ein modernes Arbeitsumfeld mit innovativer technischer Ausstattung und spannenden Projekten im Bereich Data & Analytics. Du wirst maßgeblich zur Weiterentwicklung unserer BI- und Dateninfrastruktur beitragen und Einfluss auf datengetriebene Entscheidungen nehmen. Flache Hierarchien und kurze Entscheidungswege prägen unsere Arbeit und fördern eine agile und kreative Zusammenarbeit.
Wir bieten dir von Anfang an ein unbefristetes Arbeitsverhältnis
Du kannst remote arbeiten - wir treffen uns jedoch regelmäßig als Team an unseren verschiedenen Standorten
Wir sind fürsorglich und unterstützen dich bei deiner Altersvorsorge - über die gesetzliche Pflicht hinaus
Du bist verantwortlich für Deine Aufgaben
Du darfst an spannenden Weiterbildungsmöglichkeiten teilnehmen
Du erhältst attraktive Zusatz- und Sozialleistungen
Wir unterstützen dich bei der Kinderbetreuung durch einen KITA-Zuschuss
Getränke vor Ort gehen auf uns
Du profitierst von unseren Kooperationen
Durch unsere Mitarbeiter-App erhältst du Zugang zu allen neuen Infos rund um deinen Arbeitsplatz
Damit auch du alle unsere Angebote nutzen kannst, stehen dir im Rahmen der verfügbaren Mitarbeiter-Credits, Eintritte und weitere Benefits in der App zur Verfügung
Mit unseren Kooperationspartnern profitierst du von den Angeboten für Fahrradleasing und/oder Firmenfitness
Wir sind eine ziemlich coole Truppe und freuen uns auf dein Onboarding
Das sind die Themen...
Entwicklung und Wartung von serverlosen Datenpipelines (ELTR) auf AWS oder vergleichbaren Cloud-Plattformen zur Integration und Verarbeitung von Daten
Aufbau und Optimierung von Datenarchitekturen in Snowflake oder vergleichbaren Cloud Data Warehouses
Implementierung und Verwaltung von ETL/ELT-Prozessen mit Python in einer serverlosen Umgebung
Aufbau und Optimierung von Star Schema-Datenmodellen zur Unterstützung von BI- und Reporting-Anforderungen
Sicherstellung der Datenqualität und -konsistenz durch Implementierung von Datenvalidierungen und -überwachungen
Aufbau und Pflege von CI/CD-Pipelines zur Automatisierung von Deployments und Datenverarbeitungsprozessen
Nutzung von Docker zur Containerisierung und Bereitstellung von Data Engineering Lösungen
Performance-Tuning und Optimierung von Datenverarbeitungsprozessen zur Sicherstellung effizienter und skalierbarer Datenflüsse
Das brauchen WIR...
Mehrjährige Berufserfahrung (mind. 3 Jahre) als Data Engineer oder in einer vergleichbaren Rolle
Sehr gute Kenntnisse in SQL sowie Erfahrung mit Cloud Data Warehouses wie Snowflake, Redshift oder BigQuery
Programmierkenntnisse in Python zur Entwicklung serverloser Workflows und Datenverarbeitungsskripte
Erfahrung mit serverlosen Architekturen auf AWS (Lambda, Step Functions) oder vergleichbaren Cloud-Plattformen (z.B. Azure Functions, Google Cloud Functions)
Kenntnisse in CI/CD-Pipelines (z.B. GitHub Actions, Jenkins, GitLab CI) zur Automatisierung von Deployments
Erfahrung mit Docker zur Containerisierung und Bereitstellung von Datenverarbeitungsprozessen
Kenntnisse in Datenmodellierung (z.B. Star Schema) und Best Practices für Data Warehousing
Analytisches Denkvermögen und die Fähigkeit, komplexe Datenflüsse zu optimieren
Teamfähigkeit und Kommunikationsstärke zur Zusammenarbeit mit Data Analysts und Business Stakeholdern
Nice-to-Have:
Erfahrung in der Anwendung von Machine Learning-Techniken
Kenntnisse in Monitoring und Logging von Datenpipelines (z.B. mit CloudWatch, Prometheus, ELK Stack)
Verständnis von Data Governance und Sicherheitsrichtlinien in Dateninfrastrukturen
Kenntnisse in NoSQL-Datenbanken (z.B. MongoDB, Cassandra)
Kontakt
Diese Ausschreibung richtet sich ausdrücklich auch an Bewerberinnen und Bewerber mit Behinderungen, die wir in unserem Haus stets sehr gerne beschäftigen und willkommen heißen.
Wir freuen uns auf deine Bewerbung! Lade einfach dein Motivationsschreiben, deinen Lebenslauf und relevante Zeugnisse in deutscher Sprache hoch und werde Teil unseres Data & Analytics Teams.