Dieses Stellenangebot ist nicht mehr verfügbar
Über
Deine Aufgaben
Aufbau, Betrieb und Weiterentwicklung einer skalierbaren Datenplattform (Warehouse / Lake / Lakehouse)
Entwicklung und Wartung robuster ETL/ELT-Pipelines zur Integration unterschiedlichster Datenquellen
Sicherstellung von Datenqualität, Performance, Skalierbarkeit und Kostenoptimierung
Implementierung von Monitoring-, Governance- und Sicherheitskonzepten (inkl. DSGVO)
Enge Zusammenarbeit mit Analytics-, Product- und Engineering-Teams
Automatisierung von Datenprozessen sowie kontinuierliche Verbesserung bestehender Architekturen
Aktive Mitgestaltung der Datenstrategie und Evaluation neuer Technologien
Dein Profil
Mehrjährige Erfahrung im Data Engineering oder in einer vergleichbaren Rolle
Sehr gute Programmierkenntnisse in Python und SQL sowie saubere Engineering-Standards (Tests, CI/CD)
Fundiertes Verständnis moderner Datenarchitekturen und Datenmodellierung
Praxiserfahrung mit Cloud-Plattformen (AWS, GCP oder Azure) und gängigen Data-Tools (z. B. Airflow, dbt, Spark, Snowflake)
Hohes Qualitäts- und Ownership-Mindset für produktive Datenpipelines
Fähigkeit, technische Lösungen verständlich zu kommunizieren und Business-Anforderungen zu übersetzen
Teamplayer mit Interesse an Mentoring und kontinuierlicher Weiterentwicklung
Verhandlungssichere Englischkenntnisse (erforderlich); Deutschkenntnisse sind ein Plus
Das erwartet dich bei Arsipa – Deine Benefits
Attraktive, marktgerechte Vergütung
Flexibles Arbeitsmodell: Remote-first mit optionaler Präsenz im Büro
30 Urlaubstage
Strukturiertes Onboarding mit persönlicher Begleitung durch das Recruiting-Team
Transparente Kommunikation durch wöchentliche 1:1s und regelmäßige All-Hands-Meetings
Zugang zu Corporate Benefits
Langfristige Perspektive in einer wachsenden Unternehmensgruppe
#J-18808-Ljbffr
Sprachkenntnisse
- German
Hinweis für Nutzer
Dieses Stellenangebot wurde von einem unserer Partner veröffentlicht. Sie können das Originalangebot einsehen hier.