Stellenbeschreibung Du designst und entwickelst ETL-/ELT-Prozesse und sorgst für eine performante Datenverarbeitung und -analyse Du baust und betreibst Datenpipelines, die Echtzeitdaten liefern und unterstützt Teams bei der Entwicklung von datengetriebenen Produkten (Personalisierung, Recommendations, Tracking) Du entwickelst Schnittstellen zu externen Systemen und sorgst für eine zuverlässige Integration neuer Datenquellen (z. B. REST APIs, Google Analytics) Du automatisierst Test- und Deployment-Prozesse von Datenmodellen, ETL-Jobs und Machine-Learning-Anwendungen Du kümmerst dich um Infrastrukturkomponenten für Big Data und Streaming-Technologien (z. B. ClickHouse, Kinesis) und stellst deren hohe Verfügbarkeit und Effizienz sicher Du verantwortest die Sicherstellung einer hohen Datenqualität und entwickelst Maßnahmen zur kontinuierlichen Optimierung der Systeme Du arbeitest an der Entwicklung und Integration von Machine-Learning-Modellen zur Unterstützung unserer Personalisierungs- und Recommendation-Systeme Du bist aktiver Teil unseres DevOps-Teams und übernimmst Verantwortung im Rahmen der Rufbereitschaft Du dokumentierst technische Abläufe und sorgst für Transparenz und Nachvollziehbarkeit aller Datenprozesse