* Datenintegration & -bereitstellung: Aufbau und Pflege von skalierbaren ETL-Pipelines, um strukturierte und unstrukturierte Daten aus verschiedenen Quellen zu integrieren und für AI-Modelle bereitzustellen
* Datenarchitektur & -management: Design und Implementierung von Datenbanken, Data Lakes und Data Warehouses (Azure)
* Datenmodellierung: Entwicklung und Optimierung von Datenmodellen zur Unterstützung von ML- und AI-Anwendungen
* Big Data & Streaming: Implementierung von Big Data- und Echtzeit-Datenlösungen (z.B. Apache Spark, Kafka), um hochvolumige Datenströme effizient zu verarbeiten
* Datenqualität & -sicherheit: Sicherstellung der Datenqualität, Governance und Compliance (z.B. DSGVO), sowie Implementierung von Monitoring- und Sicherheitsmaßnahmen
* Kollaboration & Beratung: Enge Zusammenarbeit mit AI Engineers, Data Scientists und Kunden, um Datenanforderungen zu verstehen und optimale Lösungen zu entwickeln