Ihre Aufgaben:
* Design und Entwicklung effizienter Datenpipelines
* Datenbankmodellierung und Optimierung von Datenstrukturen
* Entwicklung und Management von ETL-Prozessen
* Nutzung von Snowflake und Azure Data Factory für Cloud-Datenlösungen
* Integration von IoT-Daten mit Azure IoT Hub
Ihre Qualifikationen:
* Bachelor-Abschluss in Informatik, IT, Ingenieurwesen oder einem verwandten Bereich
* Tiefgreifende Erfahrung als Data Engineer oder in einer ähnlichen Rolle
* Erfahrung mit Datenpipeline-Tools und -Techniken
* Kenntnisse in Snowflake und Azure Data Factory
* Erfahrung mit IoT-Datenintegration und Apache Airflow
Ihre Vorteile:
* Spannendes, innovatives Umfeld
* 37,5 Arbeitsstunden pro Woche
* Möglichkeit zum Home Office gegeben