Für diese Funktion sind zusätzliche Berechtigungen erforderlich!
Weitere passende Anzeigen:
Passende Jobs zu Ihrer Suche ...
Sie können den Suchauftrag jederzeit abbestellen.
Es gilt unsere Datenschutzerklärung. Sie erhalten passende Angebote per E-Mail. Sie können sich jederzeit wieder kostenlos abmelden.
Sie können den Suchauftrag jederzeit abbestellen.
Es gilt unsere Datenschutzerklärung. Sie erhalten passende Angebote per E-Mail. Sie können sich jederzeit wieder kostenlos abmelden.
Ihre Aufgaben:
Konzeption und Implementierung von Datenintegrationstrecken für z. B. Machine Learning Anwendungen in hybriden Datenplattformen (GCP Cloud Services und Cloudera CDH Ecosystem)Aktive Mitarbeit bei der Entwicklung von Architekturideen in Themenfeldern wie Microservices, Data Mesh, Big Data Analytics sowie Snowflake Data CloudMonitoring sowie ständige Weiterentwicklung und Automatisierung der technischen LösungenErschließung neuer Datenquellen sowie Analyse und Aufbereitung strukturierter und unstrukturierter DatenInhaltliche Mitgestaltung, um den Wert unseres Datenökosystems für unsere Nutzer und somit den dm-Konzern und seine Kunden sukzessive zu verbessern
Das bringen Sie mit:
Ein abgeschlossenes Studium der Mathematik, Informatik, Ingenieur- oder Naturwissenschaften oder eine vergleichbare QualifikationFundiertes technisches Verständnis und praktische Erfahrung im Big Data Umfeld (u. a. Spark, Hive, HBase, Airflow), Cloud Solutions (GCP Stack), Event-Streaming (Kafka, Flink) sowie Datenbanksystemen (Snowflake, NoSQL)Erfahrung in der agilen Softwareentwicklung (Python, Scala oder Java) in interdisziplinären Teams sowie eine ausgeprägte kundenorientierte Denk- und ArbeitsweiseSicherer Umgang in den Methoden und Werkzeugen des Software-Engineerings (Clean Code, Testautomatisierung, Quellcodeverwaltung, CI/CD)Den Willen und die Fähigkeit immer wieder neue Herausforderungen anzugehen und dabei eigenverantwortlich Themen zu gestaltenAusgeprägtes Kommunikationsvermögen in Deutsch und Englisch (mind. B2)
#J-18808-Ljbffr