Unternehmen TRILUX Vertrieb GmbH
Standort Köln TLC
Eintritt ab sofort
Arbeitszeit 40 Stunden / Woche
UNSER ANSPRUCH
Unser Anspruch ist es, die Transformation eines traditionsreichen Familienunternehmens in die moderne KI-gestützte Welt maßgeblich mitzugestalten. Durch den Aufbau einer zukunftsweisenden Datenplattform und effizienter Datenpipelines schaffen wir die Grundlage für innovative KI-Lösungen und den Erfolg unserer digitalen Transformation.
IHRE HERAUSFORDERUNGEN
Als Data Engineer (m/w/d) sind Sie für den Aufbau und die Weiterentwicklung einer modernen Datenplattform verantwortlich. Sie designen und betreiben eine skalierbare Infrastruktur, die unseren KI-Projekten als solide Basis dient. Hierbei steht Ihnen ein tolles externes Expertennetzwerk zur Verfügung. Darüber hinaus erwarten Sie folgende spannende Themen:
* Design, Entwicklung und Wartung von Datenpipelines: Planung und Umsetzung von ETL/ELT-Prozessen sowie Datenarchitekturen, um Daten aus verschiedensten Quellen effizient zu integrieren und nutzbar zu machen
* Orchestrierung und Automatisierung: Einsatz von Orchestrierung, um Datenprozesse zu planen, zu überwachen und sicherzustellen, dass alle Schritte der Datenpipeline reibungslos ablaufen
* Integration von KI-Modellen: Enge Zusammenarbeit mit internen und externen Partnern, um KI-Modelle in produktive Umgebungen zu überführen
* Technologische Weiterentwicklung: Evaluation und Einführung neuer Tools, Frameworks und Methoden, um die Datenplattform kontinuierlich zu verbessern und auf dem neuesten Stand zu halten
* Koordination & Abstimmung: Zusammenarbeit mit internen Fachbereichen, Stakeholdern und externen Partnern, um Anforderungen zu verstehen und passgenaue Datenlösungen zu realisieren
* Teil des neu gegründeten AI-Teams: Großer Gestaltungsspielraum um den Aufbau und die Weiterentwicklung der KI-Landschaft
IHRE STÄRKEN
* Abgeschlossenes Studium in Informatik, Data-Science, Wirtschaftsinformatik oder einem vergleichbaren Bereich
* Mehrjährige Berufserfahrung als Data Engineer (m/w/d) in einem Umfeld mit heterogenen Daten, sowie Bereitstellung von Data-Assets für datenintensiven Anwendungen
* Fundierte Kenntnisse in der Planung, Entwicklung und Wartung von Datenpipelines (ETL/ELT) und -architekturen, sowie Extraktion aus versch. Datenbank/ Warehouse Lösungen
* Versierter Umgang mit Python und SQL sowie mit relevanten Big Data- und Cloud-Technologien
* Erfahrung mit Orchestrierungstools wie Dagster oder Airflow zur Automatisierung und Überwachung von Datenprozessen
* Gutes Verständnis für die Datenanforderungen von KI-/ML-Projekten und deren Umsetzung in produktiven Umgebungen
* Kommunikationsstärke: Fähigkeit, komplexe technische Zusammenhänge für verschiedene Zielgruppen (z. B. Data Scientists, Management, Fachbereiche) verständlich darzustellen
* Teamgeist und eigenverantwortliches Arbeiten: Strukturiertes und lösungsorientiertes Arbeiten sowie die Bereitschaft, Verantwortung in einem wachsenden Team zu übernehmen
UNSERE BENEFITS