Steigen Sie ein in die faszinierende Welt des Deutschen Zentrums für Luft- und Raumfahrt (DLR), um mit Forschung und Innovation die Zukunft mitzugestalten Mit dem Know-how und der Neugier unserer 11.000 Mitarbeitenden aus 100 Nationen sowie unserer einzigartigen Infrastruktur, bieten wir ein spannendes und inspirierendes Arbeitsumfeld. Gemeinsam entwickeln wir nachhaltige Technologien und tragen so zur Lösung globaler Herausforderungen bei. Möchten Sie diese große Zukunftsaufgabe mit uns zusammen angehen? Dann ist Ihr Platz bei uns Für unser Institut KI-Sicherheit in Sankt Augustin suchen wir eine/n Informatiker/in, Mathematiker/in, Physiker/in o. ä. (w/m/d), Fachliche Leitung für den Bereich „AI Security and Trust“ Das erwartet Sie: Das Institut für KI-Sicherheit erbringt Forschungs- und Entwicklungsleistung im Bereich KI-bezogener Methoden, Prozesse, Algorithmen und Ausführungsumgebungen. Schwerpunkt ist die Gewährleistung von Betriebs- und Angriffssicherheit KI-basierter Lösungen in ambitionierten Anwendungsklassen. „Safety and Security by Design” ist dabei ein zentraler Aspekt, über welchen auch die Anforderungen sicherheitskritischer Anwendungen erfüllt werden können, die zukünftig auf KI fußen bzw. KI-basierte Komponenten als Lösungsbausteine aufgreifen. Die Arbeitsschwerpunkte des Instituts liegen in den folgenden Bereichen: - Entwicklungsprozesse und -Methoden für sicherheitskritische KI-Anwendungen - robuste und zuverlässig absicherbare KI-Methoden und -Algorithmen - Betriebs- und Angriffssicherheit für KI-basierte Anwendungen - Absicherung und Nutzung sensibler Datenbestände - Ausführungsumgebungen für KI-Anwendungen - innovative Rechenmethoden Die Abteilung KI-SCD (Sicherheitskritische Dateninfrastrukturen) des DLR Institut für KI-Sicherheit arbeitet u.a. an der Erforschung und Weiterentwicklung von (de-)zentralen Datenräumen für hochkritische Anwendungsbereiche. Dabei geht es um die sichere Einbettung von Dateninstanzen in KI-Anwendungslandschaften, d. h. es werden sowohl Angriffsmöglichkeiten und deren Verhinderung/Abschwächung betrachtet, als auch die Sicherheit während des Betriebs der Anwendung, um ungewünschte Systemzustände möglichst zu vermeiden. Kernaspekte sind hierbei die Themen Datenprovenienz, Datenqualität, Semantische Integration und die fachlich-wissenschaftliche Erweiterung von dezentralen Daten- und Diensteökosystemen. Im Rahmen der Aktivitäten rund um das Thema AI Security and Trust sind die fachliche Leitung des Teams KI-SCD-SEC und die wissenschaftliche Leitung (und Weiterentwicklung) von Forschungsaufgaben auf dem Gebiet der Sicherheit für KI Systeme zu übernehmen. Dies umfasst insbesondere die Themengebiete AI Security und AI Trust. Die ausgeschriebene Stelle beinhaltet die folgenden Leitungsaufgaben und wissenschaftlichen Themenbereiche: - fachliche Leitung und Koordination eines Teams im Kontext „AI and IT Security & Trust“ - Umsetzung der strategischen Ziele im Kontext „AI and IT Security & Trust“ (intern als auch extern) - Identifizierung, Akquise und Koordination von wissenschaftlichen Projekten - Konsolidierung und technische Integration unterschiedlicher funktionaler Ansätze (teilweise aktuell in Entwicklung) in das Gesamtkonzept „AI and IT Security & Trust“ - Konsolidierung der Themen des Teams im Hinblick auf wissenschaftliche Veröffentlichungen, inkl. der Koordination der Erstellung dieser Publikationen und Fachbeiträge - Darstellung der „AI and IT Security & Trust“ relevanten Themen in DLR internen und externen Arbeitsgruppen, Konferenzen etc. - Erstellung von wissenschaftlichen Studien zu Methoden und Prozessen zur Operationalisierung von wegweisenden Lösungen im Kontext „Security & Trust“ mit Bezug auf KI-Systeme und traditionelle IT Systeme - Erarbeitung und Umsetzung eines übergreifenden Konzepts für Ergebnisse im Rahmen der Arbeiten bzgl. „AI and IT Security & Trust“ die eine Konsolidierung der verschiedenen in der Abteilung und am Institut entwickelten Komponenten und funktionaler Module darstellt - Erarbeitung von Ansätzen zur Integration von „AI and IT Security & Trust“ in DevOps-Vorgehensmodellen zur Steigerung der Sicherheit und Robustheit - Erarbeitung von Konzepten und Steuerung der Umsetzung von Integrationsansätzen, um Themen des Teams „AI and IT Security & Trust“ in verteilten Systemen verfügbar zu machen Das erwarten wir von Ihnen: - abgeschlossenes wissenschaftliches Hochschulstudium (Master / Diplom Uni) der Naturwissenschaften (z.B. Informatik, Mathematik oder Physik) oder andere für die Tätigkeit relevanten Studiengänge - praktische Forschungserfahrung (mindestens 3 Jahre) im Aufgabenbereich (Cyber-) Security, z. B. erworben durch eine Promotion oder durch anderweitige nachgewiesene Forschungstätigkeiten - sehr gute Fachkenntnisse im Bereich Cybersicherheit - sehr gute Fachkenntnisse im Bereich IT- Sicherheit - Erfahrungen im Bereich der Künstlichen Intelligenz - umfangreiche Erfahrungen im Bereich komplexer Systemumgebungen - umfassende Fachkenntnisse im Bereich des wissenschaftlichen Publizierens - vertiefte Anwenderkenntnisse im Umfeld des Projektmanagements und dessen IT Tools - fundierte und nachgewiesene Erfahrung in der fachlichen Führung von Teams, z. B. erworben durch die fachliche Leitung von Projekten - Englischkenntnisse in Wort und Schrift - Deutschkenntnisse in Wort und Schrift Unser Angebot: Das DLR steht für Vielfalt, Wertschätzung und Gleichstellung aller Menschen. Wir fördern eigenverantwortliches Arbeiten und die individuelle Weiterentwicklung unserer Mitarbeitenden im persönlichen und beruflichen Umfeld. Dafür stehen Ihnen unsere zahlreichen Fort- und Weiterbildungsmöglichkeiten zur Verfügung. Chancengerechtigkeit ist uns ein besonderes Anliegen, wir möchten daher insbesondere den Anteil von Frauen in der Wissenschaft und Führung erhöhen. Bewerbungen schwerbehinderter Menschen bevorzugen wir bei fachlicher Eignung. Weitere Angaben: - Eintrittsdatum: sofort - Dauer: 2 Jahre mit Möglichkeit zur Verlängerung und ggf. Entfristung - Vergütung: Je nach Qualifikation und Aufgabenübertragung bis Entgeltgruppe 14 TVöD. - Kennziffer: 95918