Section data-section-name="about-us" markdown="1">
Steigen Sie ein in die faszinierende Welt des Deutschen Zentrums für Luft- und Raumfahrt (DLR), um mit Forschung und Innovation die Zukunft mitzugestalten! 000 Mitarbeitenden aus 100 Nationen sowie unserer einzigartigen Infrastruktur, bieten wir ein spannendes und inspirierendes Arbeitsumfeld. Gemeinsam entwickeln wir nachhaltige Technologien und tragen so zur Lösung globaler Herausforderungen bei. section data-section-name="tasks" markdown="1">
Betriebs- und Angriffssicherheit für KI-basierte Anwendungen
Die Abteilung KI-SCD (Sicherheitskritische Dateninfrastrukturen) des DLR Institut für KI-Sicherheit arbeitet u.a. an der Erforschung und Weiterentwicklung von (de-)zentralen Datenräumen für hochkritische Anwendungsbereiche. Dabei geht es um die sichere Einbettung von Dateninstanzen in KI-Anwendungslandschaften, d. h. es werden sowohl Angriffsmöglichkeiten und deren Verhinderung/Abschwächung betrachtet, als auch die Sicherheit während des Betriebs der Anwendung, um ungewünschte Systemzustände möglichst zu vermeiden.
Im Rahmen der Aktivitäten rund um das Thema AI Security and Trust sind die fachliche Leitung des Teams KI-SCD-SEC und die wissenschaftliche Leitung (und Weiterentwicklung) von Forschungsaufgaben auf dem Gebiet der Sicherheit für KI Systeme zu übernehmen.Dies umfasst insbesondere die Themengebiete AI Security und AI Trust.fachliche Leitung und Koordination eines Teams im Kontext „AI and IT Security & Trust“
1. Umsetzung der strategischen Ziele im Kontext „AI and IT Security & Trust“ (intern als auch extern)
2. Identifizierung, Akquise und Koordination von wissenschaftlichen Projekten
3. Konsolidierung und technische Integration unterschiedlicher funktionaler Ansätze (teilweise aktuell in Entwicklung) in das Gesamtkonzept „AI and IT Security & Trust“
4. Darstellung der „AI and IT Security & Trust“ relevanten Themen in DLR internen und externen Arbeitsgruppen, Konferenzen etc.
5. Erstellung von wissenschaftlichen Studien zu Methoden und Prozessen zur Operationalisierung von wegweisenden Lösungen im Kontext „Security & Trust“ mit Bezug auf KI-Systeme und traditionelle IT Systeme
6. Erarbeitung von Ansätzen zur Integration von „AI and IT Security & Trust“ in DevOps-Vorgehensmodellen zur Steigerung der Sicherheit und Robustheit
7. Erarbeitung von Konzepten und Steuerung der Umsetzung von Integrationsansätzen, um Themen des Teams „AI and IT Security & Trust“ in verteilten Systemen verfügbar zu machen
8. abgeschlossenes wissenschaftliches Hochschulstudium (Master / Diplom Uni) der Naturwissenschaften (z.B. Informatik, Mathematik oder Physik) oder andere für die Tätigkeit relevanten Studiengänge
9. praktische Forschungserfahrung (mindestens 3 Jahre) im Aufgabenbereich (Cyber-) Security, z. B. erworben durch eine Promotion oder durch anderweitige nachgewiesene Forschungstätigkeiten
10. sehr gute Fachkenntnisse im Bereich Cybersicherheit
11. sehr gute Fachkenntnisse im Bereich IT- Sicherheit
12. vertiefte Anwenderkenntnisse im Umfeld des Projektmanagements und dessen IT Tools
13. fundierte und nachgewiesene Erfahrung in der fachlichen Führung von Teams, z. B. erworben durch die fachliche Leitung von Projekten
14. Englischkenntnisse in Wort und Schrift
15. Deutschkenntnisse in Wort und Schrift
Das DLR steht für Vielfalt, Wertschätzung und Gleichstellung aller Menschen. Wir fördern eigenverantwortliches Arbeiten und die individuelle Weiterentwicklung unserer Mitarbeitenden im persönlichen und beruflichen Umfeld. Dafür stehen Ihnen unsere zahlreichen Fort- und Weiterbildungsmöglichkeiten zur Verfügung. Chancengerechtigkeit ist uns ein besonderes Anliegen, wir möchten daher insbesondere den Anteil von Frauen in der Wissenschaft und Führung erhöhen. Bewerbungen schwerbehinderter Menschen bevorzugen wir bei fachlicher Eignung.
16. Vergütung: Je nach Qualifikation und Aufgabenübertragung bis Entgeltgruppe 14 TVöD.