Deutsches Krebsforschungszentrum DKFZ
Deutsches Krebsforschungszentrum DKFZ

AI Systems Engineer (m/w/d) – LLM Execution & Infra Optimization

  • +3
  • DE
    Heidelberg, Baden-Württemberg, Germany
Manifester de l'intérêt pour ce poste
  • +3
  • DE
    Heidelberg, Baden-Württemberg, Germany

À propos

„Forschen für ein Leben ohne Krebs“ – das ist unsere Aufgabe am Deutschen Krebs­forschungs­zentrum. Wir erfor­schen, wie Krebs entsteht, erfas­sen Krebs­risiko­faktoren und suchen nach neuen Strategien, die ver­hin­dern, dass Menschen an Krebs erkranken. Wir entwickeln neue Methoden, mit denen Tumore präziser dia­gnos­ti­ziert und Krebs­patient:innen erfolg­reicher behandelt werden können. Jeder Beitrag zählt – ob in der Forschung, in der Admini­stration oder der Infra­struktur. Das macht unsere tägliche Arbeit so bedeu­tungsvoll und spannend.

Sie möchten Verantwortung übernehmen, moderne Technologien einführen und bestehende Systeme fit für die Zukunft machen? Dann sind Sie bei uns genau richtig. Wir suchen für unsere Core Facility Informationstechnologie (ITCF) zum nächstmöglichen Zeitpunkt einen AI Systems Engineer (m/w/d) – LLM Execution & Infra Optimization.

Kennziffer: 2025-0262


Sie verantworten die technische Infrastruktur für die Bereitstellung von Large Language Models (LLMs) auf unserer High-End-GPU-Hardware. Ihre Arbeit gewährleistet hochperformante und skalierbare Lösungen für alle Anwender:innen generativer KI am DKFZ.

  • Infrastruktur-Architektur & Skalierung: Konzeption, Implementierung und Skalierung der LLM-Infrastruktur (Hardware, Container, Orchestrierung)
  • Inferenz-Optimierung: Maximierung der Ressourcenauslastung durch geeignete Techniken wie KV-Caching, Quantisierung und Parallelisierung
  • Hardware-Integration: Betrieb und Optimierung von LLMs auf NVIDIA-GPU-Plattformen (CUDA), inklusive hardwarenahen Anpassungen
  • API-Integration & Management: Design und Betrieb von RESTful APIs und API Gateways (z. B. Kong, KrakenD) für sichere, skalierbare LLM-Schnittstellen
  • LLM-Modellauswahl: Evaluation und selektive Bereitstellung von LLMs nach Anforderungen (z. B. Logik / Sprachverständnis, Code-Generierung)
  • RAG-Optimierung: Integration von Embedding- und Reranking-Modellen zur Verbesserung der Suchqualität in RAG-Pipelines
  • Anwendungs-Integration: Nahtlose Integration in Frontends (Open WebUI) und Datenpipelines mit KI-Entwicklern
  • Automatisierung & Monitoring: Sicherstellung eines stabilen Betriebs durch automatisiertes Konfigurationsmanagement (Ansible) und umfassendes Monitoring (Prometheus / Grafana)
  • Kooperation in der Helmholtz-Gemeinschaft Deutscher Forschungszentren: Beitrag zur Standardisierung von LLM-Infrastrukturen im Rahmen der Helmholtz-KI-Initiativ
  • Ansprechpartner:in für KI-Demands am DKFZ und Mitarbeit im KI-Kompetenzteam des DKFZ

Sie arbeiten an spannenden Projekten mit modernen Technologien in einem Umfeld, in dem Ihre Ideen zählen und Sie Verantwortung übernehmen können. Durch Ihren Beitrag unterstützen Sie unsere Mission „Forschen für ein Leben ohne Krebs“ und gestalten die Zukunft unserer IT-Landschaft mit!


  • Abgeschlossenes Masterstudium der Informatik oder eines verwandten Fachs
  • Praktische Erfahrung mit:
    • LLM-Inferenz-Engines (vLLM, Ollama)
    • Optimierungstechniken (Quantisierung, KV-Caching, Parallelisierung)
    • Aktuellen LLM-Technologien (z. B. Mixture of Experts, Reasoning) sowie Retrieval Augmented Generation (RAG) und MCP (Model Context Protocol)
  • Fundierte Kenntnisse in:
    • Linux-Systemadministration
    • Cloud- und Container-Technologien (OpenStack, Kubernetes, Docker / Podman)
    • Teamgeist, Kommunikationsstärke (Deutsch & Englisch) sowie eine proaktive, lösungsorientierte Arbeitsweise
    • Ausgeprägte Ausdrucksfähigkeit in Deutsch und Englisch, sowohl mündlich als auch schriftlich (mind. B2)

Ihr Profil wird idealerweise abgerundet durch Erfahrung in DevOps-Prozessen, beispielsweise GitLab und CI/CD-Pipelines, automatisiertem Konfigurationsmanagement (Ansible) und Kenntnisse in der Python-Entwicklung.


  • Hervorragende Rahmen­bedin­gungen: mo­dern­ste State-of-Art Infra­struktur und Mög­lichkeit zum inter­natio­nalen Austausch auf Spitzen­niveau
  • 30 Tage Urlaub
  • Flexible Arbeits­zeiten
  • Vergütung nach TV-L inkl. betrieblicher Alters­vor­sorge und ver­mögens­wirk­samer Leistungen
  • Möglichkeit zur mobilen Arbeit und Teilzeitarbeit
  • Familien­freund­liches Arbeits­umfeld
  • Nachhaltig zur Arbeit: Ver­güns­tigtes Deutsch­land-Jobticket
  • Entfalten Sie Ihr volles Potenzial: gezielte Angebote für Ihre persönliche Ent­wicklung fördern Ihre Talente
  • Unser betriebliches Gesund­heits­manage­ment bietet ein ganz­heitliches Angebot für Ihr Wohl­befinden

  • Heidelberg, Baden-Württemberg, Germany

Expérience professionnelle

  • Machine Learning
  • DevOps
  • Systems Administrator

Compétences linguistiques

  • German