
Dieses Stellenangebot ist nicht mehr verfügbar

DevOps Platform Engineer – IT / OT Datenverarbeitung (w/m/d)
- Wendlingen am Neckar, Baden-Württemberg, Germany
- Wendlingen am Neckar, Baden-Württemberg, Germany
Über
Als Übertragungsnetzbetreiber sichern wir die Stromversorgung für rund elf Millionen Menschen in Baden-Württemberg. Wir schaffen die Infrastruktur für die Energiewende, indem wir das Höchstspannungsnetz instand halten, optimieren und bedarfsgerecht ausbauen. Mit unserem Netz machen wir das Land nicht nur zur innovativen Stromdrehscheibe im Herzen Europas, sondern gestalten das Energiesystem der Zukunft maßgeblich mit.
Der Bereich Systembetrieb verantwortet 24/7 den sicheren, umweltgerechten und effizienten Betrieb des Übertragungsnetzes und der Regelzone von TransnetBW. Hierzu gehören neben der Steuerung des 380- und 220-Kilovolt-Transportnetzes auch die Bereitstellung leistungsfähiger IT- und Infrastruktursysteme, der Handel an Energie- und Ausgleichsmärkten, HSE-Aufgaben sowie die Entwicklung zukunftsfähiger Plattformlösungen zur Steuerung des Stromnetzes.
Die Energieinfrastruktur steht vor der größten Transformation seit Jahrzehnten. Bis 2032 wandelt sich das Stromnetz von wenigen zentralen Kraftwerken zu einem hochdynamischen, dezentralen System aus erneuerbaren Erzeugern, Speichern und flexiblen Lasten. Für ein solches Netz braucht es IT‑Systeme, die in Sachen Performance, Sicherheit und Verfügbarkeit auf Hyperscaler‑Niveau agieren: on‑prem, air gapped und vollständig unter eigener Kontrolle. Genau hier kommt MSHIP ins Spiel.
Wir bauen in mehreren geografisch verteilten Rechenzentren eine eigene Cloud‑Native-Plattform auf Bare‑Metal‑Basis auf, die explizit für KRITIS‑Anforderungen entwickelt wird. Unser Team wird Cloud‑Services nicht lediglich „nutzen“, sondern eine eigene Cloud-Native-Plattform „bauen“: self‑hosted, self‑run, air gapped, hochautomatisiert und strikt nach GitOps‑ und Platform‑Engineering‑Prinzipien.
- Du bist aktiv am Aufbau, der Weiterentwicklung und dem Betrieb einer on‑prem, self‑hosted, air gapped Cloud‑Native-Plattform beteiligt, die über mehrere Rechenzentren verteilt betrieben wird. Im besonderen Fokus steht die Bereitstellung von Fachanwendungen, die Daten aus unseren OT‑Systemen zuverlässig, sicher und in Echtzeit einholen, verarbeiten und für nachgelagerte Systeme und Tools verfügbar machen.
- Du nutzt GitOps, Policy-as-Code (PaC) und Diagram-as-Code, um den gewünschten Zustand der Plattform zu spezifizieren und automatisiert sicherzustellen. Wir befinden uns aktuell im Aufbau und evaluieren Werkzeuge wie zum Beispiel ArgoCD, Flux (GitOps), OPA Gatekeeper, Kyverno (PaC), C4‑Modellierung und Structurizr (Diagram-as-Code).
- Du entwickelst und betreibst Daten‑Ingestion‑Pipelines und Event‑Streaming‑Infrastrukturen auf Basis moderner Open‑Source‑Technologien – zum Beispiel aus dem Kafka‑Ökosystem (Kafka Connect, Schema Registry, Kafka Streams / KSQL). Damit stellst du sicher, dass OT‑Daten aus kritischen Infrastruktursystemen in Echtzeit, versionssicher, auditierbar und hochverfügbar für Fachanwendungen bereitstehen.
- Du verwendest moderne Technologien, um Cluster neu zu erstellen, anstatt zu aktualisieren, was eine nahtlose Umsetzung von Disaster Recovery (DR) und Business Continuity Management (BCM) ermöglicht. Als mögliche Toolchain evaluieren wir aktuell unter anderem Talos, kubeadm, Metal³ und Rancher für Cluster Lifecycle Management.
- Du arbeitest eng mit Entwicklerinnen und Entwicklern, Citizen Developern und externen Partnern zusammen, um sichere, robuste und verteilte Services, Fachapplikationen und Algorithmen zu ermöglichen.
- Du hast ein Informatikstudium oder einen vergleichbares Studium absolviert oder hast eine fachspezifische Ausbildung im Softwareentwicklungsumfeld sowie mehrjähriger Berufserfahrung.
- Erfahrung mit dem Aufbau und Betrieb von on‑prem oder self‑managed Cloud‑Native-Plattformen
- Praktische Erfahrung mit Kubernetes‑Ökosystemen (zum Beispiel Talos, kubeadm‑basierte Cluster, Rancher, Metal³/Ironic)
- Fundierte Kenntnisse in Hochverfügbarkeits-Szenarien (HA-Szenarien), DR, BCM sowie Netzwerk‑ und Storage‑Architekturen in verteilten Systemen
- Erfahrung mit dem Aufbau und Betrieb von Daten‑ und Streaming‑Plattformen, idealerweise auf Basis des Kafka‑Ökosystems (Kafka Connect, Schema Registry, Kafka Streams / KSQL).
- Erfahrung in mindestens einem der folgenden Bereiche:
- GitOps (zum Beispiel ArgoCD, Flux)
- IaC (zum Beispiel Terraform, Crossplane, Ansible)
- Policy as Code (zum Beispiel OPA/Gatekeeper, Kyverno)
- Observability (beispielsweise Prometheus, Loki, Grafana, OpenTelemetry)
- Freude daran, OT‑Datenflüsse und Fachanwendungen technisch zu ermöglichen und moderne Plattform‑ sowie Hyperscaler‑Prinzipien von Grund auf gemeinsam im Team zu definierena
- Ein Team, das Großes bewegt, und eine zukunftsweisende Aufgabe: die IT-Systeme und Applikationen unseres Stromnetzes maßgeblich weiterentwickeln
- Ein Projekt in der Pionierphase mit viel grüner Wiese, weitreichendem Gestaltungsspielraum und viel Verantwortung
- Offene, direkte Kommunikation und eine respektvolle Zusammenarbeit auf Augenhöhe
- Die Sicherheit eines etablierten Unternehmens mit einer klaren Vision für die Energiewende
Sprachkenntnisse
- German
Dieses Stellenangebot wurde von einem unserer Partner veröffentlicht. Sie können das Originalangebot einsehen hier.