Beruflicher Aufstieg, Tech-Branche

Die Chance im Bereich KI-Ethik, die die meisten Engineerings auf dem Tisch liegen lassen

Lesezeit 12min

Hinweis: Original auf Englisch. Immer mehr Engineering-Teams auf der ganzen Welt stellen sich eine Frage: Wer in unserem Team versteht eigentlich den EU AI Act?

Dieser Artikel konzentriert sich auf den EU AI Act, aber die Chance, die dadurch entsteht, ist global. Wenn die KI-Systeme, die du entwickelst, in der EU genutzt werden, mit Nutzerinnen und Nutzern in der EU interagieren oder Entscheidungen beeinflussen, die sie betreffen, kann die Regulierung gelten – unabhängig davon, wo du arbeitest. Da viele Unternehmen ihre Produkte von Anfang an für internationale Märkte entwickeln, wird der EU AI Act still und leise zum praktischen Massstab für verantwortungsvolle KI-Entwicklung weltweit, nicht nur in Europa.

Der Act wird seit Februar 2025 schrittweise eingeführt, und die Verpflichtungen, die für Engineers am wichtigsten sind (Governance-Design, Bias-Dokumentation, Human-Oversight-Mechanismen, Transparenz bei KI-generierten Outputs, Risikoklassifizierung), sind entweder bereits in Kraft oder kommen sehr bald. Die Strafen bei Nichteinhaltung können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes betragen. Unternehmen behandeln das längst nicht mehr als theoretisches Thema. Sie suchen aktiv nach Engineers, die Systeme so entwickeln können, dass sie diese Anforderungen erfüllen – und stellen fest, dass dieses Know-how noch selten ist.

Genau darin liegt die Chance. Nicht einfach ein Compliance-Kästchen zum Abhaken. Sondern eine echte Möglichkeit für Engineers, die Arbeit machen wollen, die tatsächlich relevant ist – Menschen, die eine rechtliche Anforderung nehmen und herausfinden können, was sie in der Codebase bedeutet, nicht nur in einem Policy-Dokument. Model-Evaluation-Workflows, Dokumentationsstandards, Human-in-the-Loop-Safeguards: Das ist technische Arbeit, und im Moment wissen noch nicht viele Engineers, wie man sie wirklich gut umsetzt.

Diejenigen, die es früh lernen, passen sich nicht einfach an eine einzelne Regulierung an. Sie prägen mit, wie vertrauenswürdige KI gebaut wird – in jedem Markt und auf lange Sicht.

Warum das nicht länger nur ein rechtliches Problem ist

Warum das nicht länger nur ein rechtliches Problem ist

Diesen letzten Punkt lohnt es sich genauer anzuschauen, denn viele Teams haben das noch nicht vollständig verinnerlicht. Lange Zeit war die Denkweise: Compliance ist Sache der Juristinnen, Juristen und Policy-Teams. Engineers liefern Features aus. Ethik ist ein nettes Poster in der Büroküche.

Dieses Framing hält nicht mehr stand. Die Anforderungen des EU AI Act landen direkt in der Codebase. Hochrisiko-KI-Systeme (alles, was Beschäftigung, Kredit-Scoring, Gesundheitswesen, Strafverfolgung, Bildung oder kritische Infrastrukturen betrifft) müssen jetzt dokumentierte Risikomanagementsysteme, automatisches Logging, Human-Oversight-Mechanismen und Nachweise für robuste Data Governance enthalten. Jemand muss diese Dinge bauen. Und diese Person ist eine Engineer.

Der Act schafft ausserdem Transparenzpflichten, die sich auch auf General-Purpose-AI-Modelle erstrecken und seit August 2025 durchsetzbar sind. Anbieter müssen Trainingsdaten dokumentieren, KI-generierte Inhalte in maschinenlesbaren Formaten kennzeichnen und Mechanismen implementieren, die Menschen darüber informieren, wenn sie mit einem System und nicht mit einem Menschen interagieren. Das sind technische Deliverables. Keine Slide Decks.

Der EU AI Act reguliert keine Ideen über verantwortungsvolle KI. Er reguliert die Systeme, die Engineers tatsächlich ausliefern.

Und auch ausserhalb der EU wächst derselbe Druck. Italien führte im Oktober 2025 nationale KI-Gesetzgebung ein. Das Vereinigte Königreich, Kanada und mehrere US-Bundesstaaten bewegen sich in ähnliche Richtungen. Unternehmen erkennen, dass sie Menschen brauchen, die beide Sprachen sprechen: technische Umsetzung und regulatorische Intention. Im Moment ist das Venn-Diagramm dieser beiden Dinge ein sehr kleiner Kreis.

Was «Digital Trust» im Alltag tatsächlich bedeutet

Was «Digital Trust» im Alltag tatsächlich bedeutet

«Digital Trust» klingt nach einem Konferenzmotto. In der Praxis ist es ein Set konkreter technischer Verantwortlichkeiten, die immer mehr zu einem Standardbestandteil der Engineering-Arbeit werden.

Bias Detection und Mitigation bedeutet, systematische Checks der Model-Outputs über demografische Gruppen hinweg durchzuführen – mit einem dokumentierten Prozess, um Drift zu erkennen. Tools wie SHAP und LIME gibt es seit Jahren, aber nur sehr wenige Produktteams nutzen sie regelmässig als Teil der QA. Unter dem EU AI Act ist das für Hochrisiko-Systeme vorgeschrieben.

Explainability bedeutet, dass du in klaren Worten beschreiben kannst, warum ein Modell eine Entscheidung getroffen hat. Wenn ein System beim Hiring, bei der Kreditvergabe oder in der medizinischen Triage eingesetzt wird, haben betroffene Personen das Recht auf eine für Menschen verständliche Erklärung. Das von Anfang an in eine Architektur einzubauen, ist etwas völlig anderes, als es nach dem Launch noch schnell anzufügen.

Audit Trails bedeuten, dass du nicht nur Fehler loggst, sondern auch die Entscheidungsherkunft: Welche Daten haben das Modell gespeist, welche Version lief, was war der Output und wann wurde er erzeugt? Das ist teilweise eine Compliance-Anforderung und teilweise ein Vertrauensmechanismus. Wenn etwas schiefläuft – und im grossen Massstab wird etwas schieflaufen –, erholen sich Teams, die diese Infrastruktur bereits haben, schneller und sind rechtlich weniger exponiert.

Human Oversight ist der Punkt, über den schnelle Teams am häufigsten stolpern. Der Act verlangt, dass Hochrisiko-KI-Systeme sinnvolle menschliche Intervention ermöglichen. Das bedeutet, dass du bewusst dafür designen musst, statt einfach anzunehmen, jemand könne das System später schon «übersteuern». Genau dieser Unterschied wird inzwischen bei Konformitätsbewertungen markiert.

Nichts davon ist konzeptionell besonders schwierig. Selten ist vielmehr eine Engineer, die das in der Produktion bereits umgesetzt hat, weiss, wo die Failure Modes liegen, und die Trade-offs gegenüber einer Compliance Officer oder einer Kundin bzw. einem Kunden verständlich machen kann.

Das Gehaltsargument ist ziemlich eindeutig

Das Gehaltsargument ist ziemlich eindeutig

Eine Studie von Lightcast aus dem Jahr 2025 zeigte, dass Stellenanzeigen, in denen mindestens eine KI-Kompetenz genannt wurde, im Durchschnitt 28 % höhere Gehälter boten als solche ohne. Rollen, die technische KI-Skills mit Ethik- und Governance-Expertise kombinieren, erzielen laut Forschenden «signifikante Aufschläge» in regulierten Branchen wie Gesundheitswesen, Finanzen und Versicherungen.

Das AI Jobs Barometer 2025 von PwC ist sogar noch direkter: KI-exponierte Rollen weisen im Durchschnitt eine Lohnprämie von 56 % auf, und die Skills entwickeln sich 66 % schneller als in Nicht-KI-Positionen. AI-Governance-Profis im Tech-Sektor verdienen laut Gehaltsbenchmarks für 2026 Medianlöhne zwischen 205’000 und 221’000 US-Dollar. AI Ethics Officers – eine Rolle, die es vor fünf Jahren kaum gab – liegen heute im Durchschnitt bei rund 135’800 US-Dollar Grundgehalt, und mit wachsender Seniorität steigt diese Zahl deutlich.

Das heisst nicht, dass jede Entwicklerin oder jeder Entwickler, die oder der eine Zusammenfassung des EU AI Act liest, das eigene Gehalt über Nacht verdoppelt. Aber die Prämie ist real, und sie kommt besonders denjenigen zugute, die beide Seiten mitbringen: die Fähigkeit zu bauen und die Fähigkeit, verantwortungsvoll zu bauen. Engineers, die technische KI-Skills mit Compliance- und Ethik-Wissen kombinieren, sind nicht einfach besser vermittelbar – sie sind schwieriger zu ersetzen. Wie es eine Branchenanalyse formulierte, erzielt die «Kombination technischer KI-Kompetenzen mit Ethik-Expertise signifikante Aufschläge» – nicht das eine oder das andere allein.

Das verändert auch deinen Hebel in einer Verhandlung. Wenn du verstehen willst, wie du spezialisierte Skills in tatsächliche Vergütung übersetzt, zeigt dir TieTalents Leitfaden zur Gehaltsverhandlung für Tech-Profis, was für Engineers funktioniert hat, die genau dieses Argument erfolgreich gemacht haben. Die Kurzversion: Daten schlagen Intuition, und seltene Skills schlagen Generalistenprofile – jedes Mal.

Was Entwickler tatsächlich falsch machen

Was Entwickler tatsächlich falsch machen

Hier ist eine Beobachtung, über die es sich lohnt nachzudenken: Der EU AI Act ist seit 2024 öffentlich verfügbar, es gibt Dutzende von Compliance-Guides online – und die meisten Engineering-Teams haben ihre Arbeitsweise trotzdem nicht verändert. Warum?

Ein Teil der Antwort ist, dass die Regulierung komplex ist und der Implementierungszeitplan gestaffelt wurde. Dadurch war es lange einfach, das Thema als Problem von jemand anderem zu betrachten. Ein anderer Teil ist, dass «Ethik» in der Engineering-Kultur immer noch einen akademischen Beigeschmack hat. Es klingt nach Philosophie, nicht nach Systemdesign.

Das eigentliche Problem ist jedoch, dass Compliance zu bauen eine Disziplin ist, die Übung erfordert – genau wie Security oder Performance. Man entwickelt sie nicht, indem man einmal ein Policy-Dokument liest. Man entwickelt sie, indem man sie praktisch umsetzt: Bias-Checks in CI-Pipelines integrieren, Tests für Fairness-Metriken schreiben, und sich der unangenehmen Frage stellen: «Was passiert mit dem Output dieses Modells, wenn sich die Input-Population systematisch von den Trainingsdaten unterscheidet?»

Die meisten Teams überspringen genau diese letzte Frage, weil die Deadline am Dienstag ist. Genau diese Lücke ist es, für deren Schliessung der Markt aktuell bezahlt.

Es gibt eine verwandte Dynamik im Hiring. TieTalents Analyse dazu, wie KI bereits Tech-Karrieren in Europa verändert, lohnt sich, parallel zu diesem Artikel zu lesen:

https://tietalent.com/de/blog/232/ai-is-changing-everything-how-to-future-proof-your-career

Die Engineers, die auch in fünf Jahren noch Premium-Gehälter erzielen, sind diejenigen, die hybride Skillsets aufbauen, die sich nicht einfach durch KI-Tools ersetzen lassen. Zu verstehen, wie man KI verantwortungsvoll entwickelt, ist – etwas ironisch – aktuell eine der Fähigkeiten im Feld, die am stärksten vom Menschen abhängen.

Wie du dieses Skillset konkret aufbaust

Wie du dieses Skillset konkret aufbaust

Du brauchst keinen juristischen Abschluss. Das zentrale Skillset lässt sich in vier Bereiche unterteilen: regulatorisches Verständnis, praktische Tool-Erfahrung, Dokumentationsdisziplin und die Fähigkeit, deine Arbeit für Nicht-Engineers verständlich zu erklären. Nichts davon erfordert einen Karrierewechsel. Es erfordert gezielte Praxis.

Beginne mit der regulatorischen Landkarte. Die Single Information Platform des EU AI Act ist öffentlich zugänglich und enthält einen Compliance Checker, der dir zeigt, welche Verpflichtungen für Systeme gelten, an denen du arbeitest. Die vierstufige Risikoklassifizierung (verboten, hochriskant, begrenztes Risiko, minimales Risiko) zu verstehen, dauert ein paar Stunden, nicht Wochen. Allein das verschafft dir in Gesprächen mit Kundinnen und Kunden einen Vorsprung gegenüber den meisten Engineers.

Arbeite praktisch mit den Tools. Fairlearn, IBM AI Fairness 360 und Googles What-If Tool sind alle Open Source. SHAP und LIME für Explainability sind etablierte Standardbibliotheken. Keines dieser Tools setzt einen spezialisierten Hintergrund in KI-Ethik voraus. Sie verlangen dasselbe wie jedes neue Testing-Framework: Zeit und ein Projekt, auf das du sie anwenden kannst.

Baue Dokumentationsgewohnheiten auf. Einer der am meisten unterschätzten Aspekte der AI-Act-Compliance ist die Notwendigkeit von nachvollziehbaren Dokumentationen. Technische Dokumentation, Model Cards, Data-Governance-Aufzeichnungen – all das muss Teil des Entwicklungsprozesses sein, nicht ein nachträglicher Gedanke. Engineers, die diese Fähigkeit aufgebaut haben, sind für Unternehmen, die Konformitätsbewertungen durchlaufen, sofort wertvoller.

Positioniere dich bewusst. Hier lassen viele Entwicklerinnen und Entwickler Potenzial liegen. Zu wissen, wie man verantwortungsvoll entwickelt, bringt dir im Bewerbungsprozess wenig, wenn du es nicht klar kommunizieren kannst. Zertifizierungen von IEEE, ISO/IEC 42001 (AI-Managementsysteme) oder Programme der IAPP im Bereich AI Governance werden von Hiring-Teams zunehmend anerkannt und senden ein konkretes Signal. Zu verstehen, wie du spezialisierte Skills im Hiring-Prozess präsentierst, ist eine eigene Fähigkeit – und es lohnt sich, sie separat zu entwickeln:

https://tietalent.com/de/blog/215/a-practical-guide-to-talent-assessments


Der Wandel, der bereits stattgefunden hat

Der Wandel, der bereits stattgefunden hat

Die ehrliche Version dieser Entwicklung ist: Für den grössten Teil der 2010er-Jahre war «move fast and break things» eine legitime Engineering-Philosophie. Sie hat viele wertvolle Produkte hervorgebracht – und gleichzeitig viel Vertrauen beschädigt. Verzerrte Hiring-Algorithmen, intransparente Kreditentscheidungen, grossflächige Fehler bei Gesichtserkennung: Das sind keine hypothetischen Risiken. Das sind dokumentierte Ergebnisse von Systemen, die ohne verantwortungsvolle Praktiken gebaut wurden.

Der EU AI Act ist auf einer Ebene schlicht eine regulatorische Antwort auf diese Entwicklung. Er zwingt Unternehmen dazu, Disziplinen einzubauen, die gute Engineering-Praxis eigentlich ohnehin enthalten sollte.

Was sich verändert hat: Der Markt versieht diese Disziplinen inzwischen mit einem klaren Preis. Unternehmen in stark regulierten Branchen – Finanzen, Gesundheitswesen, Versicherungen, öffentlicher Sektor – bauen seit Jahren Kapazitäten für verantwortungsvolle KI auf, teilweise, weil ihre eigenen Regulatoren es verlangt haben. Jetzt breitet sich diese Anforderung auf den gesamten EU-Markt aus. Die Engineers, die das früh erkannt und entsprechende Skills aufgebaut haben, sind teuer und schwer zu finden.

Während sich das Tech-Hiring in Europa weiterentwickelt, steigt die Nachfrage nach compliance-bewussten Engineers deutlich. Sie zeigt sich in Stellenbeschreibungen, in Gehaltsbändern und darin, wie Unternehmen ihre Engineering-Teams strukturieren. Das Gesamtbild der gefragten Tech-Rollen in Europa verändert sich schon seit einiger Zeit:

https://tietalent.com/de/blog/163/recruitment-trends-best-insights-for-europe-and-switzerland

Dies ist eine der klarsten Richtungen, in die sich dieser Wandel bewegt.

Wissen über Responsible AI ist jetzt ein Karriere-Asset

Wissen über Responsible AI ist jetzt ein Karriere-Asset

Schnell zu bauen wird immer wichtig bleiben. Aber die Engineer, die schnell bauen kann und erklären kann, warum das System fair ist, was passiert, wenn es Fehler macht, und wie ein Audit Trail funktioniert – diese Person ist heute, zum ersten Mal seit Langem, die wertvollste Person im Raum.

Nicht, weil Ethik gerade im Trend ist. Sondern weil das Gesetz es verlangt, die Strafen real sind und nur sehr wenige Menschen in den meisten Engineering-Teams tatsächlich wissen, wie man das umsetzt.

Diese Lücke ist eine Karrierechance. Egal, ob du seit sechs Monaten in deiner ersten Developer-Rolle bist oder seit zehn Jahren in einer Senior-Position arbeitest – diese Dimension zu deinem technischen Profil hinzuzufügen, ist aktuell eine der klarsten strategischen Entscheidungen, die du treffen kannst.

Schnelle Antworten: EU AI Act und Engineers

Schnelle Antworten: EU AI Act und Engineers

Gilt der EU AI Act für mich, wenn ich nicht in Europa arbeite?

Ja, potenziell. Der Act hat extraterritoriale Wirkung: Wenn dein KI-System in der EU genutzt wird, mit Nutzerinnen und Nutzern in der EU interagiert oder Entscheidungen über Menschen in der EU beeinflusst, fällt dein Unternehmen in den Geltungsbereich – unabhängig davon, wo es seinen Sitz hat. Anbieter von Hochrisiko-Systemen ausserhalb der EU müssen zudem eine autorisierte Vertretung in der EU benennen.

Was ist ein «Hochrisiko»-KI-System im Sinne des EU AI Act?

Hochrisiko-Systeme sind solche, die in Bereichen eingesetzt werden, die erhebliche Auswirkungen auf die Rechte oder die Sicherheit von Menschen haben. Dazu gehören KI-Systeme in Hiring- und Beschäftigungsentscheidungen, beim Zugang zu Krediten, im Gesundheitswesen, in der Bildung, in der Strafverfolgung und in kritischen Infrastrukturen. Für diese Systeme gelten die strengsten Anforderungen: dokumentiertes Risikomanagement, Bias-Tests, Human-Oversight-Mechanismen, automatisches Logging und Konformitätsbewertungen vor dem Einsatz.

Welche Skills braucht eine Engineer für die Einhaltung des EU AI Act?

Das praktische Skillset umfasst vier Bereiche: das Verständnis der Risikoklassifizierung (welche Systeme welche Verpflichtungen auslösen), Bias Detection und Mitigation mit Tools wie Fairlearn oder IBM AI Fairness 360, das Einbauen von Explainability in Modelle mit SHAP oder LIME sowie die Pflege technischer Dokumentation inklusive Model Cards und Data-Governance-Aufzeichnungen. Auch Kommunikationsfähigkeiten sind entscheidend, da Compliance-Arbeit oft bedeutet, technische Entscheidungen für Legal- und Produktteams verständlich zu machen.

Wie viel mehr verdienen Engineers mit AI-Ethics-Skills?

Laut einer Studie von Lightcast aus dem Jahr 2025 lagen die Gehälter in Stellenanzeigen mit KI-Skills im Durchschnitt 28 % höher. Das AI Jobs Barometer 2025 von PwC zeigt sogar eine Lohnprämie von 56 % für KI-exponierte Rollen insgesamt.


Sind Sie auf der Suche nach einem Job, der zu Ihren Fähigkeiten und Ambitionen passt? Registrieren Sie sich noch heute bei TieTalent und lassen Sie sich mit Unternehmen zusammenbringen, die Ihre Stärken schätzen.