KI-Kompetenz
seit 2. Februar 2025
Art. 4 verpflichtet Automobilunternehmen bereits heute, alle Personen mit ausreichender KI-Kompetenz auszustatten, die KI-Systeme entwickeln, validieren, einkaufen, überwachen oder operativ nutzen.
Automobilindustrie
Für OEMs, Entwicklungsbereiche, Qualität, Compliance und Zulieferer gilt: Art. 4 der EU-VO 2024/1689 verpflichtet seit dem 2. Februar 2025 zu ausreichender KI-Kompetenz. Hochrisiko-Pflichten entstehen in der Automobilindustrie nicht pauschal für jede KI, sondern vor allem bei Sicherheitskomponenten in Fahrzeugen, bei bestimmten Verkehrs- und Infrastruktur-Anwendungen sowie bei KI-Systemen im Personalbereich.
KI-Kompetenz
Art. 4 verpflichtet Automobilunternehmen bereits heute, alle Personen mit ausreichender KI-Kompetenz auszustatten, die KI-Systeme entwickeln, validieren, einkaufen, überwachen oder operativ nutzen.
Fahrzeug-Sicherheitskomponenten
Wenn KI Teil einer sicherheitsrelevanten Fahrzeugfunktion ist, läuft der Hochrisiko-Pfad über Art. 6 Abs. 1 und Anhang I. Für diese verbleibenden produktregulierten Fälle ist der Übergangsstichtag der 2. August 2027.
Verkehrs- und HR-KI
Eigenständige Hochrisiko-Systeme nach Anhang III, etwa bestimmte Verkehrsmanagement-Anwendungen oder KI im Recruiting, werden ab dem 2. August 2026 voll anwendbar.
Typische KI-Systeme
KI in Fahrassistenz, Sensorfusion, Objekterkennung oder Fahrentscheidungen ist regulatorisch besonders sensibel, wenn sie eine sicherheitsrelevante Fahrzeugfunktion trägt.
Dann ist nicht die Branche abstrakt relevant, sondern die konkrete Sicherheitskomponente im Sinne von Art. 6 Abs. 1 und Anhang I.
KI für Verkehrsfluss, Flottenkoordination oder straßenverkehrsnahe Leitstände kann unter Anhang III Nr. 2 fallen, wenn sie die Verwaltung oder den Betrieb des Straßenverkehrs sicherheitsrelevant beeinflusst.
Das ist vom Fahrzeug selbst zu trennen: Verkehrsmanagement und Fahrzeugfunktion sind zwei unterschiedliche regulatorische Kontexte.
Bildanalyse für Lack, Oberflächen, Spaltmaße oder Bauteilfehler ist oft minimales oder begrenztes Risiko, solange die KI keine sicherheitskritische Freigabe ersetzt.
Je näher die Entscheidung an Produktsicherheit und Rückrufrisiken rückt, desto strenger müssen Zweck, Aufsicht und Freigaben dokumentiert werden.
Vorausschauende Wartung für Anlagen, Roboter oder Prüftechnik ist meist kein automatischer Hochrisiko-Fall.
Relevant wird die Einordnung neu, wenn die KI direkt in sicherheitsrelevante Steuerungen eingreift oder kritische Infrastruktur eines Standorts verwaltet.
KI für Bewerber-Screening, Ranking oder automatisierte Personalauswahl ist kein Industrie-Sonderfall, sondern Personal-KI mit möglichem Hochrisiko nach Anhang III Nr. 4.
Gerade große Einstellungsvolumina machen diese Trennung für HR, Compliance und Fachbereiche praktisch wichtig.
KI-Assistenten für Code, Testdokumentation oder Wissenssuche sind oft minimales oder begrenztes Risiko, lösen aber trotzdem Art. 4-Pflichten aus.
Zusätzlich können Transparenzpflichten nach Art. 50 relevant werden, wenn KI-generierte Inhalte extern bereitgestellt werden.
Praktische Maßnahmen
Sie sollten Fahrfunktionen, Prüfprozesse, Produktions-KI, Verkehrssteuerung und HR-KI getrennt erfassen. Erst diese Funktionssicht erlaubt eine belastbare Risikoklassifizierung statt einer pauschalen Einordnung unter dem Label Automotive.
Sie sollten bei ADAS, Sensorfusion, Safety-Software und KI-gestützten Fahrzeugfunktionen sauber dokumentieren, ob eine Sicherheitskomponente vorliegt. Dann greifen AI-Act-Pflichten im Zusammenspiel mit Produktsicherheits-, Validierungs- und Zulieferprozessen.
Sie sollten definieren, wer Modelle validiert, wer Grenzfälle eskaliert, wer Releases stoppt und wann ein Fallback greift. Art. 14 verlangt echte Eingriffs- und Überwachungsmöglichkeiten statt bloßem Monitoring.
Sie sollten Herstellerunterlagen, Zweckbestimmung, Logging, Nutzungsgrenzen und Vorfallwege vor dem Rollout prüfen. Art. 26 verlangt, Systeme gemäß Gebrauchsanweisung einzusetzen und intern organisatorisch kontrollierbar zu halten.
Sie sollten Entwicklung, Test, Qualität, Einkauf, Cybersecurity, Functional Safety, Werkleitung und HR nicht identisch schulen. Ausreichende KI-Kompetenz richtet sich nach Aufgabe, Risiko und Override-Rechten der jeweiligen Rolle.
Die Automobilindustrie muss KI-Systeme seit dem 2. Februar 2025 kompetent beherrschen. Art. 4 der EU-VO 2024/1689 gilt bereits heute, während Hochrisiko-Pflichten vor allem bei Fahrzeug-Sicherheitskomponenten, bestimmten Verkehrsmanagement-Anwendungen und KI im Recruiting scharf werden.
Autonomes Fahren ist kein Marketingbegriff, sondern ein Sicherheitskontext. Wenn KI in Fahrassistenz, Sensorfusion, Objekterkennung oder Entscheidungslogik eine sicherheitsrelevante Fahrzeugfunktion trägt, wird die Einordnung über Art. 6 und Anhang I maßgeblich. Für diese produktregulierten Fälle nennt Art. 113 den 2. August 2027 als relevanten Übergangsstichtag.
Qualitätskontrolle in Presswerk, Lackiererei oder Endabnahme ist dagegen nicht automatisch Hochrisiko. KI für Fehlerbilder, Oberflächenanalyse oder Ausschusserkennung bleibt oft außerhalb des Hochrisiko-Regimes, solange das System keine sicherheitskritische Freigabe ersetzt. Gerade deshalb sollten Fachbereich und Compliance nicht jedes Kamera-System pauschal wie Fahrzeug-KI behandeln.
Predictive Maintenance ist ebenfalls meist kein automatischer Hochrisiko-Fall. Wenn eine KI nur Ausfallmuster erkennt, Wartungsfenster empfiehlt oder Ersatzteile prognostiziert, spricht vieles für minimales oder begrenztes Risiko. Relevanter wird die Lage, wenn die Logik direkt in sicherheitsrelevante Steuerungen eingreift oder eine standortkritische Infrastruktur verwaltet.
Recruiting-KI ist in der Automobilindustrie ein eigener Regulierungsstrang. Systeme für Bewerber-Screening, Matching oder Ranking fallen nicht unter autonomes Fahren, sondern können als Beschäftigungs-KI nach Anhang III Nr. 4 hochriskant sein. Wer Automotive-KI und Personal-KI organisatorisch vermischt, klassifiziert in der Praxis oft falsch.
Hochrisiko entsteht im Automotive-Umfeld zuerst über den Produktpfad. Sobald KI als Sicherheitskomponente eines Fahrzeugs oder einer regulierten Fahrzeugfunktion eingesetzt wird, ist die Verbindung zu Produktsicherheit zentral. Für Entwicklungsbereiche bedeutet das: Modellleistung, Validierung, Betriebsgrenzen und Fallbacks sind keine rein technischen Detailfragen, sondern Teil einer später belastbaren Compliance-Argumentation.
Hochrisiko kann zweitens über Anhang III Nr. 2 entstehen. Das betrifft KI für die Verwaltung und den Betrieb des Straßenverkehrs oder anderer kritischer Infrastrukturen. Nicht jede Flottenauswertung und nicht jede Standortlogistik ist deshalb automatisch Hochrisiko. Betroffen sind aber Konstellationen, in denen KI sicherheitsrelevante Entscheidungen im Verkehrs- oder Infrastrukturbetrieb vorbereitet oder steuert; für diese eigenständigen Hochrisiko-Systeme ist der 2. August 2026 der maßgebliche Stichtag.
Hochrisiko entsteht drittens häufig außerhalb des Fahrzeugs. Wenn OEMs oder Zulieferer KI für Personalauswahl, Leistungsbewertung oder automatisierte Beschäftigtenentscheidungen einsetzen, greift ein anderer Risikopfad als in Engineering oder Produktion. Diese Trennung ist für FAQ, interne Policies und Lieferantenabfragen wichtiger als jede pauschale Branchenfolie.
Art. 4 macht KI-Kompetenz zur sofortigen Hausaufgabe. Entwicklungsleitung, Functional Safety, Qualität, Einkauf, Cybersecurity, Werkleitung und HR sollten heute dokumentieren können, welche KI-Systeme eingesetzt werden, welche Risiken sie auslösen und wer eine KI-Ausgabe überstimmen darf. Ein allgemeiner Überblick über KI reicht dafür nicht aus.
Die erste praktische Maßnahme ist ein Systeminventar nach Funktion. Erfassen Sie getrennt, ob eine KI Fahrentscheidungen vorbereitet, Qualitätsabweichungen meldet, Wartungshinweise gibt, Personal auswählt oder Verkehrsflüsse steuert. Die zweite Maßnahme ist eine Rollenmatrix, damit Test, Engineering, Qualität und Einkauf nicht dieselben Lernziele erhalten. Die dritte Maßnahme ist eine klare menschliche Aufsicht: Wer validiert, wer stoppt, wer eskaliert?
Betreiberpflichten sollten außerdem entlang der Lieferkette abgesichert werden. Art. 26 verlangt technische und organisatorische Maßnahmen für den Einsatz gemäß Zweckbestimmung und Gebrauchsanweisung. Gerade bei OEM-Tier-1-Tier-2-Konstellationen entscheidet deshalb die Qualität von Lieferantenunterlagen, Logging, Nutzungsgrenzen und Vorfallwegen darüber, ob ein System intern kontrollierbar bleibt. Für schwerwiegende Vorfälle und Fehlfunktionen sollte zudem früh geklärt sein, welche Eskalationswege nach Art. 73 relevant werden können.
Die Automobilindustrie braucht keine abstrakte KI-Debatte, sondern eine belastbare Trennung zwischen Fahrzeug-Sicherheitskomponenten, Werk- und Qualitäts-KI, Verkehrsmanagement und Personal-KI. Genau dort setzt der Kurs an: Er übersetzt Art. 4, Hochrisiko-Logik und Dokumentationsfragen in einen praxistauglichen Schulungsnachweis mit Zertifikat für Fachbereich, Compliance und operative Verantwortung.
Wenn Sie autonome Fahrfunktionen, KI in der Qualitätskontrolle oder AI-Copilots in Entwicklung und Dokumentation einführen, sollten Sie anschließend die Branchenübersicht, die allgemeine FAQ und den Kurs nutzen, um ähnliche Use Cases intern konsistent zu vergleichen. So bleibt die Einordnung nicht bei Bauchgefühl stehen, sondern wird für Management, Entwicklung und Zulieferer nachvollziehbar dokumentiert.
Häufige Fragen