← Zur Branchen-Übersicht

Produktion und Industrie

AI Act in Produktion und Industrie: Was für Predictive Maintenance, Qualitätskontrolle und Maschinensteuerung gilt.

Für Produktionsleiter, Instandhaltung, EHS, Qualitätsmanagement und IT gilt: Art. 4 der EU-VO 2024/1689 verpflichtet seit dem 2. Februar 2025 zu ausreichender KI-Kompetenz. Predictive Maintenance ist meist kein automatischer Hochrisiko-Fall, doch Sicherheitskomponenten in Maschinen und bestimmte Infrastruktur-Anwendungen können über Art. 6 in das Hochrisiko-Regime fallen.

Veröffentlicht: 11. März 2026Letzte Aktualisierung: 12. März 2026Produktion und Industrie
KI Verordnung ProduktionAI Act IndustriePredictive Maintenance AI ActKI Schulung ProduktionAI Act Maschinenbau

KI-Kompetenz

seit 2. Februar 2025

Art. 4 verpflichtet Produktionsunternehmen bereits heute, alle Personen mit ausreichender KI-Kompetenz auszustatten, die KI-Systeme bedienen, überwachen, einkaufen oder freigeben.

Predictive Maintenance

meist begrenztes Risiko

Vorausschauende Wartung ist typischerweise kein automatischer Hochrisiko-Fall, solange die KI nicht selbst eine Sicherheitsfunktion übernimmt oder kritische Infrastruktur steuert.

Sicherheitskomponenten

ab 2. August 2027

Wenn KI Teil einer sicherheitsrelevanten Maschine oder eines regulierten Produkts ist, greift der Hochrisiko-Pfad über Art. 6 Abs. 1 und Anhang I mit dem Übergangsstichtag 2. August 2027.

Typische KI-Systeme

Predictive Maintenance

KI, die Ausfallwahrscheinlichkeiten für Maschinen, Lager oder Werkzeugverschleiß berechnet, ist im Regelfall kein automatischer Hochrisiko-Fall.

Relevant wird die Einordnung neu, wenn die Wartungslogik direkt Sicherheitsfunktionen übersteuert oder Ausfälle in kritischer Infrastruktur priorisiert.

Visuelle Qualitätskontrolle

Bildanalyse für Oberflächen, Maßhaltigkeit oder Ausschusserkennung ist meist minimales Risiko, solange das System keine sicherheitskritische Freigabe ersetzt.

Je stärker eine fehlerhafte Klassifikation zu Produktsicherheits- oder Personengefahren führen kann, desto genauer sollten Zweck, Aufsicht und Fallbacks geprüft werden.

Cobots und Maschinensteuerung

KI in Roboterzellen, Sicherheits-SPS oder kollaborativen Maschinen kann hochriskant sein, wenn sie als Sicherheitskomponente eines regulierten Produkts eingesetzt wird.

Dann zählt nicht nur die Effizienz, sondern die CE-relevante Sicherheitsfunktion im Sinne von Art. 6 Abs. 1 und Anhang I.

Digitale Zwillinge und Produktionsoptimierung

Simulations- und Optimierungssysteme für Taktung, Energieeinsatz oder Materialfluss liegen oft außerhalb des Hochrisiko-Regimes.

Trotzdem bleiben Datenqualität, menschliche Freigaben und belastbare Betriebsgrenzen wichtig, damit Optimierungsmodelle nicht faktisch Sicherheitsentscheidungen treffen.

Energie- und Infrastruktursteuerung

KI für Strom-, Gas-, Wärme- oder Wassersteuerung kann unter Anhang III Nr. 2 hochriskant werden, wenn sie als Sicherheitskomponente kritische Infrastruktur verwaltet oder betreibt.

Das betrifft nicht jede Fabrik automatisch, wohl aber bestimmte industrielle Versorger, Netze und kritische Standorte.

Mitarbeiter-Monitoring in der Produktion

KI für Leistungsbewertung, Schichtsteuerung oder verhaltensbezogene Zuweisung von Aufgaben fällt nicht unter Predictive Maintenance, kann aber als Beschäftigungs-KI separat hochriskant sein.

Industrieunternehmen sollten deshalb Anlagen-KI und Personal-KI regulatorisch nie in einem Topf behandeln.

Praktische Maßnahmen

Systeme nach Funktion statt nach Tool-Namen inventarisieren

Sie sollten jedes System danach erfassen, ob es nur Wartungshinweise erzeugt, Qualitätsabweichungen meldet, Maschinen sicher steuert oder Personalentscheidungen beeinflusst. Erst diese Funktionssicht erlaubt eine belastbare Risikoklassifizierung.

Sicherheitslogik und Produktregulierung getrennt prüfen

Sie sollten bei Robotik, Cobots, Safety-Software und KI-gestützten Maschinensteuerungen sauber dokumentieren, ob eine Sicherheitskomponente vorliegt. Dann greifen AI-Act-Pflichten nicht isoliert, sondern im Zusammenspiel mit Produktsicherheits- und CE-Prozessen.

Art. 4 rollenbezogen umsetzen

Sie sollten Instandhaltung, Produktion, EHS, Qualitätsmanagement, Einkauf, IT und Werksleitung nicht mit derselben Schulung abspeisen. Ausreichende KI-Kompetenz muss sich am realen Einsatz, an den Risiken und an den Override-Rechten orientieren.

Menschliche Aufsicht auf dem Shopfloor definieren

Sie sollten festlegen, wer KI-Ausgaben prüft, wer Warnungen priorisiert, wer Anlagen stillsetzen darf und wann der Betrieb auf einen rein menschlichen Fallback umschaltet. Art. 14 verlangt echte Eingriffsrechte statt bloßer Kenntnisnahme.

Lieferantenunterlagen und Vorfallwege absichern

Sie sollten bei kritischen Systemen Herstellerunterlagen, Zweckbestimmung, Betriebsgrenzen, Logging und Meldewege vor dem Rollout prüfen. Gerade in der Industrie entscheidet die Qualität der Betriebsdokumentation darüber, ob ein System kontrollierbar bleibt.

In der Produktion ist Predictive Maintenance meist nicht automatisch Hochrisiko. Für Industrieunternehmen gilt aber seit dem 2. Februar 2025 Art. 4 der EU-VO 2024/1689, und echte Hochrisiko-Pflichten entstehen dort, wo KI als Sicherheitskomponente einer Maschine dient oder als Teil kritischer Infrastruktur eingesetzt wird.

Welche KI in Produktion und Industrie unterschiedlich bewertet wird

Predictive Maintenance ist eine Funktionsfrage und kein pauschaler Hochrisiko-Fall. Wenn eine KI nur Ausfallmuster erkennt, Wartungsfenster empfiehlt oder Ersatzteilbedarfe prognostiziert, spricht vieles für begrenztes oder minimales Risiko. Das passt zu der branchenspezifischen Research-Basis: Vorausschauende Wartung, Produktionsoptimierung und viele Digital-Twin-Anwendungen sind in der Industrie meist anders zu bewerten als Personal-KI, Kreditbewertung oder Notfallsteuerung.

Qualitätskontrolle ist ebenfalls nicht automatisch Hochrisiko. Bildverarbeitung für Oberflächenprüfung, Ausschussreduzierung oder Linienoptimierung bleibt regelmäßig außerhalb des Hochrisiko-Regimes, solange die KI keine sicherheitskritische Produktfreigabe ersetzt. Sobald eine Fehlklassifikation aber unmittelbar zu Gesundheits-, Maschinen- oder Produktsicherheitsrisiken führen kann, reicht eine bloße Effizienzbetrachtung nicht mehr aus. Dann müssen Zweck, Aufsicht und Fallbacks deutlich strenger geprüft werden.

Assistenzsysteme für Wartung, Dokumentation oder Bedienerhinweise sind häufig ein weiterer Grenzfall. Wenn ein industrieller Copilot nur Anleitungen zusammenfasst, Tickets vorsortiert oder Servicetexte formuliert, spricht das eher für begrenztes Risiko mit Transparenzfragen nach Art. 50. Auch hier bleibt aber entscheidend, ob das System nur unterstützt oder faktisch sicherheitskritische Entscheidungen vorgibt.

Produktionsunternehmen sollten deshalb jedes KI-System nach seiner tatsächlichen Funktion klassifizieren. Ein Wartungsmodell, ein Kamera-System für Qualitätsprüfung und eine Cobot-Steuerung mögen vom selben Anbieter stammen, regulatorisch sind sie trotzdem nicht identisch. Diese Trennung ist die Grundlage dafür, FAQ, Lieferantenangaben und interne Freigaben konsistent auszuwerten.

Wo Hochrisiko in der Industrie tatsächlich entsteht

Hochrisiko entsteht in der Industrie vor allem über den Produktpfad aus Art. 6, Anhang I und den einschlägigen Produktsicherheitsregimen. Wenn KI Teil einer sicherheitsrelevanten Maschine, eines Cobots, einer Hebeanlage, eines Druckgeräts oder einer anderen regulierten Produktkategorie ist, wird nicht die Branche als Ganzes hochriskant, sondern das konkrete System aufgrund seiner Sicherheitsfunktion. Für diese verbleibenden produktregulierten Fälle ist der relevante Übergangsstichtag der 2. August 2027.

Ein zweiter Hochrisiko-Pfad kann über Anhang III Nr. 2 entstehen. Das betrifft KI als Sicherheitskomponente in der Verwaltung und dem Betrieb kritischer digitaler Infrastruktur sowie der Versorgung mit Wasser, Gas, Wärme oder Strom. Nicht jede Produktionsstätte ist deshalb automatisch Hochrisiko. Betroffen sind aber industrielle Betreiber, deren KI direkt versorgungs- oder sicherheitsrelevante Infrastruktur steuert. Für diese eigenständigen Hochrisiko-Systeme ist der Stichtag der 2. August 2026.

Ein dritter Risikofehler in der Praxis liegt außerhalb der Maschine selbst: Produktions-KI und Beschäftigten-KI werden oft vermischt. Sobald ein Unternehmen KI zur Leistungsbewertung, Schichtzuweisung oder Verhaltensüberwachung von Beschäftigten nutzt, verlässt es den Predictive-Maintenance-Kontext und bewegt sich in die Hochrisiko-Logik des Personalbereichs. Für Industriebetriebe ist deshalb wichtig, Anlagen-KI, Sicherheits-KI und Personal-KI organisatorisch sauber zu trennen.

Was Produktionsunternehmen schon heute tun sollten

Art. 4 gilt bereits und macht KI-Kompetenz zur unmittelbaren Hausaufgabe. Produktionsleiter, Instandhaltung, EHS, Qualitätsmanagement, Einkauf, IT und Werksleitung sollten deshalb heute dokumentieren können, welche KI-Systeme sie einsetzen, wer sie bedient und welche Entscheidungen ein Mensch final freigibt. Ein allgemeiner Vortrag über KI reicht in der Industrie regelmäßig nicht aus, weil Wartung, Qualitätsprüfung und Maschinenbetrieb sehr unterschiedliche Risiken auslösen.

Die erste praktische Maßnahme ist ein Systeminventar nach Funktion. Erfassen Sie, ob eine KI nur Vorhersagen liefert, Entscheidungen vorbereitet, sicherheitsrelevante Schwellenwerte setzt oder unmittelbar mit Aktoren und Anlagensteuerung verknüpft ist. Die zweite Maßnahme ist eine Rollenmatrix, damit Bediener, Instandhalter, EHS-Verantwortliche und IT nicht dieselben Lernziele bekommen. Die dritte Maßnahme ist eine klare Menschliche Aufsicht: Wer darf Warnungen ignorieren, wer muss eskalieren, wer darf Anlagen stoppen?

Auch Lieferantenunterlagen sollten früh geprüft werden. Hersteller müssen bei sensiblen Systemen Zweckbestimmung, Nutzungsgrenzen, Logging und Betriebsbedingungen sauber dokumentieren. Betreiber wiederum müssen nach Art. 26 technische und organisatorische Maßnahmen treffen, um Systeme gemäß Gebrauchsanweisung einzusetzen. Wo diese Unterlagen fehlen, steigt das Risiko, dass ein Werk ein System falsch klassifiziert oder unsicher betreibt.

Was bis August 2026 und August 2027 vorbereitet sein sollte

Bis zum 2. August 2026 sollten Produktionsunternehmen alle Systeme markieren, die wegen kritischer Infrastruktur oder vergleichbarer Sicherheitsfunktionen unter Anhang III fallen könnten. Dazu gehören insbesondere KI-Anwendungen in werkseigenen Versorgungsnetzen, Leitständen oder sicherheitsrelevanten Steuerungsumgebungen. Für diese Fälle sollten Zuständigkeiten, Monitoring, Logging, Vorfallwege und Freigaben vor dem Stichtag belastbar beschrieben sein.

Bis zum 2. August 2027 sollten Unternehmen zusätzlich die produktregulierten Sicherheitskomponenten mit KI im Blick haben. Wer Cobots, intelligente Schutzsysteme oder KI-gestützte Maschinen mit sicherheitsrelevanter Wirkung beschafft oder integriert, sollte früh mit Engineering, Einkauf, CE-Verantwortlichen und Lieferanten klären, welche Nachweise, Konformitätsschritte und Betriebsgrenzen tatsächlich vorliegen. Wer damit erst kurz vor dem Stichtag beginnt, verliert im Maschinen- und Anlagenbau schnell Zeit zwischen Entwicklung, Beschaffung und Validierung.

Warum sich der Kurs für Produktions- und Instandhaltungsteams lohnt

Produktion und Industrie brauchen keine abstrakte KI-Debatte, sondern eine belastbare Trennung zwischen Effizienz-KI, Sicherheits-KI und Personal-KI. Genau dort setzt der Kurs an: Er übersetzt Art. 4, Hochrisiko-Logik und Dokumentationsfragen in einen praxistauglichen Schulungsnachweis mit Zertifikat für Fachbereich, Compliance und operative Verantwortung.

Wenn Sie Predictive Maintenance, visuelle Qualitätskontrolle oder KI-gestützte Maschinensteuerung einführen, sollten Sie danach die allgemeine FAQ und die Branchenübersicht nutzen, um ähnliche Use Cases intern sauber zu vergleichen. So bleibt die Einordnung nicht bei Bauchgefühl stehen, sondern wird für Einkauf, Betrieb und Führung nachvollziehbar dokumentiert.

Häufige Fragen

Ist Predictive Maintenance im AI Act automatisch Hochrisiko?+
Nein. Predictive Maintenance ist in Produktionsumgebungen meist begrenztes oder minimales Risiko, solange die KI nur Wartung unterstützt und keine Sicherheitsfunktion einer regulierten Maschine oder kritischen Infrastruktur übernimmt.
Was gilt für Produktionsunternehmen schon heute?+
Seit dem 2. Februar 2025 gilt Art. 4 zur KI-Kompetenz. Unternehmen müssen also bereits jetzt Maßnahmen treffen, damit alle relevanten Personen KI-Systeme informiert, sicher und zweckgerecht nutzen und überwachen können.
Wann greifen Hochrisiko-Pflichten in der Industrie?+
Für eigenständige Hochrisiko-Systeme nach Anhang III, etwa bestimmte Infrastruktur-Anwendungen, ist der Stichtag der 2. August 2026. Für sicherheitsrelevante KI in regulierten Produkten nach Art. 6 Abs. 1 und Anhang I ist der Übergangsstichtag der 2. August 2027.
Ist KI in der Qualitätskontrolle automatisch reguliert?+
Nein. Visuelle Qualitätskontrolle ist nicht automatisch Hochrisiko. Die Einordnung ändert sich aber, wenn das System faktisch sicherheitskritische Freigaben ersetzt oder unmittelbar über Gesundheits- und Sicherheitsrisiken mitentscheidet.
Braucht die Industrie ein spezielles Zertifikat?+
Nein. Der AI Act verlangt kein spezielles Zertifikat. Er verlangt ausreichende KI-Kompetenz nach Art. 4. Ein dokumentierter Schulungsnachweis mit Zertifikat ist aber sinnvoll, um Maßnahmen intern nachvollziehbar zu machen.
Warum müssen Lieferantenunterlagen so genau geprüft werden?+
Weil Betreiber nach Art. 26 technische und organisatorische Maßnahmen treffen müssen, um Systeme gemäß Zweckbestimmung und Gebrauchsanweisung einzusetzen. Ohne belastbare Unterlagen steigt das Risiko einer falschen Einstufung und fehlerhaften Nutzung.