Ja, Ihr Unternehmen kann betroffen sein, wenn ein KI-System Entscheidungen über Menschen, Bildung, kritische Infrastruktur, Kreditwürdigkeit oder ähnliche sensible Bereiche unterstützt. Maßgeblich sind Art. 6 Abs. 2 und Anhang III der EU-VO 2024/1689; die Annex-III-Pflichten gelten nach Art. 113 ab dem 2. August 2026.
Was macht ein KI-System nach dem AI Act zur Hochrisiko-KI?
Hochrisiko-KI entsteht nicht durch das Marketing eines Tools, sondern durch den konkreten Einsatzkontext. Art. 6 EU-VO 2024/1689 kennt zwei Wege: erstens KI als Sicherheitskomponente regulierter Produkte und zweitens eigenständige KI-Systeme in den Bereichen des Anhangs III. Für die meisten Unternehmen ist der zweite Weg entscheidend, weil hier typische Unternehmensanwendungen wie Recruiting, Prüfungsüberwachung oder Kreditwürdigkeitsbewertung auftauchen.
Anhang III ist deshalb praktisch wichtiger als viele Teams denken. Nicht jede generative KI ist automatisch hochriskant, aber dieselbe Technologie kann hochriskant werden, wenn sie Bewerber vorsortiert, Prüfungen überwacht oder den Zugang zu wesentlichen Leistungen beeinflusst. Entscheidend ist also nicht, ob ein Produkt “mit KI” wirbt, sondern ob sein Output Rechte, Chancen oder Sicherheitslagen natürlicher Personen spürbar beeinflusst.
Der Schnelltest: Bin ich wahrscheinlich betroffen?
Sie sind wahrscheinlich betroffen, wenn Sie mehrere dieser Fragen mit Ja beantworten:
- Nutzt Ihr Unternehmen KI in einem Bereich, der in Anhang III genannt ist, etwa Personal, Bildung, Kredit, Versicherungen oder kritische Infrastruktur?
- Hat der Output des Systems erkennbaren Einfluss auf eine Entscheidung über Menschen, ihre Chancen oder ihre Sicherheit?
- Würde ein falsches Ergebnis zu Benachteiligung, Rechtsnachteilen, Sicherheitsproblemen oder wirtschaftlich gravierenden Folgen führen?
- Profilieren Sie natürliche Personen mit dem System oder lassen Sie Profile in Entscheidungen einfließen?
- Entwickeln Sie das System selbst oder setzen Sie ein fremdes System in einem sensiblen Prozess ein?
Wenn Sie bei Punkt 1 bis 4 nicken, sollten Sie die Einordnung nicht auf später verschieben. Parallel lohnt sich ein Blick in unsere FAQ zum EU AI Act, weil dort die allgemeine Schulungspflicht und der Nachweisrahmen für Unternehmen bereits zusammengefasst sind.
Welche Annex-III-Bereiche sind für Unternehmen besonders relevant?
Anhang III listet acht Bereiche. Für den Mittelstand sind nicht alle gleich wahrscheinlich, aber mehrere tauchen schneller auf als vermutet.
| Bereich aus Anhang III | Typische Unternehmensbeispiele | Warum er oft übersehen wird | | --- | --- | --- | | Biometrie | Emotionserkennung am Arbeitsplatz, biometrische Kategorisierung, Fernidentifizierung | Wird oft als “nur Sicherheitstechnik” missverstanden | | Kritische Infrastruktur | KI in Strom-, Wasser-, Wärme-, Gas- oder Verkehrssystemen | Relevanz wird auf Großkonzerne reduziert | | Bildung und Berufsausbildung | Prüfungsaufsicht, Bewertung, Einstufung, Zugangssysteme | Interne Akademien und Zertifikatsprüfungen werden oft vergessen | | Beschäftigung und Personalmanagement | CV-Screening, Ranking, Eignungsprognosen, Leistungsüberwachung | Gerade HR-Tools werden als “nur Assistenz” verkauft | | Wesentliche Dienstleistungen | Kredit-Scoring, Versicherungsrisiko, Notruf-Priorisierung | Finanz- und Versicherungsfunktionen sitzen oft in Drittsoftware | | Strafverfolgung | Für private Unternehmen meist nur ausnahmsweise relevant | Häufig kein Standardfall im KMU | | Migration, Asyl, Grenzkontrolle | Für private Unternehmen selten direkt relevant | Wird eher im öffentlichen Sektor wichtig | | Justiz und demokratische Prozesse | Wahlbeeinflussung, Rechtsanwendung, Tatsachenbewertung | Für Unternehmen meist nur mittelbar relevant |
Für die meisten privaten Unternehmen sind besonders drei Cluster kritisch: Personal, Bildung und wesentliche Dienstleistungen. Genau dort werden heute viele KI-Funktionen als Effizienzfeature verkauft, obwohl der AI Act nicht nach Komfort, sondern nach Risikofolge fragt.
Recruiting und Personalentscheidungen sind der klassische Mittelstandsfall
Recruiting ist einer der klarsten Praxisfälle für Hochrisiko-KI. Anhang III nennt Systeme zur Rekrutierung, Auswahl natürlicher Personen, Entscheidungen über Beschäftigungsverhältnisse, Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung ausdrücklich. Wenn ein System Kandidaten vorsortiert, Eignungsscores erstellt oder Mitarbeiterleistung überwacht, ist die Schwelle zur Hochrisiko-KI oft näher als das Vertriebsmaterial vermuten lässt.
Auch “nur unterstützende” HR-KI ist nicht automatisch harmlos. Wenn Recruiter sich faktisch auf Scores oder Rankings verlassen, beeinflusst das Ergebnis die Entscheidung sehr wohl. Unternehmen sollten deshalb nicht nur die Oberfläche eines Tools prüfen, sondern den realen Entscheidungsfluss im Prozess dokumentieren.
Bildung, Prüfung und interne Qualifizierung können ebenfalls erfasst sein
Bildungsbezug ist nicht auf Universitäten begrenzt. Anhang III erfasst auch Systeme zur Bewertung von Lernergebnissen, zur Bestimmung des Bildungsniveaus oder zur Überwachung bei Prüfungen. Für Unternehmen kann das relevant werden, wenn sie KI in Eignungstests, Schulungsprüfungen oder automatisierten Lernbewertungen einsetzen.
Gerade bei internen Assessments wird Hochrisiko-KI oft unterschätzt. Sobald das System über Zugang, Bewertung oder Weiterentwicklung von Personen mitentscheidet, sollten Sie genauer hinschauen. Wenn Sie dagegen nur allgemeine Lerninhalte zum sicheren KI-Einsatz vermitteln wollen, ist unser Kurs für die Art.-4-Pflicht gedacht und nicht selbst Teil eines Annex-III-Use-Cases.
Kredit, Versicherung und andere wesentliche Dienstleistungen sind keine reine Bankensache
Wesentliche private Dienstleistungen sind nicht nur ein Thema für Großbanken. Der Anhang III nennt unter anderem Kreditwürdigkeitsbewertung und Risikobewertung bei Lebens- und Krankenversicherung. Wer in Finanzierung, Leasing, Versicherungsvertrieb oder Scoring-nahen Modellen arbeitet, sollte prüfen, ob KI den Zugang zu wirtschaftlich wesentlichen Leistungen beeinflusst.
Auch SaaS-Anbieter sollten hier wachsam sein. Wenn Sie ein KI-Modul an Kunden liefern, das genau solche Entscheidungen unterstützt, kann Ihre Rolle in Richtung Anbieter kippen. Dann greifen nicht nur Governance-Fragen für den Einsatz, sondern auch die Anbieterpflichten aus Kapitel III.
Was ist meistens keine Hochrisiko-KI?
Viele verbreitete Unternehmensanwendungen sind nach heutigem Stand nicht automatisch Hochrisiko-KI. Typische Beispiele sind Textentwürfe, Übersetzungen, Meeting-Zusammenfassungen, Ideensammlungen oder allgemeine Rechercheassistenten. Diese Systeme können andere Rechtsfragen auslösen, etwa Datenschutz, Geheimnisschutz oder Transparenz, aber sie fallen nicht allein deshalb unter Anhang III.
Die Entwarnung gilt jedoch nur, solange der Einsatzkontext unsensibel bleibt. Dasselbe Grundmodell kann unkritisch sein, wenn es Marketingtexte formuliert, und hochriskant werden, wenn es Bewerber bewertet oder Kreditentscheidungen vorbereitet. “Wir nutzen nur ChatGPT” ist deshalb keine belastbare Klassifizierung, sondern höchstens eine technische Beschreibung.
Welche Ausnahmen nennt Art. 6 Abs. 3?
Art. 6 Abs. 3 enthält eine wichtige, aber eng begrenzte Ausnahme. Ein Annex-III-System gilt ausnahmsweise nicht als hochriskant, wenn es kein signifikantes Risiko für Gesundheit, Sicherheit oder Grundrechte natürlicher Personen erzeugt und etwa nur eine begrenzte prozedurale Aufgabe erfüllt, das Ergebnis einer schon abgeschlossenen menschlichen Tätigkeit verbessert, Muster erkennt, ohne eine frühere menschliche Bewertung zu ersetzen oder zu beeinflussen, oder nur eine vorbereitende Aufgabe übernimmt.
Diese Ausnahme ist keine pauschale Beruhigungspille. Wer sich darauf beruft, muss die eigene Bewertung dokumentieren; der Verordnungstext nennt das ausdrücklich in Art. 6 Abs. 4. Außerdem bleibt ein System immer hochriskant, wenn es Profiling natürlicher Personen vornimmt. Genau daran scheitern viele allzu optimistische Einordnungen im Personal- und Scoring-Umfeld.
Welche Pflichten kommen bei echter Betroffenheit auf Unternehmen zu?
Wenn Ihr System tatsächlich unter Anhang III fällt, geht es nicht mehr nur um Awareness, sondern um Governance. Kapitel III verlangt dann unter anderem ein Risikomanagementsystem, Daten- und Daten-Governance, technische Dokumentation, Protokollierung, Transparenz gegenüber Betreibern, menschliche Aufsicht sowie Anforderungen an Genauigkeit, Robustheit und Cybersicherheit. Der Pflichtenkern steht in Art. 8 bis 15.
Welche Pflichten Sie konkret tragen, hängt von Ihrer Rolle ab. Anbieter treffen insbesondere die Anforderungen aus Art. 16, Betreiber die Anforderungen aus Art. 26. Für viele Unternehmen bedeutet das praktisch: erst KI-Inventar aufbauen, dann jeden sensiblen Use Case sauber klassifizieren, anschließend Verantwortlichkeiten, Dokumentation und Schulungen festziehen. Wenn Sie nachvollziehbar dokumentieren wollen, wer im Unternehmen welche Grundlagen verstanden hat, hilft ein klar strukturiertes Schulungsformat mit Kurs, Test und Zertifikat.
Welche Fristen und Risiken sollten Sie kennen?
Die Fristen sind klar und sollten intern mit Datum kommuniziert werden. Seit dem 2. Februar 2025 gilt die allgemeine KI-Kompetenzpflicht aus Art. 4. Die speziellen Pflichten für Hochrisiko-KI nach Anhang III greifen nach Art. 113 ab dem 2. August 2026. Wer Annex-III-Use-Cases erst im Sommer 2026 identifiziert, startet zu spät.
Auch bei den Sanktionen lohnt sich Genauigkeit statt Alarmismus. Die oft zitierten bis zu 35 Mio. EUR oder 7 % Jahresumsatz gelten nach Art. 99 Abs. 3 für verbotene Praktiken aus Art. 5. Für Verstöße gegen operatorbezogene Pflichten, also etwa Anbieter-, Betreiber- oder Transparenzpflichten, nennt Art. 99 Abs. 4 bis zu 15 Mio. EUR oder 3 % Jahresumsatz. Wer intern sauber kommuniziert, vermeidet zwei Fehler zugleich: Verharmlosung und falsche Panik.
Was Unternehmen jetzt konkret tun sollten
Der pragmatische Weg ist kurz und machbar. Erfassen Sie zuerst alle KI-Use-Cases mit Personenbezug oder Sicherheitsbezug. Ordnen Sie danach jeden Fall einem Geschäftsprozess zu, nicht nur einem Tool. Prüfen Sie anschließend, ob ein Annex-III-Bereich betroffen ist, ob eine Ausnahme aus Art. 6 Abs. 3 realistisch trägt und ob Profiling vorliegt. Erst danach sollten Sie entscheiden, ob Sie nur Art. 4 sauber umsetzen oder zusätzlich High-Risk-Governance vorbereiten müssen.
Wenn Sie dafür ein gemeinsames Grundverständnis im Team schaffen wollen, starten Sie mit einer kompakten Schulung und gleichen Sie die Ergebnisse mit Ihren Prozessen ab. Unsere Wissensübersicht bündelt die Einordnung, die FAQ beantwortet Standardfragen und auf der Seite Über uns sehen Sie, wie wir die Inhalte aufbereiten.
Fazit: Betroffen sind nicht nur Hersteller, sondern auch Unternehmen mit sensiblen KI-Prozessen
Annex III betrifft nicht nur “große KI-Anbieter”, sondern oft ganz normale Unternehmensprozesse mit hoher Wirkung auf Menschen. Wenn KI bei Recruiting, Prüfungen, Kredit, Versicherung oder kritischer Infrastruktur mitentscheidet, ist eine Hochrisiko-Prüfung Pflichtprogramm. Wenn Sie noch unsicher sind, ob bei Ihnen nur KI-Kompetenz oder bereits High-Risk-Governance ansteht, ist genau jetzt der richtige Zeitpunkt für Inventar, Einordnung und dokumentierte Schulung.
FAQ
Ist ChatGPT automatisch ein Hochrisiko-KI-System?
Nein. Ein allgemeines KI-Modell ist nicht allein wegen seines Namens oder seiner Technologie hochriskant. Entscheidend ist der konkrete Einsatz in einem Annex-III-Bereich und die Frage, ob der Output Entscheidungen über Menschen oder ihre Rechte spürbar beeinflusst.
Ist KI im Recruiting nach dem AI Act regelmäßig Hochrisiko-KI?
Ja, sehr oft. Anhang III nennt Rekrutierung, Auswahl, Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung ausdrücklich. Wer KI dort produktiv einsetzt, sollte grundsätzlich von einer ernsthaften Hochrisiko-Prüfung ausgehen.
Gilt eine vorbereitende KI-Auswertung immer als Ausnahme?
Nein. Eine vorbereitende Aufgabe kann unter Art. 6 Abs. 3 relevant sein, aber nur, wenn kein signifikantes Risiko für Gesundheit, Sicherheit oder Grundrechte entsteht und das System die Entscheidung nicht materiell beeinflusst. In der Praxis ist diese Hürde enger, als viele Anbieter behaupten.
Was, wenn mein Softwareanbieter behauptet, das System sei nicht hochriskant?
Dann sollten Sie sich die Begründung zeigen lassen. Art. 6 Abs. 4 verlangt für solche Fälle eine dokumentierte Bewertung. Als einsetzendes Unternehmen sollten Sie nicht blind auf Marketingaussagen vertrauen, sondern den realen Prozess und die tatsächliche Wirkung des Systems prüfen.
Reicht eine Schulung allein aus, wenn wir Annex-III-Systeme einsetzen?
Nein. Eine Schulung deckt die KI-Kompetenzpflicht aus Art. 4 ab und schafft internes Grundverständnis, ersetzt aber keine Klassifizierung, Dokumentation oder Governance für Hochrisiko-KI. Sie ist der Startpunkt, nicht der Abschluss der Compliance-Arbeit.