Die häufigsten AI-Act-Compliance-Fehler sind falscher Scope, Warten bis 2026, pauschale Schulungen, fehlende Nachweise und isolierte Richtlinien ohne echte Governance. Seit dem 2. Februar 2025 gilt Art. 4 der EU-VO 2024/1689 bereits für Anbieter und Betreiber von KI-Systemen.
Wer diese fünf Fehler vermeidet, reduziert nicht nur regulatorisches Risiko, sondern baut schneller eine belastbare Mindestlinie für Schulung, Dokumentation und Verantwortlichkeiten auf. Für die Einordnung der Grundpflicht hilft zuerst unser Beitrag zur KI-Schulungspflicht nach Artikel 4; für die Sanktionslogik dahinter lohnt sich zusätzlich die Übersicht zu AI Act Bußgeldern und Strafen.
| Fehler | Warum er riskant ist | Was stattdessen sinnvoll ist | | --- | --- | --- | | 1. Zu spät starten | Art. 4 gilt seit dem 2. Februar 2025, nicht erst ab dem 2. August 2026. | KI-Inventur und Basisschulung sofort beginnen. | | 2. Herstellerpflichten verwechseln | Anbieterpflichten von OpenAI, Microsoft oder Google entlasten Ihr Unternehmen nicht. | Eigene Betreiberpflichten und interne Regeln sauber definieren. | | 3. Alle gleich schulen | Art. 4 verlangt Berücksichtigung von Wissen, Erfahrung und Nutzungskontext. | Rollenbasiert und use-case-nah schulen. | | 4. Nichts dokumentieren | Ohne Nachweis bleibt Compliance im Ernstfall nur eine Behauptung. | Schulungsinhalt, Datum, Version, Test und Schulungszertifikat speichern. | | 5. Art. 4 isoliert behandeln | Verbote, Transparenzpflichten und Hochrisiko-Bezüge laufen im Alltag parallel. | Schulung mit Art. 5, Art. 50 und sensiblen Use Cases verzahnen. |
Fehler 1: Den AI Act erst ab dem 2. August 2026 ernst zu nehmen
Wer Art. 4 bis August 2026 aufschiebt, startet zu spät. Gemäß Art. 113 der EU-VO 2024/1689 sind Art. 4 und Art. 5 seit dem 2. Februar 2025 anwendbar; der 2. August 2026 markiert den Beginn des Hauptteils der Verordnung, aber nicht den Start der KI-Kompetenzpflicht.
In der Praxis entsteht dieser Fehler, weil Unternehmen Hochrisiko-KI, Marktaufsicht und große Bußgeldsummen mit dem gesamten AI Act gleichsetzen. Dadurch wird übersehen, dass die Grundpflicht zur KI-Kompetenz schon heute gilt, auch wenn Sie "nur" ChatGPT, Copilot oder andere Standard-Tools im Arbeitsalltag einsetzen. Genau diese Fehleinschätzung führt später zu hektischen Rollouts, lückenhaften Nachweisen und schlecht abgestimmten Richtlinien.
Der bessere Ansatz ist einfacher: Behandeln Sie Art. 4 als Sofortpflicht und August 2026 als Verstärker, nicht als Startsignal. Wer jetzt eine saubere Mindestlinie aufsetzt, ist bis zur breiteren Durchsetzung deutlich robuster. Wenn Sie den Rechtsrahmen dazu noch einmal kompakt aufbereitet brauchen, finden Sie die Einordnung in unserem Beitrag zur KI-Schulungspflicht nach Artikel 4.
Fehler 2: Herstellerpflichten mit Betreiberpflichten zu verwechseln
OpenAI, Microsoft, Google oder andere Anbieter entlasten Ihr Unternehmen nicht. Art. 4 der EU-VO 2024/1689 richtet die Pflicht ausdrücklich an Anbieter und Betreiber; wer KI-Systeme beruflich unter eigener Verantwortung einsetzt, muss eigene Maßnahmen für ausreichende KI-Kompetenz treffen.
Dieser Fehler zeigt sich oft in Sätzen wie: "Der Hersteller hat doch eigene Dokumentation" oder "Wir nutzen nur ein Standardtool." Das reicht nicht. Herstellerunterlagen können nützlich sein, aber sie ersetzen weder Ihre internen Freigaben noch Ihre rollenbezogene Schulung. Ihr Unternehmen entscheidet schließlich selbst, in welchen Prozessen das Tool eingesetzt wird, welche Daten hineingehen, wie Outputs geprüft werden und wer die Ergebnisse verantwortet.
Deshalb sollte jede AI-Act-Compliance mit einer kurzen Betreiberperspektive beginnen: Welche Tools werden real genutzt, welche Teams arbeiten damit und welche Entscheidungen oder Texte verlassen später auf Basis dieser Systeme das Haus? Genau diese Fragen beantworten später auch die operative Umsetzung im Kurs und die häufigsten Praxisfragen in der FAQ.
Fehler 3: Eine Einheits-Schulung für alle Rollen auszurollen
Eine pauschale Schulung für alle Teams verfehlt Art. 4. Die Norm verlangt ausdrücklich, technisches Wissen, Erfahrung, Ausbildung, Training und den Nutzungskontext zu berücksichtigen; zusätzlich definiert Art. 3 Nr. 56 der EU-VO 2024/1689 KI-Kompetenz als Wissen und Verständnis, das eine informierte Nutzung von KI ermöglicht.
Für die Praxis heißt das: Geschäftsführung, HR, Fachbereiche und IT brauchen nicht identische Inhalte. HR-Teams müssen andere Risiken erkennen als Marketing oder Vertrieb, weil Recruiting, Bewerberbewertung und Personalauswahl deutlich sensibler sein können. Fachbereiche mit generativer KI brauchen klare Regeln zu Daten, Freigaben und Output-Prüfung. Führungskräfte müssen dagegen eher verstehen, wo Verantwortung, Governance und Eskalation liegen.
Ein brauchbares Schulungskonzept arbeitet deshalb mit Rollenclustern statt mit Gießkanne. Schon drei Niveaus reichen meist aus: Basisschulung für alle KI-Nutzer, vertiefte Module für sensible Prozesse und ein Governance-Track für Führung, HR, Compliance und IT. Wenn Sie aus genau diesem Grund kein allgemeines Webinar ohne Tiefgang wollen, ist ein strukturierter Kurs mit Schulungszertifikat der deutlich belastbarere Startpunkt.
Fehler 4: Schulungen durchzuführen, aber nichts belastbar zu dokumentieren
Ohne Nachweis bleibt Compliance im Ernstfall nur eine Behauptung. Auch wenn Art. 99 der EU-VO 2024/1689 keinen eigenen unionsweit harmonisierten Bußgeldtatbestand nur für Art.-4-Verstöße enthält, brauchen Unternehmen eine nachvollziehbare Dokumentation ihrer Maßnahmen, weil genau dort Governance, Haftung und spätere Aufsicht ansetzen.
Ein häufiger Irrtum lautet: "Wir haben doch geschult, also sind wir fertig." Das Problem beginnt, sobald niemand mehr sauber sagen kann, wer wann was gelernt hat. Fehlen Datum, Zielgruppe, Version, Lernziel oder Teststand, wird aus einer durchgeführten Maßnahme schnell ein kaum belastbarer Erinnerungspunkt. Spätestens bei internen Audits, Kundenfragen oder einem Vorfall ist das zu dünn.
Mindestens dokumentiert werden sollten:
- welche Rollen geschult wurden,
- auf welche Inhalte der Schulungsstand Bezug nimmt,
- wann die Schulung durchgeführt oder aktualisiert wurde,
- ob eine Lernkontrolle oder ein Abschlusstest erfolgt ist,
- welches personenbezogene Schulungszertifikat oder welcher gleichwertige Nachweis vorliegt.
Wenn Sie diesen Nachweis nicht manuell über Tabellen und verstreute PDFs aufbauen wollen, ist der Kurs bewusst auf Abschluss, Nachweis und operative Dokumentation ausgelegt. Ergänzend beantwortet unsere FAQ typische Rückfragen zu Umfang, Team-Rollout und Nachweisformat.
Fehler 5: Art. 4 isoliert zu behandeln und andere AI-Act-Pflichten auszublenden
KI-Kompetenz allein macht Ihr Unternehmen noch nicht AI-Act-konform. Mitarbeitende müssen erkennen können, wann verbotene Praktiken nach Art. 5 der EU-VO 2024/1689, Transparenzpflichten nach Art. 50 der EU-VO 2024/1689 oder sensible Einsatzfelder nach Art. 6 in Verbindung mit Anhang III berührt sind.
Dieser Fehler entsteht oft in gut gemeinten Schulungen, die nur erklären, dass "man halt vorsichtig mit KI sein soll". Das ist zu allgemein. Wer in HR arbeitet, muss wissen, wann KI in Recruiting-Prozessen ein Hochrisiko-Bezug sein kann. Wer externe Chatbots, KI-generierte Bilder oder synthetische Inhalte nutzt, muss Transparenzpflichten einordnen können. Wer mit besonders sensiblen Daten arbeitet, muss verstehen, dass AI-Act-, Datenschutz- und Geheimnisschutzfragen operativ zusammenlaufen.
Die pragmatische Lösung ist, Art. 4 nicht als Einzelnorm zu lehren, sondern als Eingangstor in die reale Nutzungspraxis. Gute Schulungen erklären deshalb immer auch rote Linien, Kennzeichnungspflichten, Freigaben und Eskalationswege. Welche finanziellen Folgen andere Verstöße haben können, zeigt unsere Übersicht zu AI Act Bußgeldern und Strafen.
So vermeiden Unternehmen die fünf Fehler in 30 Tagen
Die wirksamste Gegenmaßnahme ist kein Großprojekt, sondern eine kurze, belastbare Reihenfolge. Wenn Sie in den nächsten 30 Tagen fünf Schritte sauber abarbeiten, haben Sie bereits eine deutlich bessere Ausgangslage als viele Unternehmen, die den AI Act noch immer als Zukunftsthema behandeln.
- KI-Inventur erstellen: Listen Sie alle genutzten KI-Tools, Teams und sensiblen Anwendungsfälle.
- Rollen clustern: Trennen Sie Basisschulung, vertiefte Schulung und Governance-Verantwortung.
- Mindestinhalte definieren: Art. 4, Art. 5, Transparenz, Datenregeln und interne Eskalation gehören in jedes belastbare Grundprogramm.
- Nachweisstandard festlegen: Datum, Inhalte, Test, Version und Schulungszertifikat pro Person zentral speichern.
- Review-Termin setzen: Prüfen Sie vor dem 2. August 2026, welche Use Cases zusätzliche AI-Act-Pflichten auslösen könnten.
Wenn Sie dafür keinen eigenen Schulungsprozess von null aufbauen wollen, führt Sie unser EU AI Act Kurs in 90 Minuten durch die rechtlichen Grundlagen, typische Praxisfehler und einen dokumentierbaren Abschluss für Ihr Team.
FAQ: Häufige Fragen zu AI Act Fehlern in der Compliance
Gilt Art. 4 auch für kleine Unternehmen?
Ja. Art. 4 gilt nicht nur für Konzerne, sondern für Anbieter und Betreiber von KI-Systemen allgemein. Die Größe des Unternehmens beeinflusst den Umfang der Maßnahmen, aber nicht die Grundpflicht selbst. Kleine Unternehmen dürfen also pragmatischer vorgehen, nicht untätig bleiben.
Reicht eine KI-Richtlinie ohne Schulung?
Nein. Eine Richtlinie ist sinnvoll, ersetzt aber keine Maßnahme zur KI-Kompetenz. Art. 4 verlangt, dass ein ausreichendes Kompetenzniveau sichergestellt wird; Papierregeln ohne Training, Beispiele und Verständnisaufbau sind dafür regelmäßig zu schwach.
Braucht jedes Unternehmen ein Schulungszertifikat?
Die Verordnung schreibt kein bestimmtes Nachweisformat und keinen bestimmten Titel vor. Praktisch ist ein personenbezogenes Schulungszertifikat zusammen mit Teilnehmerliste, Schulungsinhalt und Abschlussstand aber der einfachste belastbare Nachweis für interne Governance und spätere Rückfragen.
Gibt es für Art. 4 schon ein eigenes Bußgeld?
Nein. Art. 99 nennt keinen eigenen unionsweit harmonisierten Bußgeldtatbestand speziell für Art. 4. Das bedeutet aber nicht, dass Verstöße folgenlos sind: Nationale Maßnahmen, zivilrechtliche Haftungsrisiken und eine erschwerte Bewertung anderer AI-Act-Verstöße bleiben möglich.
Müssen nur Hochrisiko-KI-Nutzer geschult werden?
Nein. Art. 4 greift schon bei allgemeiner beruflicher Nutzung von KI-Systemen. Bei Hochrisiko-, HR- oder externen Kommunikationsszenarien steigen allerdings Tiefe, Kontextbedarf und Dokumentationsdruck der Schulung deutlich an.