Verbotene KI-Praktiken nach Art. 5 EU-VO 2024/1689 duerfen seit dem 2. Februar 2025 grundsaetzlich nicht eingesetzt werden. Dazu gehoeren etwa manipulative Systeme, bestimmte Formen biometrischer Kategorisierung, Social Scoring und eng umrissene biometrische Echtzeit-Fernidentifizierung durch Strafverfolgungsbehörden.
In einfachen Worten
Der AI Act reguliert nicht nur, wie riskante KI kontrolliert wird, sondern zieht bei einigen Anwendungen eine rote Linie. Wer hier betroffen ist, braucht keine Optimierung, sondern muss die Nutzung stoppen oder sehr eng an gesetzliche Ausnahmen anpassen. Dazu passen Echtzeitbiometrie, Risikoklassen im AI Act und Biometrische Fernidentifizierung.
Praxisbeispiel
Ein System, das Personen anhand biometrischer Daten nach sensiblen Merkmalen klassifiziert, ist nicht bloss hochriskant, sondern grundsaetzlich verboten. Dasselbe gilt für Social-Scoring-Modelle in den erfassten Konstellationen.
Was Unternehmen jetzt tun sollten
Prüfen Sie insbesondere HR-, Sicherheits- und Überwachungsanwendungen auf rote Linien. Weiter helfen KI-Kompetenz, die FAQ und der Kurs, damit betroffene Teams kritische Fälle früh erkennen.