Pflicht seit Februar 2025: Artikel 4 EU AI Act verlangt KI-Kompetenz im Unternehmen.

← Zur Glossar-Übersicht

Glossar

Grundrechte-Folgenabschätzung im EU AI Act

Die Grundrechte-Folgenabschätzung verlangt für bestimmte Hochrisiko-KI eine Prüfung, wie sich das System auf Rechte und Freiheiten natürlicher Personen auswirkt.

Veröffentlicht: 9. Februar 2026Letzte Aktualisierung: 11. März 20261 Min. Lesezeit

Kurzdefinition

Die Grundrechte-Folgenabschätzung ist die Prüfung nach Art. 27 EU-VO 2024/1689, wie sich bestimmte Hochrisiko-KI-Systeme auf Grundrechte betroffener Personen auswirken.

Primaerquelle

Art. 27 EU-VO 2024/1689

Rechtsgrundlage ansehen

Die Grundrechte-Folgenabschätzung nach Art. 27 EU-VO 2024/1689 prüft vor dem Einsatz bestimmter Hochrisiko-KI-Systeme, wie stark Grundrechte und Freiheiten betroffener Personen beeintraechtigt werden können. Sie ist damit mehr als eine technische Risikoanalyse.

In einfachen Worten

Hier geht es um Fragen wie Diskriminierung, Transparenz, Fehlentscheidungen und die Auswirkungen auf Arbeitnehmer, Bewerber oder Kunden. Typische Anschlussbegriffe sind Hochrisiko-KI-System, Menschliche Aufsicht und das Risikomanagement-System.

Praxisbeispiel

Setzt ein Unternehmen ein Hochrisiko-KI-System für Personalentscheidungen ein, muss es vor dem Einsatz beurteilen, welche Folgen Fehlbewertungen oder systematische Benachteiligungen für Betroffene haben können.

Was Unternehmen jetzt tun sollten

Verbinden Sie die Grundrechte-Perspektive mit Datenschutz, Arbeitsrecht und interner Freigabe. Weiterfuehrend helfen Biometrische Fernidentifizierung, die FAQ und der Kurs für die praktische Umsetzung.

Naechster Schritt

Begriffe einordnen ist der Anfang. Umsetzung und Nachweis entscheiden im Unternehmen.

Wenn Sie KI-Kompetenz, Rollen, rote Linien und Schulungsnachweis nicht nur nachschlagen, sondern sauber ausrollen wollen, ist der Kurs der direkte nächste Schritt. Für typische Rueckfragen zu Umfang, Nachweis und Team-Rollout steht zusaetzlich die FAQ-Seite bereit.