Erklärbarkeit bezeichnet gemäß Art. 13 und Art. 14 der EU-Verordnung 2024/1689 die Fähigkeit, Ausgaben, Grenzen und Nutzungshinweise eines KI-Systems so nachvollziehbar aufzubereiten, dass Betreiber sie richtig interpretieren und wirksam überwachen können. Sie ist damit ein Kernbaustein verantwortlicher KI-Nutzung.
In einfachen Worten
Erklärbarkeit heißt nicht, dass jedes Modell mathematisch vollständig offenliegen muss. Entscheidend ist, dass Menschen Ergebnisse fachlich einordnen, Fehler erkennen und angemessen reagieren können. Darum ist der Begriff direkt mit Human Oversight, technischer Interoperabilität und Risiken durch Bias und Diskriminierung in KI verbunden.
Praxisrelevanz
Wenn ein Tool Bewerber, Kunden oder Dokumente bewertet, brauchen Verantwortliche verständliche Hinweise zu Datenbasis, Grenzen und typischen Fehlmustern. Fehlen diese Informationen, steigt das Risiko blinder Automatisierung. Auch gute Schulungen helfen nur begrenzt, wenn das System selbst keine nachvollziehbaren Signale liefert.
Was Unternehmen jetzt tun sollten
Fragen Sie bei jedem System, welche Informationen ein Fachbereich für Prüfung, Freigabe und Korrektur tatsächlich erhält. Vertiefend helfen die FAQ, der Kurs und das Glossar zu AI Liability Directive, wenn Sie Erklärbarkeit auch aus Risiko- und Haftungssicht bewerten wollen.