Öffentliche Verwaltungen müssen KI in Bürgerdiensten seit dem 2. Februar 2025 kompetent einsetzen und ab dem 2. August 2026 je nach Anwendungsfall zusätzliche Hochrisiko- und Transparenzpflichten erfüllen. Besonders relevant sind Art. 4, Art. 27, Art. 50 und Anhang III der EU-VO 2024/1689.
Bürgerdienste sind im EU AI Act kein Sonderfall. Nicht jeder Chatbot im Bürgerbüro ist ein Hochrisiko-KI-System, aber Systeme für Sozialleistungen, migrationsnahe Verfahren oder andere eingriffsintensive Bewertungen können klar unter Anhang III fallen. Für alle Stellen, die KI auswählen, nutzen oder beaufsichtigen, bleibt KI-Kompetenz bereits heute die erste Pflicht.
Welche KI-Systeme in Bürgerdiensten sind besonders relevant?
Die Risikoklasse hängt in Bürgerdiensten direkt vom Zweck des Systems ab. Entscheidend ist nicht, ob eine Software „intelligent“ wirkt, sondern ob sie Leistungszugang, Bürgerrechte oder Verwaltungsentscheidungen spürbar beeinflusst.
| KI-System im Bürgerdienst | Typische Nutzung | Einordnung nach der EU-VO 2024/1689 | | --- | --- | --- | | Bürger-Chatbot | Auskünfte zu Formularen, Öffnungszeiten, Terminen und Verfahrensschritten | Meist Transparenzpflicht nach Art. 50, wenn Bürger direkt mit KI interagieren | | Dokumentenklassifizierung und OCR mit KI | Vorsortieren, Zusammenfassen oder Klassifizieren von Anträgen und Akten | Meist minimales Risiko, solange keine eigenständige Entscheidung über Rechte oder Leistungen erfolgt | | Sozialleistungs-Scoring | Unterstützung bei Bewilligung, Ablehnung oder Priorisierung von Wohngeld, Unterhaltsvorschuss oder ähnlichen Leistungen | Hochrisiko nach Anhang III Nr. 5 für wesentliche öffentliche Dienstleistungen | | KI in asyl-, visa- oder aufenthaltsbezogenen Verfahren | Risikobewertung, Priorisierung oder Unterstützung bei migrationsnahen Entscheidungen | Hochrisiko nach Anhang III Nr. 7 | | KI-gestützte Steuerfall-Risikobewertung | Erkennen auffälliger Muster oder Risikoprofile in Steuerfällen | Kontextabhängig; bei entscheidungsrelevanter Bewertung natürlicher Personen potenziell Hochrisiko |
Die Tabelle zeigt die eigentliche Logik des AI Act. Informierende oder vorbereitende Systeme bleiben oft in der Transparenz- oder Minimalrisiko-Zone, während Systeme mit direktem Einfluss auf Sozialleistungen, Migrationsverfahren oder andere sensible Verwaltungsakte deutlich strenger reguliert werden. Für die Praxis lohnt sich deshalb immer eine Einordnung entlang der Risikoklassen im AI Act statt nach Hersteller-Versprechen.
Welche Pflichten gelten für Behörden ab 2025 und ab 2026?
Die Pflichten starten für Behörden nicht erst 2026. Seit dem 2. Februar 2025 verlangt Art. 4 bereits, dass Anbieter und Betreiber nach besten Kräften ausreichende KI-Kompetenz sicherstellen, während die spezifischen Hochrisiko-Pflichten für Anhang-III-Systeme ab dem 2. August 2026 praktisch wirksam werden.
- Art. 4 seit dem 2. Februar 2025: Sachbearbeitung, IT, Datenschutz, Beschaffung und Führungskräfte brauchen rollenspezifische KI-Kompetenz, sobald sie KI nutzen, auswählen oder Ergebnisse fachlich bewerten.
- Art. 27 ab dem 2. August 2026: Öffentliche Stellen müssen vor der Inbetriebnahme eines relevanten Hochrisiko-Systems eine Grundrechte-Folgenabschätzung durchführen.
- Art. 49 ab dem 2. August 2026: Relevante Hochrisiko-Systeme müssen in der EU-Datenbank registriert werden, bevor sie regulär betrieben werden.
- Art. 50 unabhängig von der Risikoklasse: Bürger müssen erkennen können, wenn sie direkt mit KI interagieren; für Bürger-Chatbots und ähnliche Self-Service-Anwendungen sind die Transparenzpflichten deshalb zentral.
- Art. 9 bis 15 für Hochrisiko-KI: Risikomanagement, Daten-Governance, technische Dokumentation, Protokollierung, menschliche Aufsicht und Robustheit sind keine Hersteller-Themen allein, sondern wirken in Beschaffung und Betrieb hinein.
Behörden sollten Pflichten deshalb nicht erst beim Go-live prüfen. Wenn ein Fachverfahren, ein Serviceportal oder ein Beschaffungsprojekt heute vorbereitet wird, sollten Anforderungskatalog, Dokumentation und Schulung bereits auf Anhang III und die Betreiberpflichten ausgerichtet sein.
Was bedeutet das praktisch für Bürgerämter, Sozialämter und kommunale Servicecenter?
Bürgernahe Verwaltungsstellen sollten ihre KI-Fälle nach Eingriffsintensität trennen. Je näher ein System an Leistungszugang, Priorisierung oder rechtlich wirksamen Entscheidungen liegt, desto weniger reicht eine allgemeine Digitalisierungslogik aus.
Bürgerämter und Servicecenter nutzen KI oft zuerst für Chatbots, E-Mail-Vorsortierung, Dokumentenklassifizierung oder Terminsteuerung. Diese Fälle sind häufig nicht hochriskant, lösen aber trotzdem Transparenz-, Prozess- und Schulungspflichten aus, weil Mitarbeitende Ergebnisse verstehen und gegenüber Bürgern sauber einordnen müssen.
Sozialämter, Jobcenter-nahe Bereiche oder kommunale Leistungsstellen tragen das höchste unmittelbare AI-Act-Risiko. Sobald KI über Bewilligung, Ablehnung, Priorisierung oder Betrugsverdacht bei wesentlichen Leistungen mitentscheidet, ist die Nähe zu Anhang III Nr. 5 sehr hoch und eine bloße Herstellerbeschreibung kein ausreichender Rechtscheck mehr.
Ausländerbehörden und andere migrationsnahe Stellen liegen ebenfalls in einem besonders sensiblen Bereich. Wenn KI Risikobewertungen, Herkunftsanalysen oder Priorisierungen für Aufenthalts-, Visa- oder asylnahe Verfahren unterstützt, verweist Anhang III Nr. 7 direkt in den Hochrisiko-Bereich; dort werden Dokumentation, menschliche Aufsicht und eine belastbare Grundrechteprüfung besonders wichtig.
Beschaffung ist in der öffentlichen Verwaltung deshalb ein Compliance-Hebel. Wer neue Bürgerdienst- oder Fachverfahrenslösungen einkauft, sollte sich nicht nur Demos zeigen lassen, sondern Nachweise zu Zweckbestimmung, Risikoklasse, technischer Dokumentation, menschlicher Aufsicht und Datenqualität einfordern.
Wie sollte die öffentliche Verwaltung jetzt vorgehen?
Verwaltungen sollten den AI Act in Bürgerdiensten als Umsetzungsprogramm behandeln, nicht als reine Rechtsnotiz. Der schnellste Fortschritt entsteht, wenn Fachämter, IT, Datenschutz und Beschaffung dieselbe KI-Landkarte und dieselben Entscheidungsregeln nutzen.
- Anwendungsfälle inventarisieren: Erfassen Sie Bürger-Chatbots, Dokumenten-KI, Entscheidungsunterstützung und externe Fachverfahren mit KI-Funktion getrennt nach Fachamt und Zweck.
- Risikoklasse zuordnen: Prüfen Sie jeden Use Case gegen Anhang III, Art. 50 und die Ausnahmen aus Art. 6 Abs. 3, statt auf Marketingbegriffe wie „Assistenzsystem“ zu vertrauen.
- Rollenbezogen schulen: Schulen Sie nicht abstrakt „die Verwaltung“, sondern jeweils Beschaffung, Fachseite, IT-Betrieb, Datenschutz und Führung nach ihren konkreten Aufgaben unter Art. 4.
- Beschaffung und Betrieb verbinden: Verankern Sie Anforderungen zu Dokumentation, menschlicher Aufsicht, Protokollierung und Eskalation schon in Vergabe, Pilotphase und Betriebsdokumentation.
- 2026 organisatorisch vorbereiten: Planen Sie für potenzielle Hochrisiko-Systeme frühzeitig Grundrechte-Folgenabschätzung, Registrierung und interne Freigabeprozesse ein, statt kurz vor dem 2. August 2026 zu reagieren.
Wenn Sie Bürgerdienste, Fachämter und Dienstleister auf einen gemeinsamen Wissensstand bringen wollen, ist eine einheitliche Schulung der schnellste Startpunkt. Der Kurs vermittelt die Pflichten aus Art. 4, die Logik der Risikoklassen und den dokumentierbaren Schulungsnachweis in einem Format, das sich direkt für Teams nutzen lässt; praktische Rückfragen zu Ablauf und Nachweis beantwortet zusätzlich die FAQ.