Letzte Aktualisierung: 16. März 2026
Ein KI-System ist gemäß Art. 3 Nr. 1 der EU-Verordnung 2024/1689 ein maschinenbasiertes System, das mit unterschiedlichem Grad an Autonomie arbeitet, aus Eingaben ableitet, wie es Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugt, und damit physische oder virtuelle Umgebungen beeinflussen kann. Für Unternehmen ist diese Definition entscheidend, weil nur für KI-Systeme Pflichten wie KI-Kompetenz nach Art. 4 oder Transparenzpflichten nach Art. 50 relevant werden.
ChatGPT ist in der Regel ein KI-System, ein starres Excel-Makro in der Regel nicht. Der Unterschied liegt nicht im Marketing des Herstellers, sondern in der Funktionsweise: Ein KI-System leitet Ergebnisse aus Eingaben ab, während ein einfaches Makro nur vorher festgelegte Regeln ausführt.
Woran erkennt man ein KI-System?
Ein KI-System erkennen Sie am Zusammenspiel von Autonomie, Inferenz und Ergebniswirkung. Art. 3 Nr. 1 nennt keine einzelne Technologie, sondern beschreibt funktionale Merkmale, die in der Praxis gemeinsam betrachtet werden müssen.
Ein KI-System hat typischerweise vier Merkmale:
- Es ist maschinenbasiert. Software, Modelle oder eingebettete Systeme fallen darunter.
- Es arbeitet mit einem gewissen Grad an Autonomie. Das System erzeugt Ergebnisse nicht nur durch einen einzelnen manuellen Klick, sondern verarbeitet Eingaben eigenständig weiter.
- Es leitet aus Eingaben Ergebnisse ab. Genau diese Inferenz unterscheidet KI von reiner Automatisierung nach fester Wenn-dann-Logik.
- Es erzeugt Outputs mit Wirkung. Diese Outputs können Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen sein und physische oder virtuelle Umgebungen beeinflussen.
Anpassungsfähigkeit nach dem Einsatz kann vorkommen, ist aber nicht zwingend erforderlich. Die gesetzliche Definition stellt klar, dass ein KI-System nach der Bereitstellung lern- oder anpassungsfähig sein kann, aber nicht jedes KI-System muss sich laufend selbst verändern, um unter Art. 3 Nr. 1 zu fallen.
Was ist kein KI-System?
Nicht jede digitale Logik ist ein KI-System. Die Leitlinien der EU-Kommission zur Definition des KI-Systems vom 6. Februar 2025 stellen klar, dass reine mathematische Optimierung, grundlegende Datenverarbeitung und klassische Heuristiken für sich genommen nicht automatisch als KI-System gelten.
Kein KI-System sind in der Regel:
- Taschenrechner und einfache Formeln. Sie berechnen deterministisch ein Ergebnis.
- Starre Excel-Makros. Sie führen fest programmierte Befehle in fester Reihenfolge aus.
- Einfache Datenbankfilter oder Sortierungen. Sie ordnen Daten nach klaren, vom Menschen definierten Regeln.
- Klassische regelbasierte Workflows. Wenn ein System nur „wenn X, dann Y“ abarbeitet, fehlt regelmäßig die für Art. 3 Nr. 1 typische Inferenz.
Die Abgrenzung ist trotzdem kein reiner Produktname-Test. Eine Software kann in einem Modul nur starre Regeln nutzen und in einem anderen Modul ein Modell einsetzen, das Muster erkennt, Scores berechnet oder Inhalte erzeugt. Dann ist nicht die gesamte Office-Oberfläche entscheidend, sondern die konkrete Funktion, die Sie verwenden.
Praxisbeispiele: Was ist ein KI-System und was nicht?
Die beste Einordnung gelingt über konkrete Beispiele. Für Unternehmen ist wichtig, nicht nur offensichtliche Tools wie ChatGPT zu prüfen, sondern auch KI-Funktionen in Standardsoftware.
| Beispiel | In der Regel KI-System? | Warum | | --- | --- | --- | | ChatGPT | Ja | ChatGPT erzeugt Inhalte auf Basis modellbasierter Inferenz aus Eingaben und erfüllt damit den Kern von Art. 3 Nr. 1. | | Microsoft Copilot | Ja | Copilot generiert Texte, Zusammenfassungen oder Empfehlungen und arbeitet mit eigenständiger Output-Erzeugung. | | Lernender Spam-Filter | Ja | Ein lernender Filter erkennt Muster in E-Mails und klassifiziert Nachrichten nicht nur nach starren Absenderlisten. | | CRM-Scoring mit ML-Modell | Meist ja | Sobald ein Modell Leads oder Risiken prognostiziert, liegt regelmäßig ein KI-System vor. | | Excel-Makro mit festen Regeln | Nein | Das Makro setzt nur vorher definierte Befehle um und zieht keine modellbasierten Schlüsse. | | Feste Rabattregel im Shop-System | Nein | Eine starre Regel wie „ab 100 Euro Warenkorb 10 Prozent Rabatt“ ist Automatisierung, aber keine KI. |
ChatGPT ist also ein gutes Positivbeispiel, Excel-Makros sind ein gutes Negativbeispiel. Dazwischen liegt die relevante Praxiszone vieler Unternehmen: SaaS-Tools mit eingebautem Scoring, Klassifikation oder Generierungsfunktionen, die oft unbemerkt in CRM-, HR- oder Office-Produkten aktiviert werden.
Warum die Definition für Unternehmen wichtig ist
Die Definition entscheidet, ob der AI Act überhaupt startet. Wenn ein eingesetztes Tool kein KI-System ist, greifen die AI-Act-Pflichten für dieses Tool nicht; wenn es ein KI-System ist, müssen Unternehmen mindestens prüfen, welche Rolle sie haben und welche Pflichten aus dem konkreten Einsatz folgen.
Die Definition eines KI-Systems ist nicht dasselbe wie die Einstufung als Hochrisiko-System. Ein Tool kann ein KI-System sein, ohne in Anhang III als Hochrisiko eingestuft zu werden. ChatGPT für interne Textentwürfe ist deshalb etwas anderes als ein KI-System, das Bewerber automatisch bewertet oder Kreditwürdigkeit einschätzt.
Seit dem 2. Februar 2025 ist Art. 4 zur KI-Kompetenz anwendbar. Wenn Ihre Mitarbeitenden beruflich mit KI-Systemen wie ChatGPT oder Copilot arbeiten, müssen Sie deshalb zumindest prüfen, welche Personen geschult werden müssen, welche Risiken diese Systeme im Alltag erzeugen und wie Sie die Maßnahmen dokumentieren. Einen Überblick dazu finden Sie auch in unseren FAQ zum EU AI Act und auf der Startseite.
Häufige Fehlannahmen zur Definition
„Nur selbst entwickelte Modelle zählen“ ist falsch. Auch eingekaufte oder über SaaS genutzte Systeme können KI-Systeme sein, wenn die konkrete Funktion die Merkmale aus Art. 3 Nr. 1 erfüllt.
„Jede Automatisierung ist KI“ ist ebenfalls falsch. Ein Workflow, der rein regelbasiert arbeitet, ist noch kein KI-System, nur weil er digital, schnell oder komplex wirkt.
„Wenn ein Tool nur Texte schreibt, ist es rechtlich kein KI-System“ stimmt nicht. Gerade generative Systeme wie ChatGPT oder Copilot fallen typischerweise unter die Definition, weil sie Inhalte aus Eingaben ableiten und damit virtuelle Umgebungen beeinflussen.
Was Unternehmen jetzt konkret tun sollten
Unternehmen sollten zuerst ein einfaches KI-Inventar erstellen. Listen Sie dafür alle Tools auf, die Inhalte erzeugen, Personen bewerten, Scores vergeben, Muster erkennen oder Entscheidungen vorbereiten, und trennen Sie diese von rein regelbasierten Tools wie einfachen Makros oder festen Workflows.
Unternehmen sollten danach den Einsatzzweck dokumentieren. Dasselbe Tool kann je nach Nutzung unterschiedlich relevant sein: ChatGPT für interne Entwürfe ist etwas anderes als ChatGPT für Bewerberranking oder Kreditentscheidungen.
Unternehmen sollten schließlich ihre Schulungsmaßnahmen an der echten Tool-Landschaft ausrichten. Wenn Sie dafür einen kompakten Einstieg in Art. 4 suchen, finden Sie auf unserer Kursseite einen 90-Minuten-Online-Kurs mit Schulungszertifikat, der typische KI-Systeme im Unternehmensalltag verständlich einordnet.