Hochrisiko-KI-Systeme im AI Act: Welche KI ist betroffen? [2026]
Aktualisiert: April 2026 · Lesezeit: 14 Minuten
Auf einen Blick: Der EU AI Act teilt KI-Systeme in vier Risikostufen ein. Die strengsten Regeln gelten für Hochrisiko-KI-Systeme — und die Liste ist länger als die meisten denken. Dieser Artikel erklärt, welche KI-Anwendungen betroffen sind, welche Pflichten daraus entstehen und wie du prüfst, ob dein System dazugehört.
Die vier Risikoklassen im AI Act
Der EU AI Act (Verordnung (EU) 2024/1689) folgt einem risikobasierten Ansatz. Nicht jede KI wird gleich reguliert — die Pflichten richten sich nach dem Risiko, das ein System für Menschen und Grundrechte darstellt [1].
Die vier Stufen im Überblick:
| Risikostufe | Regulierung | Beispiele |
|---|---|---|
| Unakzeptabel | Verboten (Article 5) | Social Scoring, manipulative Systeme, Echtzeit-Biometrie in öffentlichen Räumen* |
| Hoch | Strenge Pflichten (Articles 6–51) | Kreditbewertung, Bewerber-Screening, medizinische Diagnostik |
| Begrenzt | Transparenzpflichten (Article 50) | Chatbots, Deepfakes, KI-generierte Texte |
| Minimal | Keine Pflichten | Spamfilter, KI in Videospielen, Empfehlungsalgorithmen |
* Ausnahme: Strafverfolgung bei schweren Straftaten unter strengen Bedingungen.
Dieser Artikel konzentriert sich auf die zweite Stufe: Hochrisiko-KI-Systeme. Sie sind der Kern der Regulierung — mit den umfangreichsten Pflichten, aber auch den größten Unsicherheiten in der Praxis [2].
Was genau ist ein Hochrisiko-KI-System?
Ein KI-System gilt als hochriskant, wenn es eine erhebliche Gefahr für die Gesundheit, Sicherheit oder Grundrechte von Personen darstellt. Der AI Act definiert zwei Wege, auf denen ein System in die Hochrisiko-Kategorie fällt [3]:
Weg 1 — Annex III (Article 6(2)): Das System wird in einem der acht aufgelisteten Risikobereiche eingesetzt (Biometrie, Bildung, Beschäftigung etc.).
Weg 2 — Annex I (Article 6(1)): Das System ist ein Sicherheitsbauteil eines Produkts, das bereits unter EU-Harmonisierungsvorschriften fällt (Medizinprodukte, Maschinen, Spielzeug etc.).
Entscheidend: Die Einstufung hängt nicht von der Technologie ab, sondern vom Einsatzzweck. Dasselbe KI-Modell kann in einem Kontext minimal-riskant sein (Produktempfehlungen im Online-Shop) und in einem anderen hochriskant (automatisierte Kreditentscheidungen) [4].
Die acht Bereiche aus Annex III
Annex III des AI Act listet acht Anwendungsbereiche auf, in denen KI-Systeme als hochriskant gelten. Hier die vollständige Übersicht mit konkreten Beispielen [5]:
1. Biometrische Identifikation und Kategorisierung
KI-Systeme zur biometrischen Fernidentifikation von Personen (außer Verifizierung zur Authentifizierung). Dazu gehören Gesichtserkennung in Echtzeit, Emotionserkennung am Arbeitsplatz und biometrische Kategorisierung nach sensiblen Merkmalen wie Ethnie oder politischer Einstellung [6].
Beispiel: Eine Kamera am Firmeneingang, die Mitarbeiter per Gesichtserkennung identifiziert, fällt hierunter. Ein Smartphone-Entsperren per FaceID dagegen nicht (das ist Verifizierung).
2. Kritische Infrastruktur
KI als Sicherheitsbauteil in der Verwaltung und dem Betrieb kritischer digitaler Infrastruktur, Straßenverkehr, Wasser-, Gas-, Strom- und Wärmeversorgung [7].
Beispiel: Ein KI-System, das Stromnetz-Ausfälle vorhersagt und automatisch Lastverteilungen steuert.
3. Bildung und Berufsausbildung
KI-Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen, zur Bewertung von Prüfungsleistungen, zur Einstufung des Bildungsniveaus und zur Überwachung von Prüfungen [8].
Beispiel: Ein System, das Universitätsbewerbungen automatisch vorsortiert oder Prüfungsaufsätze per KI bewertet.
4. Beschäftigung und Personalmanagement
KI zur Einstellung, Auswahl, Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung von Arbeitnehmern. Einer der am breitesten gefassten Bereiche [9].
Beispiel: Automatisiertes Bewerber-Screening, das Lebensläufe filtert und Kandidaten rankt. Auch KI-gestützte Mitarbeiterüberwachung (Produktivitäts-Tracking) fällt darunter.
5. Zugang zu wesentlichen privaten und öffentlichen Diensten
KI-Systeme zur Bewertung der Kreditwürdigkeit, Risikobewertung bei Versicherungen, Bewertung des Anspruchs auf Sozialleistungen und Priorisierung von Notrufen [10].
Beispiel: Eine Bank nutzt KI, um Kreditanträge zu bewerten. Oder: Ein Versicherer berechnet individuelle Prämien per Algorithmus.
6. Strafverfolgung
KI zur individuellen Risikobewertung von Personen (Rückfallprognose), Lügendetektoren, Beweiswürdigung und prädiktive Polizeiarbeit (Predictive Policing) [11].
Beispiel: Ein System, das die Wahrscheinlichkeit berechnet, ob ein Verdächtiger erneut straffällig wird.
7. Migration, Asyl und Grenzkontrolle
KI zur Bewertung von Sicherheitsrisiken bei Einreise, Unterstützung bei der Prüfung von Asylanträgen und Erkennung von Dokumentenfälschungen [12].
Beispiel: Automatisierte Gesichtserkennung an EU-Außengrenzen oder KI, die Asylanhörungen auswertet.
8. Rechtsprechung und demokratische Prozesse
KI zur Recherche und Auslegung von Sachverhalten und Rechtsvorschriften sowie zur Beeinflussung des Ergebnisses von Wahlen [13].
Beispiel: Ein Richterassistenzsystem, das Strafmaßempfehlungen berechnet. Oder: KI, die Wahlwerbung personalisiert ausliefert.
Wichtig: Die EU-Kommission kann Annex III per delegiertem Rechtsakt erweitern — neue Kategorien können also ohne Gesetzesänderung hinzukommen (Article 7) [14].
Sicherheitsbauteile in regulierten Produkten (Annex I)
Neben den acht Bereichen in Annex III gibt es einen zweiten Weg zur Hochrisiko-Einstufung: Wenn KI als Sicherheitsbauteil in einem Produkt verwendet wird, das bereits unter EU-Harmonisierungsvorschriften fällt (Article 6(1)) [15].
Betroffene Produktkategorien aus Annex I (Auszug):
- Maschinen (Maschinenverordnung (EU) 2023/1230)
- Medizinprodukte (Verordnungen (EU) 2017/745 und 2017/746)
- Spielzeug (Richtlinie 2009/48/EG)
- Aufzüge (Richtlinie 2014/33/EU)
- Funkanlagen (Richtlinie 2014/53/EU)
- Kraftfahrzeuge (Verordnung (EU) 2019/2144)
- Luftfahrt (Verordnung (EU) 2018/1139)
Beispiel: Eine CNC-Fräsmaschine mit KI-gesteuerter Kollisionsvermeidung. Die Maschine fällt unter die Maschinenverordnung — das KI-System als Sicherheitsbauteil ist daher hochriskant [16].
Pflichten für Anbieter von Hochrisiko-KI
Wer ein Hochrisiko-KI-System entwickelt oder auf den EU-Markt bringt, muss umfangreiche Pflichten erfüllen. Articles 8 bis 15 des AI Act definieren sechs Kernpflichten [17]:
| Pflicht | Article | Was konkret? |
|---|---|---|
| Risikomanagementsystem | Art. 9 | Kontinuierliches Risikomanagement über den gesamten Lebenszyklus des Systems |
| Daten-Governance | Art. 10 | Trainingsdaten müssen relevant, repräsentativ und möglichst fehlerfrei sein |
| Technische Dokumentation | Art. 11 | Vollständige Dokumentation vor Markteinführung, einschließlich Zweckbestimmung und Grenzen |
| Aufzeichnungspflichten | Art. 12 | Automatische Protokollierung (Logging) zur Rückverfolgbarkeit |
| Menschliche Aufsicht | Art. 14 | System muss so designt sein, dass Menschen es überwachen und eingreifen können |
| Genauigkeit und Robustheit | Art. 15 | Angemessene Genauigkeit, Robustheit gegen Fehler und Cybersicherheit |
Zusätzlich muss vor der Markteinführung eine Konformitätsbewertung (Article 43) durchgeführt und das System in der EU-Datenbank für Hochrisiko-KI registriert werden (Article 49) [18].
Tipp: Tools wie NeuralFlow können automatisiert prüfen, ob deine KI-Systeme die Transparenz- und Dokumentationspflichten erfüllen — ein erster Schritt zur Compliance.
Pflichten für Betreiber (Deployer)
Nicht nur Anbieter sind in der Pflicht. Wer ein Hochrisiko-KI-System einsetzt (der „Deployer“), hat eigene Verpflichtungen nach Article 26 [19]:
- Bestimmungsgemäße Verwendung: Das System nur so einsetzen, wie vom Anbieter vorgesehen
- Menschliche Aufsicht: Kompetente Personen benennen, die das System überwachen
- Input-Daten: Sicherstellen, dass die eingegebenen Daten dem Zweck entsprechen
- Monitoring: Das System überwachen und bei Fehlfunktionen den Anbieter informieren
- Aufbewahrung: Automatisch generierte Protokolle mindestens 6 Monate aufbewahren
- Grundrechte-Folgenabschätzung: Bei bestimmten Systemen vor der Inbetriebnahme durchführen (Article 27)
Praxisrelevanz: Auch wenn du ein KI-Tool nur kaufst und einsetzt (nicht selbst entwickelst), bist du als Betreiber verantwortlich. Das betrifft jedes Unternehmen, das z.B. ein KI-gestütztes Bewerber-Screening-Tool eines Drittanbieters nutzt [20].
Selbstcheck: Ist mein KI-System hochriskant?
Drei Fragen helfen bei der Einordnung:
Frage 1: Wird dein KI-System in einem der acht Bereiche aus Annex III eingesetzt? (Biometrie, Infrastruktur, Bildung, Beschäftigung, Dienste, Strafverfolgung, Migration, Justiz)
Frage 2: Ist dein KI-System ein Sicherheitsbauteil eines Produkts, das unter eine EU-Harmonisierungsvorschrift aus Annex I fällt? (Maschinen, Medizinprodukte, Spielzeug etc.)
Frage 3: Trifft dein System autonome oder teilautonome Entscheidungen, die wesentliche Auswirkungen auf die Rechte oder die Lebenssituation von Personen haben?
Wenn eine Antwort „Ja“ lautet: Dein System ist wahrscheinlich hochriskant. Prüfe die genaue Formulierung in Annex III und konsultiere ggf. rechtliche Beratung [21].
Wenn alle Antworten „Nein“: Dein System fällt wahrscheinlich unter „begrenztes Risiko“ (Transparenzpflichten nach Article 50) oder „minimales Risiko“ (keine Pflichten).
Ausnahmen und Erleichterungen
Nicht jedes System in den Annex-III-Bereichen ist automatisch hochriskant. Article 6(3) definiert eine wichtige Ausnahme [22]:
Ein KI-System ist nicht hochriskant, wenn es keine erhebliche Gefahr für Gesundheit, Sicherheit oder Grundrechte darstellt — insbesondere wenn es:
- eine enge Verfahrensaufgabe erfüllt (z.B. Formatkonvertierung)
- das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit verbessert
- Entscheidungsmuster erkennt, ohne menschliche Bewertung zu ersetzen
- nur eine vorbereitende Aufgabe für eine Bewertung durchführt
Achtung: Diese Ausnahme gilt nicht für Profiling natürlicher Personen. Wenn dein System Personen profiliert, greift die Ausnahme nie — unabhängig davon, wie eng die Aufgabe ist [23].
Weitere Erleichterungen:
- KMU und Startups: Zugang zu regulatorischen Sandboxes (Article 57), bevorzugte Unterstützung, reduzierte Gebühren für Konformitätsbewertungen [24]
- Forschung und Entwicklung: Systeme, die ausschließlich zu Forschungszwecken entwickelt werden, fallen nicht unter die Hochrisiko-Pflichten (Article 2(6))
- Open-Source: Sonderregeln für freie und quelloffene KI-Modelle — aber nicht für Hochrisiko-Anwendungen (Article 2(12))
Fristen und Übergangszeiten
Die Pflichten gelten nicht auf einen Schlag. Der AI Act sieht eine gestaffelte Einführung vor [25]:
| Datum | Was gilt? | Relevant für |
|---|---|---|
| 02.02.2025 | Verbot unakzeptabler KI-Praktiken | Alle |
| 02.08.2025 | Pflichten für GPAI-Modelle (General Purpose AI) | Modellanbieter |
| 02.08.2026 | Hochrisiko-Pflichten (Annex III) | Anbieter + Betreiber |
| 02.08.2027 | Hochrisiko-Pflichten (Annex I — Produktsicherheit) | Produkthersteller |
Für die meisten Unternehmen ist der 2. August 2026 der entscheidende Stichtag. Bis dahin müssen Hochrisiko-KI-Systeme aus Annex III compliant sein. Für eine vollständige Fristen-Übersicht haben wir einen eigenen Artikel.
Strafen bei Verstößen
Wer die Hochrisiko-Pflichten nicht einhält, riskiert empfindliche Bußgelder nach Article 99 [26]:
- Bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes für Verstöße gegen Hochrisiko-Pflichten
- Bis zu 7,5 Millionen Euro oder 1 % des Umsatzes für falsche Angaben gegenüber Behörden
- Für KMU gilt jeweils der niedrigere Betrag
Eine detaillierte Aufschlüsselung aller Strafstufen findest du in unserem Artikel AI Act Strafen und Bußgelder.
Praxisbeispiele: Welche Tools sind betroffen?
Wie wirkt sich die Hochrisiko-Einstufung in der Praxis aus? Hier sechs typische Szenarien [27]:
| Szenario | Hochriskant? | Begründung |
|---|---|---|
| ChatGPT für Marketing-Texte | Nein | Begrenztes Risiko — nur Transparenzpflicht (Kennzeichnung) |
| KI-Bewerber-Screening (z.B. HireVue) | Ja | Annex III Nr. 4 — Beschäftigung |
| Automatisierte Kreditprüfung | Ja | Annex III Nr. 5 — Zugang zu Diensten |
| KI-Spamfilter in E-Mail | Nein | Minimales Risiko — keine Pflichten |
| KI-gesteuerte Diagnosesoftware (Radiologie) | Ja | Annex I — Medizinprodukt (Verordnung 2017/745) |
| KI-Produktempfehlungen im Online-Shop | Nein | Minimales Risiko — kein Grundrechtseingriff |
Faustregel: Sobald dein KI-System Entscheidungen über Menschen trifft — ihre Kreditwürdigkeit, Eignung, Zugang zu Diensten oder Rechte — ist es wahrscheinlich hochriskant. Wenn es nur Inhalte generiert oder Prozesse optimiert, meist nicht [28].
FAQ
Was sind Hochrisiko-KI-Systeme im AI Act?
Hochrisiko-KI-Systeme sind KI-Anwendungen, die laut EU AI Act ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte von Personen darstellen. Sie sind in Annex III des AI Act in acht Bereichen aufgelistet: biometrische Identifikation, kritische Infrastruktur, Bildung, Beschäftigung, öffentliche Dienste, Strafverfolgung, Migration und Rechtsprechung.
Welche KI-Systeme gelten als hochriskant?
Hochriskant sind unter anderem: biometrische Echtzeit-Identifikation, KI in der Kreditbewertung, automatisierte Bewerber-Screenings, KI-gestützte Prüfungsbewertungen, prädiktive Polizeiarbeit, KI zur Grenzüberwachung und Systeme zur Beweiswürdigung vor Gericht. Die vollständige Liste steht in Annex III der Verordnung (EU) 2024/1689.
Welche Pflichten haben Anbieter von Hochrisiko-KI?
Anbieter müssen ein Risikomanagementsystem einrichten, technische Dokumentation erstellen, Datenqualität sicherstellen, menschliche Aufsicht ermöglichen, Genauigkeit und Robustheit gewährleisten, und das System vor Markteintritt einer Konformitätsbewertung unterziehen. Diese Pflichten stehen in Articles 8 bis 15 des AI Act.
Ist mein KI-Tool hochriskant?
Prüfe drei Fragen: 1) Ist dein System in Annex III aufgelistet (acht Bereiche von Biometrie bis Justiz)? 2) Ist es ein Sicherheitsbauteil eines Produkts aus Annex I (z.B. Medizinprodukt, Maschine, Spielzeug)? 3) Trifft es autonome Entscheidungen über Personen? Wenn ja bei einer Frage: wahrscheinlich hochriskant. Die Ausnahme nach Article 6(3) greift nur bei engen Voraussetzungen.
Ab wann gelten die Hochrisiko-Pflichten?
Die Pflichten für Hochrisiko-KI-Systeme gelten ab dem 2. August 2026. Für KI-Systeme, die als Sicherheitsbauteil in bereits regulierten Produkten eingebettet sind (Annex I), gilt der 2. August 2027. Unternehmen haben also je nach Kategorie noch 4 bis 16 Monate Zeit.
Was passiert wenn ich ein Hochrisiko-System nicht registriere?
Wer ein Hochrisiko-KI-System ohne Registrierung in der EU-Datenbank betreibt oder die Konformitätsbewertung umgeht, riskiert Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes. Für KMU gilt der jeweils niedrigere Betrag.
Quellen
[1] Europäische Union: Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 (AI Act), Erwägungsgrund 1 und 5.
[2] AI Act, Articles 6–7 — Definition und Klassifizierung von Hochrisiko-KI-Systemen.
[3] AI Act, Article 6(1) und 6(2) — Zwei Wege zur Hochrisiko-Einstufung.
[4] AI Act, Erwägungsgrund 53 — Einstufung basiert auf Zweckbestimmung, nicht Technologie.
[5] AI Act, Annex III — Acht Bereiche für Hochrisiko-KI-Systeme.
[6] AI Act, Annex III Nr. 1 — Biometrische Identifikation und Kategorisierung.
[7] AI Act, Annex III Nr. 2 — Verwaltung und Betrieb kritischer Infrastruktur.
[8] AI Act, Annex III Nr. 3 — Allgemeine und berufliche Bildung.
[9] AI Act, Annex III Nr. 4 — Beschäftigung, Arbeitnehmerverwaltung und Zugang zur Selbstständigkeit.
[10] AI Act, Annex III Nr. 5 — Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten.
[11] AI Act, Annex III Nr. 6 — Strafverfolgung.
[12] AI Act, Annex III Nr. 7 — Migration, Asyl und Grenzkontrolle.
[13] AI Act, Annex III Nr. 8 — Rechtspflege und demokratische Prozesse.
[14] AI Act, Article 7 — Befugnis der Kommission zur Änderung von Annex III.
[15] AI Act, Article 6(1) und Annex I — Sicherheitsbauteile regulierter Produkte.
[16] AI Act, Annex I Abschnitt A — Maschinenverordnung (EU) 2023/1230.
[17] AI Act, Articles 8–15 — Anforderungen an Hochrisiko-KI-Systeme.
[18] AI Act, Articles 43 und 49 — Konformitätsbewertung und EU-Datenbank.
[19] AI Act, Article 26 — Pflichten der Betreiber von Hochrisiko-KI-Systemen.
[20] AI Act, Article 26(1) — Betreiberpflichten gelten unabhängig von der Entwicklerrolle.
[21] AI Act, Annex III und Article 6(3) — Einstufungskriterien und Ausnahmen.
[22] AI Act, Article 6(3) — Ausnahme von der Hochrisiko-Einstufung.
[23] AI Act, Article 6(3) letzter Absatz — Keine Ausnahme bei Profiling.
[24] AI Act, Articles 57–63 — Regulatorische Sandboxes und KMU-Erleichterungen.
[25] AI Act, Article 113 — Gestaffelte Anwendungstermine.
[26] AI Act, Article 99 — Sanktionen bei Verstößen.
[27] Eigene Analyse basierend auf Annex I, Annex III und Erwägungsgründen 47–65.
[28] AI Act, Erwägungsgrund 53 — Abgrenzung hochriskanter von nicht-hochriskanten Systemen.
Olaf Mergili
Olaf beschäftigt sich seit über 20 Jahren mit IT-Infrastruktur und Digitalisierung. Als Geschäftsführer zweier Unternehmen (Industrie-PCs und Kalibrierlabor) kennt er die praktischen Herausforderungen, die der AI Act für den Mittelstand bringt. Auf mylurch.com erklärt er KI-Regulierung aus der Perspektive eines Praktikers.