Hochrisiko-KI-Systeme im AI Act: Welche KI ist betroffen? [2026]

Aktualisiert: April 2026 · Lesezeit: 14 Minuten

Auf einen Blick: Der EU AI Act teilt KI-Systeme in vier Risikostufen ein. Die strengsten Regeln gelten für Hochrisiko-KI-Systeme — und die Liste ist länger als die meisten denken. Dieser Artikel erklärt, welche KI-Anwendungen betroffen sind, welche Pflichten daraus entstehen und wie du prüfst, ob dein System dazugehört.

Die vier Risikoklassen im AI Act

Der EU AI Act (Verordnung (EU) 2024/1689) folgt einem risikobasierten Ansatz. Nicht jede KI wird gleich reguliert — die Pflichten richten sich nach dem Risiko, das ein System für Menschen und Grundrechte darstellt [1].

Die vier Stufen im Überblick:

Risikostufe Regulierung Beispiele
Unakzeptabel Verboten (Article 5) Social Scoring, manipulative Systeme, Echtzeit-Biometrie in öffentlichen Räumen*
Hoch Strenge Pflichten (Articles 6–51) Kreditbewertung, Bewerber-Screening, medizinische Diagnostik
Begrenzt Transparenzpflichten (Article 50) Chatbots, Deepfakes, KI-generierte Texte
Minimal Keine Pflichten Spamfilter, KI in Videospielen, Empfehlungsalgorithmen

* Ausnahme: Strafverfolgung bei schweren Straftaten unter strengen Bedingungen.

Dieser Artikel konzentriert sich auf die zweite Stufe: Hochrisiko-KI-Systeme. Sie sind der Kern der Regulierung — mit den umfangreichsten Pflichten, aber auch den größten Unsicherheiten in der Praxis [2].

Was genau ist ein Hochrisiko-KI-System?

Ein KI-System gilt als hochriskant, wenn es eine erhebliche Gefahr für die Gesundheit, Sicherheit oder Grundrechte von Personen darstellt. Der AI Act definiert zwei Wege, auf denen ein System in die Hochrisiko-Kategorie fällt [3]:

Weg 1 — Annex III (Article 6(2)): Das System wird in einem der acht aufgelisteten Risikobereiche eingesetzt (Biometrie, Bildung, Beschäftigung etc.).

Weg 2 — Annex I (Article 6(1)): Das System ist ein Sicherheitsbauteil eines Produkts, das bereits unter EU-Harmonisierungsvorschriften fällt (Medizinprodukte, Maschinen, Spielzeug etc.).

Entscheidend: Die Einstufung hängt nicht von der Technologie ab, sondern vom Einsatzzweck. Dasselbe KI-Modell kann in einem Kontext minimal-riskant sein (Produktempfehlungen im Online-Shop) und in einem anderen hochriskant (automatisierte Kreditentscheidungen) [4].

Die acht Bereiche aus Annex III

Annex III des AI Act listet acht Anwendungsbereiche auf, in denen KI-Systeme als hochriskant gelten. Hier die vollständige Übersicht mit konkreten Beispielen [5]:

1. Biometrische Identifikation und Kategorisierung

KI-Systeme zur biometrischen Fernidentifikation von Personen (außer Verifizierung zur Authentifizierung). Dazu gehören Gesichtserkennung in Echtzeit, Emotionserkennung am Arbeitsplatz und biometrische Kategorisierung nach sensiblen Merkmalen wie Ethnie oder politischer Einstellung [6].

Beispiel: Eine Kamera am Firmeneingang, die Mitarbeiter per Gesichtserkennung identifiziert, fällt hierunter. Ein Smartphone-Entsperren per FaceID dagegen nicht (das ist Verifizierung).

2. Kritische Infrastruktur

KI als Sicherheitsbauteil in der Verwaltung und dem Betrieb kritischer digitaler Infrastruktur, Straßenverkehr, Wasser-, Gas-, Strom- und Wärmeversorgung [7].

Beispiel: Ein KI-System, das Stromnetz-Ausfälle vorhersagt und automatisch Lastverteilungen steuert.

3. Bildung und Berufsausbildung

KI-Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen, zur Bewertung von Prüfungsleistungen, zur Einstufung des Bildungsniveaus und zur Überwachung von Prüfungen [8].

Beispiel: Ein System, das Universitätsbewerbungen automatisch vorsortiert oder Prüfungsaufsätze per KI bewertet.

4. Beschäftigung und Personalmanagement

KI zur Einstellung, Auswahl, Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung von Arbeitnehmern. Einer der am breitesten gefassten Bereiche [9].

Beispiel: Automatisiertes Bewerber-Screening, das Lebensläufe filtert und Kandidaten rankt. Auch KI-gestützte Mitarbeiterüberwachung (Produktivitäts-Tracking) fällt darunter.

5. Zugang zu wesentlichen privaten und öffentlichen Diensten

KI-Systeme zur Bewertung der Kreditwürdigkeit, Risikobewertung bei Versicherungen, Bewertung des Anspruchs auf Sozialleistungen und Priorisierung von Notrufen [10].

Beispiel: Eine Bank nutzt KI, um Kreditanträge zu bewerten. Oder: Ein Versicherer berechnet individuelle Prämien per Algorithmus.

6. Strafverfolgung

KI zur individuellen Risikobewertung von Personen (Rückfallprognose), Lügendetektoren, Beweiswürdigung und prädiktive Polizeiarbeit (Predictive Policing) [11].

Beispiel: Ein System, das die Wahrscheinlichkeit berechnet, ob ein Verdächtiger erneut straffällig wird.

7. Migration, Asyl und Grenzkontrolle

KI zur Bewertung von Sicherheitsrisiken bei Einreise, Unterstützung bei der Prüfung von Asylanträgen und Erkennung von Dokumentenfälschungen [12].

Beispiel: Automatisierte Gesichtserkennung an EU-Außengrenzen oder KI, die Asylanhörungen auswertet.

8. Rechtsprechung und demokratische Prozesse

KI zur Recherche und Auslegung von Sachverhalten und Rechtsvorschriften sowie zur Beeinflussung des Ergebnisses von Wahlen [13].

Beispiel: Ein Richterassistenzsystem, das Strafmaßempfehlungen berechnet. Oder: KI, die Wahlwerbung personalisiert ausliefert.

Wichtig: Die EU-Kommission kann Annex III per delegiertem Rechtsakt erweitern — neue Kategorien können also ohne Gesetzesänderung hinzukommen (Article 7) [14].

Sicherheitsbauteile in regulierten Produkten (Annex I)

Neben den acht Bereichen in Annex III gibt es einen zweiten Weg zur Hochrisiko-Einstufung: Wenn KI als Sicherheitsbauteil in einem Produkt verwendet wird, das bereits unter EU-Harmonisierungsvorschriften fällt (Article 6(1)) [15].

Betroffene Produktkategorien aus Annex I (Auszug):

  • Maschinen (Maschinenverordnung (EU) 2023/1230)
  • Medizinprodukte (Verordnungen (EU) 2017/745 und 2017/746)
  • Spielzeug (Richtlinie 2009/48/EG)
  • Aufzüge (Richtlinie 2014/33/EU)
  • Funkanlagen (Richtlinie 2014/53/EU)
  • Kraftfahrzeuge (Verordnung (EU) 2019/2144)
  • Luftfahrt (Verordnung (EU) 2018/1139)

Beispiel: Eine CNC-Fräsmaschine mit KI-gesteuerter Kollisionsvermeidung. Die Maschine fällt unter die Maschinenverordnung — das KI-System als Sicherheitsbauteil ist daher hochriskant [16].

Pflichten für Anbieter von Hochrisiko-KI

Wer ein Hochrisiko-KI-System entwickelt oder auf den EU-Markt bringt, muss umfangreiche Pflichten erfüllen. Articles 8 bis 15 des AI Act definieren sechs Kernpflichten [17]:

Pflicht Article Was konkret?
Risikomanagementsystem Art. 9 Kontinuierliches Risikomanagement über den gesamten Lebenszyklus des Systems
Daten-Governance Art. 10 Trainingsdaten müssen relevant, repräsentativ und möglichst fehlerfrei sein
Technische Dokumentation Art. 11 Vollständige Dokumentation vor Markteinführung, einschließlich Zweckbestimmung und Grenzen
Aufzeichnungspflichten Art. 12 Automatische Protokollierung (Logging) zur Rückverfolgbarkeit
Menschliche Aufsicht Art. 14 System muss so designt sein, dass Menschen es überwachen und eingreifen können
Genauigkeit und Robustheit Art. 15 Angemessene Genauigkeit, Robustheit gegen Fehler und Cybersicherheit

Zusätzlich muss vor der Markteinführung eine Konformitätsbewertung (Article 43) durchgeführt und das System in der EU-Datenbank für Hochrisiko-KI registriert werden (Article 49) [18].

Tipp: Tools wie NeuralFlow können automatisiert prüfen, ob deine KI-Systeme die Transparenz- und Dokumentationspflichten erfüllen — ein erster Schritt zur Compliance.

Pflichten für Betreiber (Deployer)

Nicht nur Anbieter sind in der Pflicht. Wer ein Hochrisiko-KI-System einsetzt (der „Deployer“), hat eigene Verpflichtungen nach Article 26 [19]:

  • Bestimmungsgemäße Verwendung: Das System nur so einsetzen, wie vom Anbieter vorgesehen
  • Menschliche Aufsicht: Kompetente Personen benennen, die das System überwachen
  • Input-Daten: Sicherstellen, dass die eingegebenen Daten dem Zweck entsprechen
  • Monitoring: Das System überwachen und bei Fehlfunktionen den Anbieter informieren
  • Aufbewahrung: Automatisch generierte Protokolle mindestens 6 Monate aufbewahren
  • Grundrechte-Folgenabschätzung: Bei bestimmten Systemen vor der Inbetriebnahme durchführen (Article 27)

Praxisrelevanz: Auch wenn du ein KI-Tool nur kaufst und einsetzt (nicht selbst entwickelst), bist du als Betreiber verantwortlich. Das betrifft jedes Unternehmen, das z.B. ein KI-gestütztes Bewerber-Screening-Tool eines Drittanbieters nutzt [20].

Selbstcheck: Ist mein KI-System hochriskant?

Drei Fragen helfen bei der Einordnung:

Frage 1: Wird dein KI-System in einem der acht Bereiche aus Annex III eingesetzt? (Biometrie, Infrastruktur, Bildung, Beschäftigung, Dienste, Strafverfolgung, Migration, Justiz)

Frage 2: Ist dein KI-System ein Sicherheitsbauteil eines Produkts, das unter eine EU-Harmonisierungsvorschrift aus Annex I fällt? (Maschinen, Medizinprodukte, Spielzeug etc.)

Frage 3: Trifft dein System autonome oder teilautonome Entscheidungen, die wesentliche Auswirkungen auf die Rechte oder die Lebenssituation von Personen haben?

Wenn eine Antwort „Ja“ lautet: Dein System ist wahrscheinlich hochriskant. Prüfe die genaue Formulierung in Annex III und konsultiere ggf. rechtliche Beratung [21].

Wenn alle Antworten „Nein“: Dein System fällt wahrscheinlich unter „begrenztes Risiko“ (Transparenzpflichten nach Article 50) oder „minimales Risiko“ (keine Pflichten).

Ausnahmen und Erleichterungen

Nicht jedes System in den Annex-III-Bereichen ist automatisch hochriskant. Article 6(3) definiert eine wichtige Ausnahme [22]:

Ein KI-System ist nicht hochriskant, wenn es keine erhebliche Gefahr für Gesundheit, Sicherheit oder Grundrechte darstellt — insbesondere wenn es:

  • eine enge Verfahrensaufgabe erfüllt (z.B. Formatkonvertierung)
  • das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit verbessert
  • Entscheidungsmuster erkennt, ohne menschliche Bewertung zu ersetzen
  • nur eine vorbereitende Aufgabe für eine Bewertung durchführt

Achtung: Diese Ausnahme gilt nicht für Profiling natürlicher Personen. Wenn dein System Personen profiliert, greift die Ausnahme nie — unabhängig davon, wie eng die Aufgabe ist [23].

Weitere Erleichterungen:

  • KMU und Startups: Zugang zu regulatorischen Sandboxes (Article 57), bevorzugte Unterstützung, reduzierte Gebühren für Konformitätsbewertungen [24]
  • Forschung und Entwicklung: Systeme, die ausschließlich zu Forschungszwecken entwickelt werden, fallen nicht unter die Hochrisiko-Pflichten (Article 2(6))
  • Open-Source: Sonderregeln für freie und quelloffene KI-Modelle — aber nicht für Hochrisiko-Anwendungen (Article 2(12))

Fristen und Übergangszeiten

Die Pflichten gelten nicht auf einen Schlag. Der AI Act sieht eine gestaffelte Einführung vor [25]:

Datum Was gilt? Relevant für
02.02.2025 Verbot unakzeptabler KI-Praktiken Alle
02.08.2025 Pflichten für GPAI-Modelle (General Purpose AI) Modellanbieter
02.08.2026 Hochrisiko-Pflichten (Annex III) Anbieter + Betreiber
02.08.2027 Hochrisiko-Pflichten (Annex I — Produktsicherheit) Produkthersteller

Für die meisten Unternehmen ist der 2. August 2026 der entscheidende Stichtag. Bis dahin müssen Hochrisiko-KI-Systeme aus Annex III compliant sein. Für eine vollständige Fristen-Übersicht haben wir einen eigenen Artikel.

Strafen bei Verstößen

Wer die Hochrisiko-Pflichten nicht einhält, riskiert empfindliche Bußgelder nach Article 99 [26]:

  • Bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes für Verstöße gegen Hochrisiko-Pflichten
  • Bis zu 7,5 Millionen Euro oder 1 % des Umsatzes für falsche Angaben gegenüber Behörden
  • Für KMU gilt jeweils der niedrigere Betrag

Eine detaillierte Aufschlüsselung aller Strafstufen findest du in unserem Artikel AI Act Strafen und Bußgelder.

Praxisbeispiele: Welche Tools sind betroffen?

Wie wirkt sich die Hochrisiko-Einstufung in der Praxis aus? Hier sechs typische Szenarien [27]:

Szenario Hochriskant? Begründung
ChatGPT für Marketing-Texte Nein Begrenztes Risiko — nur Transparenzpflicht (Kennzeichnung)
KI-Bewerber-Screening (z.B. HireVue) Ja Annex III Nr. 4 — Beschäftigung
Automatisierte Kreditprüfung Ja Annex III Nr. 5 — Zugang zu Diensten
KI-Spamfilter in E-Mail Nein Minimales Risiko — keine Pflichten
KI-gesteuerte Diagnosesoftware (Radiologie) Ja Annex I — Medizinprodukt (Verordnung 2017/745)
KI-Produktempfehlungen im Online-Shop Nein Minimales Risiko — kein Grundrechtseingriff

Faustregel: Sobald dein KI-System Entscheidungen über Menschen trifft — ihre Kreditwürdigkeit, Eignung, Zugang zu Diensten oder Rechte — ist es wahrscheinlich hochriskant. Wenn es nur Inhalte generiert oder Prozesse optimiert, meist nicht [28].

FAQ

Was sind Hochrisiko-KI-Systeme im AI Act?

Hochrisiko-KI-Systeme sind KI-Anwendungen, die laut EU AI Act ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte von Personen darstellen. Sie sind in Annex III des AI Act in acht Bereichen aufgelistet: biometrische Identifikation, kritische Infrastruktur, Bildung, Beschäftigung, öffentliche Dienste, Strafverfolgung, Migration und Rechtsprechung.

Welche KI-Systeme gelten als hochriskant?

Hochriskant sind unter anderem: biometrische Echtzeit-Identifikation, KI in der Kreditbewertung, automatisierte Bewerber-Screenings, KI-gestützte Prüfungsbewertungen, prädiktive Polizeiarbeit, KI zur Grenzüberwachung und Systeme zur Beweiswürdigung vor Gericht. Die vollständige Liste steht in Annex III der Verordnung (EU) 2024/1689.

Welche Pflichten haben Anbieter von Hochrisiko-KI?

Anbieter müssen ein Risikomanagementsystem einrichten, technische Dokumentation erstellen, Datenqualität sicherstellen, menschliche Aufsicht ermöglichen, Genauigkeit und Robustheit gewährleisten, und das System vor Markteintritt einer Konformitätsbewertung unterziehen. Diese Pflichten stehen in Articles 8 bis 15 des AI Act.

Ist mein KI-Tool hochriskant?

Prüfe drei Fragen: 1) Ist dein System in Annex III aufgelistet (acht Bereiche von Biometrie bis Justiz)? 2) Ist es ein Sicherheitsbauteil eines Produkts aus Annex I (z.B. Medizinprodukt, Maschine, Spielzeug)? 3) Trifft es autonome Entscheidungen über Personen? Wenn ja bei einer Frage: wahrscheinlich hochriskant. Die Ausnahme nach Article 6(3) greift nur bei engen Voraussetzungen.

Ab wann gelten die Hochrisiko-Pflichten?

Die Pflichten für Hochrisiko-KI-Systeme gelten ab dem 2. August 2026. Für KI-Systeme, die als Sicherheitsbauteil in bereits regulierten Produkten eingebettet sind (Annex I), gilt der 2. August 2027. Unternehmen haben also je nach Kategorie noch 4 bis 16 Monate Zeit.

Was passiert wenn ich ein Hochrisiko-System nicht registriere?

Wer ein Hochrisiko-KI-System ohne Registrierung in der EU-Datenbank betreibt oder die Konformitätsbewertung umgeht, riskiert Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes. Für KMU gilt der jeweils niedrigere Betrag.

Quellen

[1] Europäische Union: Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 (AI Act), Erwägungsgrund 1 und 5.

[2] AI Act, Articles 6–7 — Definition und Klassifizierung von Hochrisiko-KI-Systemen.

[3] AI Act, Article 6(1) und 6(2) — Zwei Wege zur Hochrisiko-Einstufung.

[4] AI Act, Erwägungsgrund 53 — Einstufung basiert auf Zweckbestimmung, nicht Technologie.

[5] AI Act, Annex III — Acht Bereiche für Hochrisiko-KI-Systeme.

[6] AI Act, Annex III Nr. 1 — Biometrische Identifikation und Kategorisierung.

[7] AI Act, Annex III Nr. 2 — Verwaltung und Betrieb kritischer Infrastruktur.

[8] AI Act, Annex III Nr. 3 — Allgemeine und berufliche Bildung.

[9] AI Act, Annex III Nr. 4 — Beschäftigung, Arbeitnehmerverwaltung und Zugang zur Selbstständigkeit.

[10] AI Act, Annex III Nr. 5 — Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten.

[11] AI Act, Annex III Nr. 6 — Strafverfolgung.

[12] AI Act, Annex III Nr. 7 — Migration, Asyl und Grenzkontrolle.

[13] AI Act, Annex III Nr. 8 — Rechtspflege und demokratische Prozesse.

[14] AI Act, Article 7 — Befugnis der Kommission zur Änderung von Annex III.

[15] AI Act, Article 6(1) und Annex I — Sicherheitsbauteile regulierter Produkte.

[16] AI Act, Annex I Abschnitt A — Maschinenverordnung (EU) 2023/1230.

[17] AI Act, Articles 8–15 — Anforderungen an Hochrisiko-KI-Systeme.

[18] AI Act, Articles 43 und 49 — Konformitätsbewertung und EU-Datenbank.

[19] AI Act, Article 26 — Pflichten der Betreiber von Hochrisiko-KI-Systemen.

[20] AI Act, Article 26(1) — Betreiberpflichten gelten unabhängig von der Entwicklerrolle.

[21] AI Act, Annex III und Article 6(3) — Einstufungskriterien und Ausnahmen.

[22] AI Act, Article 6(3) — Ausnahme von der Hochrisiko-Einstufung.

[23] AI Act, Article 6(3) letzter Absatz — Keine Ausnahme bei Profiling.

[24] AI Act, Articles 57–63 — Regulatorische Sandboxes und KMU-Erleichterungen.

[25] AI Act, Article 113 — Gestaffelte Anwendungstermine.

[26] AI Act, Article 99 — Sanktionen bei Verstößen.

[27] Eigene Analyse basierend auf Annex I, Annex III und Erwägungsgründen 47–65.

[28] AI Act, Erwägungsgrund 53 — Abgrenzung hochriskanter von nicht-hochriskanten Systemen.

Olaf Mergili

Olaf Mergili

Olaf beschäftigt sich seit über 20 Jahren mit IT-Infrastruktur und Digitalisierung. Als Geschäftsführer zweier Unternehmen (Industrie-PCs und Kalibrierlabor) kennt er die praktischen Herausforderungen, die der AI Act für den Mittelstand bringt. Auf mylurch.com erklärt er KI-Regulierung aus der Perspektive eines Praktikers.

Nach oben scrollen