EU AI Act Article 50: Transparenzpflicht für KI einfach erklärt

Aktualisiert: April 2026 · Lesezeit: 14 Minuten

Auf einen Blick: Article 50 ist der zentrale Transparenz-Paragraf des EU AI Act. Er verpflichtet Anbieter und Betreiber von KI-Systemen, Nutzer über den Einsatz von KI zu informieren und KI-generierte Inhalte zu kennzeichnen. Die Pflichten gelten ab dem 2. August 2026. Bei Verstößen drohen Bußgelder bis 15 Millionen Euro. Dieser Artikel erklärt, was Article 50 konkret fordert, wen er betrifft und was du jetzt tun musst.

Was ist Article 50 des EU AI Act?

Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende KI-Gesetz. Innerhalb dieser Verordnung ist Article 50 der Paragraf, der sich ausschließlich mit Transparenzpflichten befasst [1].

Die Kernaussage: Wer KI-Systeme entwickelt oder einsetzt, muss dafür sorgen, dass Menschen wissen, wann sie mit einer KI interagieren — und wann Inhalte von einer KI erzeugt wurden.

Das klingt simpel, hat aber weitreichende Konsequenzen. Denn Article 50 betrifft nicht nur Chatbots wie ChatGPT oder Claude. Er gilt für jedes System, das:

  • direkt mit Menschen interagiert (Chatbots, Sprachassistenten, KI-Telefonsysteme)
  • Texte, Bilder, Audio oder Video erzeugt (generative KI)
  • Emotionen erkennt oder Menschen in biometrische Kategorien einteilt
  • Deepfakes oder synthetische Medien erzeugt

Article 50 steht im Kapitel IV des AI Act — dem Abschnitt über „Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme“. Er ist damit Teil der Pflichten, die unabhängig von der Risikoeinstufung gelten. Selbst wenn dein KI-System nicht als Hochrisiko eingestuft wird, musst du Article 50 trotzdem einhalten [2].

Wichtig: Article 50 gilt für alle KI-Systeme, die mit Menschen interagieren oder Inhalte erzeugen — unabhängig von der Risikostufe. Das unterscheidet ihn von den meisten anderen Pflichten des AI Act, die nur für Hochrisiko-Systeme gelten.

Was fordert Article 50 konkret?

Article 50 enthält sechs Absätze mit unterschiedlichen Pflichten. Hier die vier wichtigsten Anforderungen im Detail:

1. Kennzeichnung von KI-Interaktionen (Art. 50 Abs. 1)

Wenn ein KI-System direkt mit Menschen interagiert, müssen die Anbieter sicherstellen, dass die betroffene Person darüber informiert wird, dass sie mit einer KI interagiert. Das gilt zum Beispiel für:

  • Chatbots auf Webseiten — müssen klar als KI erkennbar sein
  • KI-Telefonsysteme — der Anrufer muss wissen, dass er mit einer KI spricht
  • Virtuelle Assistenten — müssen sich als KI identifizieren

Ausnahme: Wenn es „offensichtlich“ ist, dass man mit einer KI interagiert (z. B. Siri oder Alexa), kann die Kennzeichnungspflicht entfallen. Das ist allerdings ein schmaler Grat — im Zweifel lieber kennzeichnen [3].

2. Maschinenlesbare Markierung von KI-Inhalten (Art. 50 Abs. 2)

Anbieter von KI-Systemen, die synthetische Inhalte erzeugen (Text, Bild, Audio, Video), müssen sicherstellen, dass die Outputs maschinenlesbar als KI-generiert gekennzeichnet werden. Das bedeutet konkret:

  • Wasserzeichen in Bildern und Videos (z. B. C2PA-Standard)
  • Metadaten in Textdokumenten und Audiodateien
  • Die Kennzeichnung muss robust sein — also nicht trivial entfernbar
  • Sie muss interoperabel sein — also systemübergreifend funktionieren

Die EU-Kommission arbeitet mit Normungsgremien an technischen Standards für diese Kennzeichnung. Der C2PA-Standard (Coalition for Content Provenance and Authenticity) gilt aktuell als vielversprechendster Ansatz [4].

3. Offenlegung von Deepfakes (Art. 50 Abs. 4)

Betreiber (also Unternehmen, die KI-Systeme einsetzen), die Deepfakes erzeugen oder verbreiten, müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Das betrifft:

  • Bilder, die Personen zeigen, die so nicht existieren oder die manipuliert wurden
  • Videos, in denen Personen Dinge sagen oder tun, die sie nie gesagt oder getan haben
  • Audio-Inhalte mit geklonten Stimmen

Die Offenlegung muss klar und deutlich erfolgen — spätestens bei der Erstveröffentlichung. Ein versteckter Disclaimer im Kleingedruckten reicht nicht [5].

Ausnahmen: Für Kunst, Satire und wissenschaftliche Forschung gelten gelockerte Anforderungen — aber auch hier muss die KI-Herkunft grundsätzlich erkennbar sein.

4. Emotionserkennung und biometrische Kategorisierung (Art. 50 Abs. 3)

Wer KI-Systeme einsetzt, die Emotionen erkennen oder Menschen in biometrische Kategorien einteilen (z. B. nach Geschlecht, Alter oder ethnischer Zugehörigkeit), muss die betroffenen Personen darüber informieren.

Das ist besonders relevant für:

  • Personalauswahl mit Emotionsanalyse in Video-Interviews
  • Werbung, die auf erkannten Emotionen basiert
  • Sicherheitssysteme mit biometrischer Kategorisierung

Merke: Die vier Säulen von Article 50 sind: (1) KI-Interaktionen kennzeichnen, (2) KI-Inhalte maschinenlesbar markieren, (3) Deepfakes offenlegen, (4) Emotionserkennung transparent machen.

Wen betrifft Article 50?

Article 50 unterscheidet drei Rollen mit unterschiedlichen Pflichten:

Rolle Wer ist das? Hauptpflichten nach Art. 50
Anbieter (Provider) Entwickler und Vertreiber von KI-Systemen (z. B. OpenAI, Anthropic, Mistral, aber auch KMU, die eigene KI-Tools bauen) KI-Interaktionen erkennbar machen, maschinenlesbare Kennzeichnung in Outputs einbauen, technische Dokumentation
Betreiber (Deployer) Unternehmen, die KI-Systeme einsetzen (z. B. ein Online-Shop mit KI-Chatbot, eine Agentur mit KI-Texterstellung) Deepfakes offenlegen, Emotionserkennung transparent machen, Nutzer informieren
Nutzer (User) Privatpersonen und Unternehmen, die KI-generierte Inhalte veröffentlichen Keine direkten Pflichten aus Art. 50, aber: Wer KI-Inhalte kommerziell veröffentlicht, wird oft zum „Betreiber“

Praktisches Beispiel: Ein KMU mit KI-Chatbot

Du betreibst einen Online-Shop und setzt einen KI-Chatbot für den Kundenservice ein. In diesem Fall bist du Betreiber (Deployer). Der Chatbot-Anbieter (z. B. Intercom, Tidio oder ein Custom-Bot auf GPT-Basis) ist der Anbieter (Provider).

Deine Pflichten als Betreiber:

  • Sicherstellen, dass der Chatbot sich als KI zu erkennen gibt
  • Prüfen, ob der Anbieter die technischen Anforderungen (maschinenlesbare Kennzeichnung) erfüllt
  • Dokumentation vorhalten, dass du die Transparenzpflichten einhältst

Pflichten des Anbieters:

  • Den Chatbot so bauen, dass die KI-Interaktion erkennbar ist
  • Technische Mittel zur Kennzeichnung bereitstellen
  • Dokumentation und Anleitungen für Betreiber liefern

Fristen und Zeitplan

Der AI Act wurde am 1. August 2024 veröffentlicht und tritt stufenweise in Kraft. Für Article 50 gilt folgender Zeitplan [6]:

Datum Was passiert?
1. August 2024 AI Act tritt in Kraft (Veröffentlichung im Amtsblatt)
2. Februar 2025 Verbote (Kapitel II) gelten — z. B. Social Scoring, manipulative KI
2. August 2025 Pflichten für General-Purpose AI (GPAI) gelten — z. B. für Foundation Models wie GPT, Claude, Llama
2. August 2026 Article 50 Transparenzpflichten gelten — Kennzeichnung, Deepfakes, Emotionserkennung
2. August 2027 Hochrisiko-KI-Pflichten (Kapitel III, Anhang III) gelten vollständig

Countdown: Bis zum 2. August 2026 sind es nur noch ~4 Monate. Wenn du KI-Systeme einsetzt oder anbietest, solltest du jetzt mit der Umsetzung beginnen. „Wir wussten nicht, dass es gilt“ ist keine Ausrede — die Verordnung wurde 2024 veröffentlicht.

Strafen bei Verstößen

Der AI Act sieht ein dreistufiges Bußgeld-System vor. Für Verstöße gegen Article 50 gilt die mittlere Stufe [7]:

Verstoß-Kategorie Maximale Strafe
Verbotene KI-Praktiken (Art. 5) 35 Mio. EUR oder 7 % Jahresumsatz
Transparenzpflichten (Art. 50) 15 Mio. EUR oder 3 % Jahresumsatz
Falsche Angaben an Behörden 7,5 Mio. EUR oder 1 % Jahresumsatz

Für KMU und Startups gelten proportional niedrigere Obergrenzen. Aber selbst die sind schmerzhaft: Wer als kleines Unternehmen die Transparenzpflichten ignoriert, riskiert existenzbedrohende Strafen.

Die Durchsetzung erfolgt durch nationale Marktüberwachungsbehörden. In Deutschland wird voraussichtlich die Bundesnetzagentur zuständig sein. Jeder EU-Mitgliedstaat muss bis zum 2. August 2025 seine zuständige Behörde benennen [8].

Checkliste: Was musst du tun?

Hier ist deine konkrete To-Do-Liste, abhängig von deiner Rolle. Arbeite sie Punkt für Punkt ab — am besten vor dem 2. August 2026.

Für Betreiber (Deployer) — z. B. Unternehmen, die KI einsetzen

  1. Inventar erstellen: Welche KI-Systeme setzt du ein? (Chatbots, Textgeneratoren, Bildgeneratoren, Analysetools)
  2. Rollen klären: Bist du Anbieter, Betreiber oder beides? Bei Eigenentwicklungen bist du oft beides
  3. KI-Interaktionen kennzeichnen: Jeder Chatbot muss sich als KI identifizieren. Sichtbar, nicht versteckt
  4. KI-generierte Inhalte markieren: Texte, Bilder und Videos aus KI-Tools müssen als KI-generiert erkennbar sein
  5. Deepfake-Policy: Wenn du synthetische Medien erstellst, brauchst du eine Offenlegungsstrategie
  6. Emotionserkennung prüfen: Setzt du Tools ein, die Emotionen analysieren? Falls ja: Nutzer informieren
  7. Anbieter-Check: Fordere von deinen KI-Anbietern eine schriftliche Bestätigung, dass sie Art. 50 einhalten
  8. Dokumentation: Halte schriftlich fest, welche Maßnahmen du ergriffen hast — das ist dein Nachweis bei einer Prüfung

Für Anbieter (Provider) — z. B. KI-Entwickler und SaaS-Unternehmen

  1. KI-Identifikation einbauen: Dein System muss sich automatisch als KI zu erkennen geben
  2. Maschinenlesbare Kennzeichnung: Implementiere Wasserzeichen oder Metadaten in allen Outputs
  3. C2PA oder vergleichbaren Standard evaluieren: Die EU wird technische Standards festlegen — früh adoptieren
  4. Dokumentation für Betreiber: Stelle Anleitungen bereit, wie Betreiber die Transparenzpflichten einhalten
  5. Robustheit testen: Die Kennzeichnung darf nicht trivial zu entfernen sein
  6. Interoperabilität sicherstellen: Deine Kennzeichnung muss mit anderen Systemen kompatibel sein

Praxisbeispiele: Article 50 im Alltag

Beispiel 1: Online-Shop mit KI-Chatbot

Ein E-Commerce-Unternehmen setzt einen KI-gestützten Kundenservice-Chatbot ein. Nach Article 50 muss:

  • Der Chatbot sich bei Gesprächsbeginn als KI identifizieren (z. B. „Ich bin ein KI-Assistent von Shop XY“)
  • Die Information darf nicht erst im Impressum stehen — sie muss vor oder bei der Interaktion sichtbar sein
  • Wenn der Bot an einen menschlichen Mitarbeiter übergibt, muss auch das kommuniziert werden

Beispiel 2: Marketing-Agentur erstellt KI-Bilder

Eine Agentur nutzt Midjourney oder DALL-E, um Produktbilder zu erstellen. Nach Article 50:

  • Die Bilder müssen maschinenlesbar als KI-generiert markiert sein (Metadaten/Wasserzeichen)
  • Bei Veröffentlichung muss erkennbar sein, dass die Bilder KI-generiert sind
  • Ausnahme: Rein redaktionelle Stockfotos, die keine realen Personen darstellen und offensichtlich illustrativ sind

Beispiel 3: Content-Team nutzt KI-Texte

Ein Redaktionsteam nutzt GPT oder Claude, um Texte zu schreiben oder zu überarbeiten. Die Transparenzpflicht nach Article 50 gilt hier differenziert:

  • Vollständig KI-generierte Texte: Müssen als solche gekennzeichnet werden
  • KI-unterstützte Texte (Mensch schreibt, KI hilft): Hier ist die Lage komplexer. Die EU arbeitet an Leitlinien, ab wann ein Text als „KI-generiert“ gilt
  • Empfehlung: Im Zweifel kennzeichnen. Ein „mit KI-Unterstützung erstellt“-Hinweis schadet nie

Beispiel 4: Deepfake-Video für Social Media

Ein Creator erstellt ein Video, in dem eine prominente Person scheinbar spricht — erzeugt mit KI. Nach Article 50:

  • Das Video muss klar und deutlich als künstlich erzeugt markiert sein
  • Die Kennzeichnung muss bei der Erstveröffentlichung sichtbar sein (nicht nachträglich hinzugefügt)
  • Wer ein solches Video teilt, muss die Kennzeichnung beibehalten

Article 50 vs. DSGVO: Was ist der Unterschied?

Viele Unternehmen fragen sich: „Wir halten die DSGVO schon ein — reicht das nicht?“ Kurze Antwort: Nein.

Aspekt DSGVO Article 50 AI Act
Schützt Personenbezogene Daten Transparenz bei KI-Systemen
Gilt wenn Personenbezogene Daten verarbeitet werden KI mit Menschen interagiert oder Inhalte erzeugt
Kennzeichnung Datenschutzhinweis, Cookie-Banner KI-Kennzeichnung, Wasserzeichen, Deepfake-Label
Max. Strafe 20 Mio. EUR / 4 % Umsatz 15 Mio. EUR / 3 % Umsatz
Gilt seit Mai 2018 August 2026

Wichtig: Beide Verordnungen können gleichzeitig gelten. Wenn dein KI-Chatbot personenbezogene Daten verarbeitet, brauchst du beidesDSGVO-Konformität und AI-Act-Transparenz. Die eine ersetzt die andere nicht [9].

Tools für die Umsetzung

Die gute Nachricht: Du musst Article 50 nicht komplett manuell umsetzen. Es gibt Tools, die helfen:

Kennzeichnung auf Webseiten

Für die KI-Kennzeichnung auf Webseiten gibt es verschiedene Ansätze:

  • HTML-Metadaten: Eigene Meta-Tags für KI-generierte Inhalte
  • Schema.org-Markup: Structured Data, das KI-Herkunft maschinenlesbar macht
  • Sichtbare Labels: Badges oder Hinweistexte im Content

Tools wie NeuralFlow automatisieren einen Teil dieser Arbeit: Das npm-Package generiert AI-Act-konforme Kennzeichnungen als HTML-Snippets und JSON-LD-Markup, die du in deine Webseite einbinden kannst. Es ersetzt keine Rechtsberatung, kann aber den technischen Teil der Umsetzung beschleunigen [10].

Wasserzeichen für Bilder und Video

  • C2PA (Content Credentials): Offener Standard von Adobe, Microsoft und anderen. Einige KI-Tools (z. B. Adobe Firefly, DALL-E) integrieren ihn bereits
  • Google SynthID: Wasserzeichen-Technologie für KI-generierte Bilder
  • IPTC-Metadaten: Standardisierte Bild-Metadaten, die KI-Herkunft dokumentieren

Compliance-Checks

Nutze die AI Act Checkliste für KMU, um systematisch zu prüfen, ob du alle Pflichten einhältst. Der Compliance-Check auf mylurch.com gibt dir einen schnellen Überblick über deinen Status.

Häufige Fragen zu Article 50

Was ist Article 50 des EU AI Act?

Article 50 ist der zentrale Transparenz-Paragraf der EU-KI-Verordnung (Regulation (EU) 2024/1689). Er verpflichtet Anbieter und Betreiber von KI-Systemen, Nutzer darüber zu informieren, dass sie mit einer KI interagieren — und KI-generierte Inhalte als solche zu kennzeichnen. Er steht in Kapitel IV und gilt unabhängig von der Risikoeinstufung des KI-Systems.

Wen betrifft Article 50?

Article 50 betrifft drei Gruppen: KI-Anbieter (Provider), die KI-Systeme entwickeln und auf den Markt bringen; Betreiber (Deployer), die KI-Systeme einsetzen; und indirekt auch Nutzer, die KI-generierte Inhalte veröffentlichen. Die Pflichten variieren je nach Rolle und Risikostufe des eingesetzten Systems.

Ab wann gilt Article 50?

Article 50 gilt ab dem 2. August 2026. Ab diesem Datum müssen alle Transparenzpflichten umgesetzt sein. Der AI Act trat am 1. August 2024 in Kraft und wird stufenweise wirksam. Die Transparenzpflichten gehören zur zweiten Stufe — nach den Verboten (Februar 2025) und den GPAI-Pflichten (August 2025).

Was muss ich als Unternehmen konkret tun?

Als Unternehmen musst du: (1) KI-Interaktionen kennzeichnen (z. B. Chatbots als KI markieren), (2) KI-generierte Inhalte maschinenlesbar markieren (Wasserzeichen, Metadaten), (3) Deepfakes und synthetische Medien offenlegen, (4) Emotionserkennungssysteme transparent machen. Starte mit einem KI-Inventar und arbeite die Checkliste oben ab.

Welche Strafen drohen bei Verstößen gegen Article 50?

Bei Verstößen gegen die Transparenzpflichten drohen Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes — je nachdem, welcher Betrag höher ist. Für KMU und Startups gelten proportional niedrigere Obergrenzen, die aber immer noch existenzbedrohend sein können.

Gilt Article 50 auch für Open-Source-KI?

Ja, grundsätzlich schon. Open-Source-Modelle sind von einigen Pflichten des AI Act befreit (insbesondere bei den GPAI-Pflichten), aber die Transparenzpflichten nach Article 50 gelten auch für sie — insbesondere die Kennzeichnung von KI-generierten Inhalten und die Offenlegung von Deepfakes.

Was ist der Unterschied zwischen Article 50 und der DSGVO?

Die DSGVO schützt personenbezogene Daten, Article 50 regelt Transparenz bei KI-Systemen. Beide können gleichzeitig gelten: Wenn ein KI-System personenbezogene Daten verarbeitet, musst du sowohl DSGVO als auch AI Act einhalten. Article 50 geht über Datenschutz hinaus und fordert Kennzeichnung auch bei nicht-personenbezogenen Inhalten.

Quellen

[1] Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Verordnung / AI Act), Amtsblatt der Europäischen Union, L 2024/1689.

[2] EU AI Act, Kapitel IV — Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme, Artikel 50.

[3] EU AI Act, Artikel 50 Absatz 1 — Pflichten bei KI-Systemen, die direkt mit natürlichen Personen interagieren.

[4] C2PA (Coalition for Content Provenance and Authenticity), Technical Specification 2.1, c2pa.org, 2025.

[5] EU AI Act, Artikel 50 Absatz 4 — Offenlegungspflichten bei Deepfakes und synthetischen Medien.

[6] EU AI Act, Artikel 113 — Inkrafttreten und Geltung, stufenweiser Zeitplan 2024–2027.

[7] EU AI Act, Artikel 99 — Geldbußen, dreistufiges System (35 Mio. / 15 Mio. / 7,5 Mio. EUR).

[8] EU AI Act, Artikel 70 — Benennung nationaler zuständiger Behörden durch die Mitgliedstaaten.

[9] EU AI Act, Erwägungsgrund 10 — Verhältnis zu bestehendem EU-Recht, insbesondere DSGVO.

[10] NeuralFlow (@neuralflow/ai-act) — npm-Package für AI-Act-konforme KI-Kennzeichnung, npmjs.com/package/@neuralflow/ai-act.

ÜBER DEN AUTOR

Olaf Mergili

Olaf Mergili

Gründer von mylurch.com · IT-Unternehmer seit 2003

Olaf Mergili beschäftigt sich seit über 20 Jahren mit IT-Infrastruktur und Automatisierung. Als Gründer der OMTEC und Betreiber mehrerer B2B-Plattformen testet er KI-Tools im praktischen Unternehmenseinsatz — nicht in der Theorie. Seine Artikel basieren auf echten Workflows und messbaren Ergebnissen.

Nach oben scrollen