AI Act & Open Source: Welche Regeln gelten für freie KI-Modelle? [2026]

Aktualisiert: April 2026 · Lesezeit: 14 Minuten

Auf einen Blick: Der EU AI Act befreit Open-Source-KI-Komponenten von den meisten Pflichten — aber nicht von allen. Wer ein Open-Source-Modell veröffentlicht, muss trotzdem eine Copyright-Policy und ein Training Data Summary bereitstellen. Und für Modelle mit systemischem Risiko (>10²⁵ FLOPs) gelten keine Ausnahmen, egal ob Open Source oder nicht. Dieser Artikel erklärt, was Entwickler, Unternehmen und Modellanbieter wissen müssen.

Die Open-Source-Ausnahme im AI Act

Artikel 2(12) der Verordnung (EU) 2024/1689 stellt klar: Der AI Act gilt nicht für KI-Komponenten, die unter freien und Open-Source-Lizenzen bereitgestellt werden. Das ist die gute Nachricht für die Open-Source-Community [1].

Die schlechte Nachricht: Diese Befreiung hat drei wichtige Ausnahmen. Open-Source-KI ist nicht befreit, wenn sie:

  • Als Teil eines Hochrisiko-KI-Systems auf den Markt gebracht wird (Artikel 6)
  • Eine verbotene KI-Praktik umsetzt (Artikel 5)
  • Unter die Transparenzpflichten fällt — z.B. Deepfake-Generierung oder Chatbots (Article 50)

In der Praxis bedeutet das: Wer ein Open-Source-Modell baut und es frei veröffentlicht, hat weniger Pflichten als ein kommerzieller Anbieter. Aber „weniger“ heißt nicht „keine“ [1].

Was „Open Source“ laut AI Act bedeutet

Der AI Act definiert „frei und Open Source“ anders als die Open Source Initiative (OSI). Erwägungsgrund 102 legt fest: Software, Daten und Modelle gelten als Open Source, wenn sie unter einer Lizenz veröffentlicht werden, die freie Nutzung, Änderung, Weiterverteilung und Zugang erlaubt [2].

Für GPAI-Modelle verlangt Artikel 53(2) drei kumulative Bedingungen:

Bedingung Erklärung Beispiel
1. Open-Source-Lizenz Muss freie Nutzung, Änderung und Weiterverteilung erlauben ✓ Apache 2.0, MIT
✗ „Research Only“
2. Parameter öffentlich Gewichte, Architektur und Nutzungsinformationen zugänglich ✓ HuggingFace Repo
✗ Nur API-Zugang
3. Keine Monetarisierung Kein Verkauf, keine Bündelung mit Bezahldiensten ✓ Freier Download
✗ Paywall, Daten als Preis

Wichtig: Erwägungsgrund 103 stellt klar, dass die bloße Bereitstellung über Repositories wie GitHub oder HuggingFace nicht als Monetarisierung gilt — auch wenn die Plattform selbst kommerziell ist [2].

Lizenzen mit Namensnennung oder vergleichbaren Weitergabebedingungen qualifizieren sich ebenfalls. Der GPAI Code of Practice (Absatz 84) erlaubt zudem „kleine, proportionale Sicherheitseinschränkungen“ — etwa Verbote für Waffenentwicklung [3].

Welche Pflichten trotzdem gelten

Auch befreite Open-Source-GPAI-Anbieter müssen zwei der vier Hauptpflichten aus Artikel 53 erfüllen. Die Befreiung ist also kein Freifahrtschein [4].

Pflicht Artikel Kommerziell Open Source
Technische Dokumentation Art. 53(1)(a) Pflicht Befreit
Downstream-Information Art. 53(1)(b) Pflicht Befreit
Copyright-Policy Art. 53(1)(c) Pflicht Pflicht
Training Data Summary Art. 53(1)(d) Pflicht Pflicht

Copyright-Policy (Art. 53(1)(c))

Jeder GPAI-Anbieter — auch Open Source — muss eine Policy zur Einhaltung des EU-Urheberrechts erstellen. Das umfasst die Beachtung von robots.txt-Sperren, einen Beschwerdemechanismus und technische Schutzmaßnahmen für urheberrechtlich geschützte Inhalte [4].

Training Data Summary (Art. 53(1)(d))

Das Training Data Summary muss öffentlich verfügbar sein und dem Template des AI Office folgen. Es beschreibt die verwendeten Datenquellen, deren Verarbeitung und den Umgang mit urheberrechtlich geschützten Inhalten. HuggingFace stellt dafür bereits Templates bereit [4].

GPAI-Modelle: Wo die Ausnahme endet

GPAI-Modelle (General-Purpose AI) sind KI-Modelle, die für eine Vielzahl von Aufgaben trainiert wurden — wie GPT-4, Claude, Llama oder Mistral. Für sie gelten spezielle Regeln nach Artikel 53, die seit dem 2. August 2025 durchsetzbar sind [5].

Die Open-Source-Befreiung nach Artikel 53(2) gilt nur für die technische Dokumentation und die Downstream-Information. Die Copyright-Policy und das Training Data Summary bleiben Pflicht — für jeden Anbieter, egal welche Lizenz [4].

In der Praxis betrifft das vor allem:

  • Modellentwickler die Gewichte auf HuggingFace oder GitHub veröffentlichen
  • Forschungsinstitute die Modelle unter akademischen Lizenzen teilen
  • Startups die Open-Source-Modelle als Basis für kommerzielle Produkte nutzen

Systemisches Risiko: Keine Befreiung

Für GPAI-Modelle mit systemischem Risiko (GPAISR) gibt es keinerlei Open-Source-Ausnahmen. Egal ob Apache 2.0, MIT oder GPL — wer ein Modell mit systemischem Risiko veröffentlicht, unterliegt den vollen Pflichten [5].

Ein Modell gilt als GPAISR, wenn:

  • Die kumulative Rechenleistung für das Training 10²⁵ FLOPs überschreitet
  • Oder die Europäische Kommission es als solches einstuft

Stand 2026 überschreiten rund 25 Modelle weltweit diese Schwelle — darunter GPT-4o, Gemini 1.0 Ultra und Mistral Large 2 [5].

Zusätzliche Pflichten bei systemischem Risiko:

  • Adversarial Testing und Modellbewertung durchführen
  • Systemische Risiken bewerten und mindern
  • Schwerwiegende Vorfälle dem AI Office melden
  • Angemessenen Cybersecurity-Schutz gewährleisten

Die Strafen bei Verstößen sind empfindlich: Bis zu 15 Millionen Euro oder 3 % des Jahresumsatzes für Pflicht-Verstöße nach Artikel 53 [6].

Finetuning: Regeln für nachtrainierte Modelle

Wer ein bestehendes Open-Source-GPAI-Modell finetuned und damit als eigenständiger Anbieter auftritt, muss nicht die vollen Pflichten des Originalanbieters erfüllen. Die EU-Kommission hat in den GPAI-Guidelines (Juli 2025) klargestellt [7]:

  • Das Training Data Summary muss nur die zusätzlichen Trainingsdaten dokumentieren
  • Es genügt ein Verweis auf das Summary des Originalmodells
  • Die technische Dokumentation kann auf die bestehende Dokumentation aufbauen

Das macht Finetuning eines Open-Source-Modells deutlich einfacher als das Training eines Modells von Grund auf — auch regulatorisch.

Meta, Mistral, HuggingFace: Wer ist betroffen?

Meta (Llama)

Metas Llama-Modelle nennen sich „Open Source“ — aber die Open Source Initiative (OSI) widerspricht: Llamas Lizenz schränkt die Nutzungsfreiheit ein und enthält geografische Sperren für EU-Nutzer [8]. Ob Llama die AI-Act-Definition von Open Source erfüllt, ist umstritten.

Erschwerend kommt hinzu: Meta hat den GPAI Code of Practice im Juli 2025 nicht unterzeichnet. Joel Kaplan (Meta) bezeichnete ihn als „übergriffig“. Meta muss Compliance daher über alternative Nachweise belegen [9].

Mistral

Mistral, mit Sitz in Paris, hat den Code of Practice unterzeichnet und arbeitet direkt mit dem AI Office zusammen. Allerdings: Mistral Large 2 überschreitet die 10²⁵ FLOPs-Schwelle und gilt damit als GPAISR — keine Open-Source-Befreiung, trotz EU-Herkunft [5].

HuggingFace

HuggingFace ist primär Plattform, nicht Modellanbieter. Die Firma hat zusammen mit der Linux Foundation und Mozilla umfangreiche Compliance-Guides veröffentlicht und stellt praktische Tools bereit: einen interaktiven Compliance-Checker und Training-Data-Summary-Templates [10].

Timeline: Ab wann gilt was?

Datum Meilenstein Relevanz für Open Source
1. Aug. 2024 AI Act tritt in Kraft Vorbereitungsphase beginnt
2. Feb. 2025 Verbotene KI-Praktiken gelten Auch für OS-Modelle: keine verbotenen Anwendungen
2. Aug. 2025 GPAI-Pflichten gelten Copyright-Policy + Training Data Summary Pflicht
2. Aug. 2026 Durchsetzung + Bußgelder Strafen bei Verstößen durchsetzbar
2. Aug. 2027 Bestandsschutz endet Alle vor Aug. 2025 veröffentlichten Modelle müssen compliant sein

Für Open-Source-Anbieter ist der 2. August 2025 das entscheidende Datum: Ab dann müssen auch Open-Source-GPAI-Modelle eine Copyright-Policy und ein Training Data Summary vorweisen [5].

Checkliste für Open-Source-KI-Anbieter

Bist du als Anbieter eines Open-Source-KI-Modells vom AI Act betroffen? Diese Checkliste hilft bei der Einordnung:

Prüfung in 5 Schritten

  1. Lizenz prüfen: Erlaubt deine Lizenz freie Nutzung, Änderung und Weiterverteilung? (Apache 2.0, MIT = ✓)
  2. Parameter veröffentlicht? Sind Modellgewichte und Architektur öffentlich zugänglich?
  3. Monetarisierung? Wird das Modell gegen Bezahlung angeboten oder mit Bezahldiensten gebündelt?
  4. GPAI oder nicht? Ist das Modell für vielfältige Aufgaben trainiert? → Artikel 53 gilt
  5. FLOPs prüfen: Liegt der Trainingsaufwand über 10²⁵ FLOPs? → Keine Befreiung, volle Pflichten

Wenn dein Modell alle drei Bedingungen (1-3) erfüllt und unter der FLOPs-Schwelle liegt, bist du von der technischen Dokumentation und Downstream-Information befreit. Copyright-Policy und Training Data Summary musst du trotzdem erstellen [4].

Compliance automatisieren

Die Transparenzpflichten des AI Act lassen sich mit den richtigen Tools effizient umsetzen. Wer KI-generierte Inhalte auf einer Website einsetzt — ob mit Open-Source-Modellen oder kommerziellen APIs —, muss diese nach Article 50 kennzeichnen.

NeuralFlow ist ein npm-Package, das diese Kennzeichnung automatisiert: Es scannt Webseiten auf KI-generierte Inhalte und generiert die notwendigen Transparenz-Metadaten — unabhängig davon, welches Modell die Inhalte erzeugt hat [11].

Gerade für Open-Source-Anbieter, die von der technischen Dokumentation befreit sind, bleiben die Transparenzpflichten nach Article 50 bestehen. Ein automatisierter Scan hilft, nichts zu übersehen.

Häufige Fragen zu Open Source & AI Act

Gilt der AI Act auch für Open-Source-KI?

Teilweise. Artikel 2(12) befreit Open-Source-KI-Komponenten von den meisten Pflichten — aber nur wenn sie nicht in Hochrisiko-Systemen eingesetzt werden, keine verbotenen Praktiken umsetzen und nicht monetarisiert werden. Transparenzpflichten nach Article 50 gelten immer.

Was muss ein Open-Source-GPAI-Anbieter trotzdem tun?

Zwei Pflichten bleiben: eine Copyright-Policy nach EU-Urheberrecht erstellen (Art. 53(1)(c)) und ein öffentliches Training Data Summary bereitstellen (Art. 53(1)(d)). Technische Dokumentation und Downstream-Information entfallen.

Ist Meta Llama Open Source nach dem AI Act?

Das ist umstritten. Die Open Source Initiative (OSI) sagt nein — Llamas Lizenz schränkt Nutzungsfreiheit ein. Der AI Act verwendet zudem eine eigene Definition, die vollständigen Zugang zu Parametern und keine Monetarisierung verlangt. Meta hat den GPAI Code of Practice nicht unterzeichnet.

Ab wann gelten die GPAI-Regeln für Open-Source-Modelle?

Seit dem 2. August 2025 für neue Modelle. Modelle, die vor diesem Datum auf dem Markt waren, müssen bis zum 2. August 2027 compliant sein. Bußgelder sind ab August 2026 durchsetzbar.

Welche Open-Source-Lizenz erfüllt die AI-Act-Anforderungen?

Lizenzen wie Apache 2.0 oder MIT erfüllen die Anforderungen, da sie freie Nutzung, Änderung und Weiterverteilung erlauben. Research-Only- oder No-Commercial-Use-Lizenzen qualifizieren sich nicht. Kleine, proportionale Sicherheitseinschränkungen sind laut Code of Practice akzeptabel.

Was passiert mit feingetunten Open-Source-Modellen?

Wer ein GPAI-Modell feintuned und als Anbieter qualifiziert, muss nur die zusätzlichen Trainingsdaten dokumentieren und auf das Training Data Summary des Originalmodells verweisen. Die vollen Pflichten des Originalanbieters gelten nicht.

Quellen

[1] Artikel 2(12), Erwägungsgrund 102 — Verordnung (EU) 2024/1689 (EU AI Act). artificialintelligenceact.eu/article/2/

[2] Erwägungsgründe 102-103 — Verordnung (EU) 2024/1689. Definition „frei und Open Source“ im Kontext des AI Act.

[3] GPAI Code of Practice, Absatz 84 — Europäische Kommission, Juli 2025.

[4] Artikel 53 — Verordnung (EU) 2024/1689. Pflichten für Anbieter von GPAI-Modellen. artificialintelligenceact.eu/article/53/

[5] Europäische Kommission: Guidelines on the scope of obligations for GPAI model providers, 18. Juli 2025.

[6] Artikel 99 — Verordnung (EU) 2024/1689. Sanktionen und Bußgelder.

[7] Europäische Kommission: GPAI Guidelines — Klarstellung zu Finetuning und Downstream-Pflichten, Juli 2025.

[8] Open Source Initiative: „Meta’s LLaMa license is still not Open Source“, 2025. opensource.org

[9] Meta verweigert Unterzeichnung des GPAI Code of Practice, Juli 2025.

[10] HuggingFace: „What Open-Source Developers Need to Know about the EU AI Act’s Rules for GPAI Models“. huggingface.co

[11] NeuralFlow — AI Act Compliance Scanner. npmjs.com/@neuralflow/ai-act

Olaf Mergili

Geschäftsführer OMTEC Vertriebs GmbH und Prokurist inektra GmbH. Schreibt auf mylurch.com über KI-Tools, Automatisierung und den EU AI Act. Betreibt eigene KI-Agenten und das Open-Source-Projekt NeuralFlow.

Nach oben scrollen