Transparenz-Pflichten nach Art. 50 EU AI Act: Chatbots, Deepfakes, generierte Inhalte
TL;DR
- Art. 50 ab 02.08.2026 in Kraft (vom Digital-Omnibus-Vorschlag 19.11.2025 NICHT betroffen)
- Chatbot-Markierung: "Sie chatten mit einer KI" — beim Konversationsstart
- Deepfake-Kennzeichnung: realistische künstlich erzeugte Personen/Szenen klar markieren
- Watermarking: Art. 50 Abs. 2 — synthetische Inhalte technisch erkennbar machen (C2PA-Standard dominiert)
- Bußgeldrisiko: bis 15 Mio. EUR / 3% Weltumsatz
1. Was Art. 50 verlangt
Art. 50 EU AI Act regelt Transparenz-Pflichten für vier Kategorien von KI-Inhalten:
| Abs. | Was | Pflicht |
|---|---|---|
| 1 | KI für Interaktion mit Menschen (Chatbots, Voice-Bots) | Information bei Beginn |
| 2 | Synthetisch erzeugte Inhalte (Bilder, Videos, Audio, Text) | Maschinenlesbares Watermarking |
| 3 | Emotionserkennungs-/Biometrische-Klassifizierungs-KI | Information der betroffenen Person |
| 4 | Deepfakes | Klare Kennzeichnung als künstlich |
2. Chatbot-Markierung (Abs. 1)
Mindestanforderung: "Sie sprechen mit einer KI / einem Bot. Wir nutzen KI, um schnellere Antworten zu liefern."
Position: erste Nachricht des Bots, sichtbar im UI.
Ausnahme (Art. 50 Abs. 1): Wenn aus dem Kontext "offensichtlich" — z.B. erkennbar synthetisch klingende Stimme. ABER: in Praxis sicherer mit explizitem Hinweis.
3. Deepfake-Kennzeichnung (Abs. 4)
Deepfake = künstlich erzeugter oder manipulierter Inhalt, der einer realen Person/Sache/Ereignis täuschend ähnlich ist.
Pflichten:
- Sichtbarer Hinweis "Mit KI erstellt" oder ähnlich
- Position: am/im Inhalt, nicht versteckt
- Bei Video: Hinweis am Anfang oder Wasserzeichen
- Bei Bild: visuelle Markierung oder Caption
Ausnahme künstlerisch/satirisch: diskrete, aber erkennbare Kennzeichnung.
4. Watermarking nach Art. 50 Abs. 2
Synthetische Audio/Video/Bild/Text-Inhalte müssen maschinenlesbar als künstlich gekennzeichnet sein. Standards 2026:
| Standard | Träger | Verbreitung |
|---|---|---|
| C2PA Content Credentials | Adobe, Microsoft, Sony, BBC | dominant 2026, Open-Standard |
| SynthID | Google DeepMind | Google-Tools (Imagen, Veo) |
| OpenAI DALL-E Watermark | OpenAI | nur OpenAI-Tools |
| Stable Signature | Meta | für Stable-Diffusion-Forks |
5. Ausnahmen + Härte-Klausel
- Strafverfolgung: Befugnisse von LEAs nicht beeinträchtigen
- Rechtmäßige Datenverarbeitung im Rechtssinne: ausgenommen
- Künstlerische Freiheit: diskret, aber nicht weglassbar (Art. 50 Abs. 4)
- "Aus dem Kontext offensichtlich": Ausnahme von Markierungs-Pflicht (Abs. 1) — vorsichtig anwenden
6. Praxis-Checkliste
- Alle Chatbots im Unternehmen identifiziert
- Chatbot-Begrüßung mit KI-Hinweis versehen
- Marketing-Materialien geprüft auf AI-generierte Bilder/Videos
- Watermarking-Pipeline für alle KI-Image-Erstellungs-Tools
- Deepfake-Verbot in Acceptable Use Policy
- HR-Tools mit Emotion-Detection (Video-Interview-Software) gekennzeichnet?
- Customer-Support-Voice-Bot mit Bot-Hinweis?
- Aufsichts-konforme Beschwerde-Adresse für AI-Inhalte etabliert?
Häufig gestellte Fragen
Müssen wir unseren Chatbot kennzeichnen?
Müssen Marketing-Bilder mit AI-Generation gekennzeichnet werden?
Was muss in der Markierung stehen?
Welche Watermarking-Standards gibt es?
Ausnahme bei künstlerischer Freiheit?
Bußgeld bei Verstoß?
Quellen
- Verordnung (EU) 2024/1689 (KI-VO) — Art. 50, Art. 99 (EUR-Lex DE) (Stand: 02.05.2026)
- AI Act Art. 99 — Bußgeld-Tier (Service Desk)
- EU AI Office (Kommission)
- EU-Kommission — Digital-Omnibus-Vorschlag (Stand: 02.05.2026; Art. 50-Stichtag 02.08.2026 unverändert)