Zu echt um wahr zu sein - Teil 2: Wie sieht die rechtliche Situation aus?

Zur Event Anmeldung
Download PDF

Nachdem wir im ersten Teil die technischen Unterschiede zwischen harmlosen KI-Bildern und manipulativen Deepfakes geklärt haben, widmen wir uns nun der rechtlichen Dimension. Denn ab August 2026 ändert sich für Unternehmen fundamental, wie sie mit bestimmten KI-generierten Inhalten umgehen müssen. Ein wichtiges Thema dabei ist die bevorstehende “Kennzeichnungspflicht”.

Warum Sie diesen Artikel lesen sollten: Die EU-KI-Verordnung bringt konkrete Pflichten mit sich – aber längst nicht für alle KI-Inhalte. Wer die Unterschiede kennt, vermeidet unnötige Compliance-Kosten und rechtliche Risiken.

Die wichtige Klarstellung: Nicht alle KI-Bilder sind kennzeichnungspflichtig

Hier herrscht viel Verwirrung: Eine Kennzeichnungspflicht durch Betreiber (nicht die Anbieter wie OpenAI - da gelten andere Regeln) besteht nicht für alle KI-generierten Bilder, sondern nur für sogenannte Deepfakes. Normale KI-generierte Bilder, die keine täuschende Ähnlichkeit zu realen Personen, Ereignissen oder Orten aufweisen, unterliegen keiner expliziten gesetzlichen Kennzeichnungspflicht.

Was bedeutet das konkret?

Kennzeichnungspflichtig ab August 2026:

  • Deepfakes von realen Personen
  • KI-manipulierte Videos echter Ereignisse
  • Audio-Deepfakes mit imitierten Stimmen
  • Bilder, die reale Orte täuschend echt nachahmen
Beispiel eines deepfake: reelle Person in nicht wirklich stattgefundenem Ereignis.

Beispiel eines deepfake: reelle Person in nicht wirklich stattgefundenem Ereignis.

Grauzone - Kennzeichnung ggf erforderlich:

  • KI-erstellte Umgebungen um Produkte
  • Realistische Darstellungen: Personen, Orte, Ereignisse die echt wirken
  • Architekturvisualisierungen
Beispiel einer Grauzone: Realistische Darstellung einer Szene, die aber surreal wirkt und nicht direkt eine wirklich Person, Umgebung oder ein Ereignis abbildet.

Beispiel einer Grauzone: Realistische Darstellung einer Szene, die aber surreal wirkt und nicht direkt eine wirklich Person, Umgebung oder ein Ereignis abbildet.

NICHT kennzeichnungspflichtig:

  • Fantasy-Portraits fiktiver Personen
  • Abstrakte KI-Kunst
  • Produktvisualisierungen ohne Realitätsbezug
  • Kreative Grafiken und Illustrationen
KĂĽnstlerisches Rendering, ohne Kennzeichnungspflicht da offensichtlich nicht real.

KĂĽnstlerisches Rendering, ohne Kennzeichnungspflicht da offensichtlich nicht real.

Die EU-KI-Verordnung: Was wirklich gilt

Die Kennzeichnungspflicht für Deepfakes wird ab dem 2. August 2026 verbindlich – nicht 2025, wie oft fälschlicherweise berichtet.

Definition Deepfake laut EU-KI-Verordnung

Ein Deepfake ist ein KI-generierter oder -manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten oder Ereignissen  ähnelt und einer Person fälschlicherweise als echt oder wahr erscheinen würde.

Entscheidend sind drei Kriterien:

  1. KI-Erzeugung oder -Manipulation
  2. Merkliche Ähnlichkeit zu realen Vorbildern
  3. Täuschungspotenzial – könnte als echt wahrgenommen werden

Ausnahmefälle: Wann die Pflicht entfällt

Die Kennzeichnungspflicht gilt nicht:

1. Privater Gebrauch

Deepfakes fĂĽr den rein privaten Gebrauch sind von der Kennzeichnungspflicht ausgenommen.

2. Sonderregelungen fĂĽr Texte

Für KI-generierte Texte gelten andere Regeln: Eine Kennzeichnungspflicht besteht nur, wenn sie veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren.

3. Redaktionelle Ăśberarbeitung

Bei redaktionell ĂĽberarbeiteten Inhalten, fĂĽr die eine natĂĽrliche oder juristische Person die Verantwortung ĂĽbernimmt, kann die Pflicht entfallen.

Praktisch bedeutet das: Wenn ein Journalist einen KI-generierten Text überarbeitet und dafür die volle Verantwortung übernimmt, muss dieser nicht als KI-generiert gekennzeichnet werden.

Aktuelle Rechtslage: Was schon heute gilt

Auch ohne EU-KI-Verordnung bestehen rechtliche Risiken:

IrrefĂĽhrung und Wettbewerbsrecht

Wer seinen Namen unter ein KI-generiertes Werk setzt, vermittelt damit, dass dieses urheberrechtlich geschützt ist. Ist dies nicht der Fall, liegt eine wettbewerbswidrige Irreführung vor – abmahnfähig nach § 5 UWG.

Persönlichkeitsrechte

Deepfakes realer Personen ohne deren Einwilligung verletzen bereits heute Persönlichkeitsrechte und können zivilrechtliche Ansprüche auslösen.

Strafrecht

Bei gezielter Täuschung oder Rufschädigung durch Deepfakes können strafrechtliche Tatbestände wie Betrug oder Verleumdung erfüllt sein.

BuĂźgelder und Sanktionen

Die EU meint es ernst – aber vor allem bei Deepfakes: Verstöße gegen die Kennzeichnungspflicht für Deepfakes können erhebliche Bußgelder nach sich ziehen. Die genauen Sanktionen werden noch konkretisiert.

Risikofaktoren fĂĽr hohe BuĂźgelder:

  • Systematische Verstöße bei der Deepfake-Kennzeichnung
  • Bewusste Täuschungsabsicht bei der Verbreitung
  • Fehlende Compliance-Strukturen fĂĽr Deepfake-Erkennung
  • Wiederholte Verstöße nach Abmahnungen

Ausblick: Was kommt nach 2026?

Die Regulierung wird sich weiterentwickeln: Experten erwarten eine Verschärfung der Deepfake-Regulierung, während harmlose KI-Kunst weiterhin frei bleiben dürfte.

Trends:

  • Verfeinerte Deepfake-Definitionen
  • Internationale Harmonisierung der Standards
  • Branchenspezifische Sonderregelungen
  • Technische Standards fĂĽr automatische Erkennung

Zusammenfassung und nächste Schritte

Im dritten und letzten Teil unserer Miniserie zeigen wir konkret auf, wie Unternehmen die rechtlichen Anforderungen praktisch umsetzen können. Von der Deepfake-Erkennung bis zur Implementierung von Kennzeichnungssystemen – wir liefern den Fahrplan für compliant KI-Nutzung.

Die wichtigste Botschaft: Nicht jeder KI-Inhalt muss gekennzeichnet werden – aber bei Deepfakes wird es ab 2026 ernst. Wer jetzt die Unterschiede lernt, spart später Zeit und Geld.

Bei diesem Artikel hatte ich digitale UnterstĂĽtzung: KI hat beim Research und beim Formulieren geholfen, die Endredaktion und inhaltliche Verantwortung liegen bei mir als Autor.

Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Kai Hermsen
Digital Governance Experte

Kai, Digital Governance Experte & Co-Founder von DECAID.secure, revolutioniert die sichere KI-Implementierung für Unternehmen. Sein Weg führte von Führungspositionen im Konzern bis zum erfolgreichen Unternehmertum, darunter die Leitung der Charter of Trust bei Siemens und die Förderung digitaler Transformation bei Identity Valley. Als einer der führenden Köpfe im Bereich Digital Trust entwickelt er mit der twinds foundation zukunftsweisende Vertrauenslösungen. Seine Expertise bringt er aktiv im World Economic Forum und Munich Security Network ein.

Mehr von diesem Autor:
Die Ausnahme von der Regel (3/3 der Serie “Reflektionen zu Regeln”)
Perception is Reality: Warum Wahrnehmung bei der KI-Adoption (meist) entscheidender ist als Fakten
Den EU AI Act umsetzen (fĂĽr Dummys 3/3)
DECAID veröffentlicht eigene KI-Richtlinie