Zu echt um wahr zu sein - Teil 1: Ist jedes KI-generierte Bild automatisch ein Deepfake?

Zur Event Anmeldung
Download PDF

Die Grenzen zwischen Realität und künstlicher Erzeugung verschwimmen zusehends. Während KI-Tools wie Midjourney, DALL-E oder Stable Diffusion täglich Millionen von Bildern generieren, stellt sich eine fundamentale Frage: Was ist noch echt, und was schon Täuschung? Die Antwort ist komplexer, als sie zunächst erscheint - und für Unternehmen wie Kreativagenturen, die KI verantwortungsvoll einsetzen, von entscheidender Bedeutung.

Warum die Unterscheidung von harmlosem KI-Bild zu Deepfake fĂĽr euer Unternehmen ĂĽberlebenswichtig ist

Die Fähigkeit, harmlose KI-Bilder von manipulativen Deepfakes zu unterscheiden, ist mehr als nur technisches Know-how – es ist Risikomanagement. Deepfakes können für Betrug, Desinformation, Identitätsdiebstahl oder Rufschädigung genutzt werden und in sozialen Medien viral gehen mit erheblichem Schadenspotenzial.

Vertrauensschutz als Geschäftsmodell: In einer Welt, in der digitale Medien zunehmend manipuliert werden können, ist es essenziell, echte von gefälschten Inhalten unterscheiden zu können, um Vertrauen in Medien, Politik und Gesellschaft zu erhalten. Unternehmen, die diese Kompetenz beherrschen, werden zu vertrauenswürdigen Partnern in einer skeptischen Welt.

Rechtliche Verantwortung: Die Verbreitung manipulativer Deepfakes kann Persönlichkeitsrechte verletzen und strafrechtliche Konsequenzen nach sich ziehen. Insbesondere mit dem EU AI Act gelten dann ab 2026 auch strengere Regeln zur Identifikation und Kennzeichnung. Unternehmen müssen sicherstellen, dass ihre KI-gestützten Werke nicht unbeabsichtigt als Deepfake missverstanden werden – oder umgekehrt, dass echte Deepfakes nicht unerkannt bleiben.

Schlecht gemacht. Aber trotzdem noch ein Deepfake?

Was macht ein Bild zum Deepfake?

Deepfakes sind mehr als nur KI-generierte Inhalte. Laut dem EU AI Act handelt es sich um „durch KI erzeugte oder manipulierte Bild-, Audio- oder Videoinhalte, die realen Personen, Objekten oder Ereignissen ähneln und einer Person fälschlicherweise als echt erscheinen würden". Der entscheidende Punkt: Es geht um die täuschende Ähnlichkeit mit der Realität, nicht um die bloße KI-Erzeugung.

Ein mit Midjourney erstelltes Fantasy-Portrait einer völlig fiktiven Person ist technisch gesehen kein Deepfake - es imitiert keine reale Person oder Situation. Anders verhält es sich, wenn KI gezielt das Gesicht einer bekannten Persönlichkeit in einen neuen Kontext setzt oder reale Ereignisse vortäuscht.

Die technische Realität: Warum Deepfakes so überzeugend sind

Generative Adversarial Networks (GANs) haben die Qualität KI-generierter Inhalte revolutioniert. Diese Systeme funktionieren nach einem simplen, aber wirkungsvollen Prinzip: Ein Generator erstellt Inhalte, während ein Diskriminator diese auf Echtheit prüft. Durch diese kontinuierliche Konkurrenz entstehen immer überzeugende Ergebnisse.

Moderne Deepfakes sind deshalb so gefährlich, weil sie:

  • Feinste physiologische Details wie realistische Herzschläge nachbilden können
  • Umfangreiche Trainingsdaten nutzen, um Stimmmuster und Mimik präzise zu imitieren
  • Durch automatische Optimierung stetig verbessert werden
  • Mittlerweile auch fĂĽr Laien mit entsprechenden Apps zugänglich sind

‍

Eins der bekanntesten Deepfakes - zwar nicht mit bösartiger Absicht veröffentlicht, aber trotzdem viral gegangen und mit Täuschungspotenzial

Harmlose KI-Kunst vs. manipulative Deepfakes

Die Unterscheidung liegt im Zweck und Realitätsbezug:

Harmlose KI-BilderManipulative DeepfakesFiktive Inhalte ohne RealitätsbezugImitieren reale Personen/EreignisseKreative/künstlerische AbsichtTäuschungs- oder ManipulationsabsichtOft als KI-Kunst gekennzeichnetSollen möglichst echt wirkenGeringes SchadenspotenzialHohes Risiko für Rufschädigung/Desinformation

Erkennungsmerkmale: So entlarven Sie Deepfakes

Trotz technischer Fortschritte gibt es noch immer verräterische Anzeichen:

Visuelle Unstimmigkeiten

  • UnnatĂĽrliche Handhaltungen: Verzerrte Finger, zu viele oder zu wenige Finger
  • Fehlerhafte Reflexionen: Lichtreflexionen in den Augen stimmen oft nicht ĂĽberein
  • Zu perfekte Symmetrie: Gesichter wirken unnatĂĽrlich makellos
  • Inkonsistente Schatten und Beleuchtung

Technische Hilfsmittel

  • AI-Detektoren wie "AI or Not" oder "Hive Moderation" analysieren Wahrscheinlichkeiten
  • Starkes Heranzoomen enthĂĽllt oft Unregelmäßigkeiten in Texturen
  • Metadaten-Analyse kann Hinweise auf Bearbeitungssoftware geben

Ethik und Verantwortung

Die kreative Nutzung von KI sollte verantwortungsvoll erfolgen, um die Verbreitung von Desinformation und Vertrauensverlust in digitale Medien zu verhindern. Klare Kennzeichnung und verantwortungsvoller Umgang sind entscheidend. Dabei geht es nicht nur um Compliance, sondern um gesellschaftliche Verantwortung.

Beispiel von DECAID - unsere ethischen Leitplanken in der Praxis: Transparenz steht vor Perfektion – wir kennzeichnen lieber ehrlich als perfekt zu täuschen. Wir nutzen KI niemals in einer Weise, die anderen schadet. Persönlichkeitsrechte respektieren wir durch Einverständnis vor jeder Darstellung. Und wir sehen uns in der gesellschaftlichen Verantwortung, zum Vertrauen in digitale Medien beizutragen.

Fazit: Nicht alles ist ein Deepfake

Die Antwort auf die Eingangsfrage ist ein klares Nein: Nicht jedes KI-generierte Bild ist automatisch ein Deepfake. Entscheidend sind der Realitätsbezug, die Täuschungsabsicht und der Kontext der Verwendung.

Dennoch erfordern die rasanten Entwicklungen in der KI-Technologie erhöhte Wachsamkeit. Die Zahl der Deepfake-Vorfälle hat sich 2025 bereits vervielfacht, und die Qualität wird stetig besser.

Im nächsten Teil unserer Serie schauen wir uns die rechtlichen Rahmenbedingungen an, die ab 2026 für alle KI-nutzenden Unternehmen gelten werden.

Bei diesem Artikel hatte ich digitale UnterstĂĽtzung: KI hat beim Research und beim Formulieren geholfen, die Endredaktion und inhaltliche Verantwortung liegen bei mir als Autor.

‍

Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Kai Hermsen
Digital Governance Experte

Kai, Digital Governance Experte & Co-Founder von DECAID.secure, revolutioniert die sichere KI-Implementierung für Unternehmen. Sein Weg führte von Führungspositionen im Konzern bis zum erfolgreichen Unternehmertum, darunter die Leitung der Charter of Trust bei Siemens und die Förderung digitaler Transformation bei Identity Valley. Als einer der führenden Köpfe im Bereich Digital Trust entwickelt er mit der twinds foundation zukunftsweisende Vertrauenslösungen. Seine Expertise bringt er aktiv im World Economic Forum und Munich Security Network ein.

Mehr von diesem Autor:
Die Ausnahme von der Regel (3/3 der Serie “Reflektionen zu Regeln”)
Perception is Reality: Warum Wahrnehmung bei der KI-Adoption (meist) entscheidender ist als Fakten
Den EU AI Act umsetzen (fĂĽr Dummys 3/3)
DECAID veröffentlicht eigene KI-Richtlinie