Deepfake bezeichnet KI-generierte oder -manipulierte Medieninhalte, bei denen Gesichter, Stimmen oder ganze Videosequenzen täuschend echt gefälscht werden.

Rubrik: GenAI & Content Creation · Unterrubrik: KI-Ethik & Recht · Niveau: Einsteiger Synonyme / Auch bekannt als: Deep Fake, Face Swap, Synthetic Media, KI-Fälschung, manipuliertes Video

Was ist ein Deepfake?

Der Begriff „Deepfake" setzt sich aus „Deep Learning" (einer Methode des maschinellen Lernens) und „Fake" (Fälschung) zusammen und entstand um 2017 in Online-Foren. Deepfakes sind Medieninhalte – Bilder, Videos oder Audioaufnahmen –, bei denen KI-Technologie eingesetzt wurde, um eine Person täuschend echt darzustellen, die etwas tut oder sagt, was nie stattgefunden hat. Mit zunehmender Leistungsfähigkeit generativer KI sind Deepfakes für ein breites Publikum einfach herzustellen und schwer zu erkennen.

Erklärung

Technik hinter Deepfakes

Deepfakes entstehen durch verschiedene KI-Techniken:

Face Swap: Das Gesicht einer Person A wird auf den Körper oder in das Video einer Person B eingebettet. Frühere Methoden nutzten Generative Adversarial Networks (GANs), bei denen zwei neuronale Netze – ein Generator und ein Diskriminator – gegeneinander trainiert werden, bis der Generator täuschend echte Bilder produziert. Moderne Methoden nutzen Diffusionsmodelle und spezialisierte Modelle wie FaceSwap, DeepFaceLab oder kommerzielle Dienste.

Voice Cloning: Aus wenigen Minuten Sprachaufnahmen einer Person kann ein KI-System (z. B. ElevenLabs, Microsoft VALL-E) eine Stimme klonen und beliebige Texte in dieser Stimme ausgeben. Das Ergebnis ist von der Originalstimme kaum zu unterscheiden.

Full Video Synthesis: Moderne Text-to-Video-Modelle (Sora, Runway Gen-3) können vollständige, realistische Videosequenzen mit fiktiven oder echten Personen generieren, ohne dass Ausgangsmaterial der dargestellten Person benötigt wird. Das ist die gefährlichste Entwicklungsstufe.

Lip Sync: Bestehende Videos werden so manipuliert, dass die Mundbewegungen einer Person zu einem neuen, erfundenen Sprachinhalt passen.

Positive Anwendungen

Deepfakes und synthetische Mediattechniken haben legitime, wertvolle Anwendungsgebiete:

  • Film und VFX: Alterung oder Verjüngung von Schauspieler:innen (z. B. „The Irishman"), digitale Doubles für gefährliche Stunts, Rekonstruktion verstorbener Darsteller:innen (nach vorheriger Einwilligung oder mit Rechtsnachfolgern).
  • Barrierefreiheit: KI-generierte Übersetzungs-Videos mit Lip Sync ermöglichen es, Bildungsinhalte in viele Sprachen zu übertragen, als sprächen die Lehrenden nativ.
  • Historische Rekonstruktion: Dokumentarfilmer nutzen synthetische Medien, um historische Persönlichkeiten in Bildungskontexten zum Leben zu erwecken.
  • Gaming und Unterhaltung: Personalisierte Spielerlebnisse, bei denen der Avatar dem Spieler ähnelt.
  • Marketing und Werbung: KI-generierte Avatare für Produktpräsentationen, ohne teure Schauspieler:innen zu engagieren.

Negative Anwendungen

Die missbräuchlichen Einsatzmöglichkeiten sind erheblich und gesellschaftlich brisant:

Desinformation und politische Manipulation: Deepfake-Videos von Politiker:innen können Aussagen fabrizieren, die nie gemacht wurden, und damit Wahlen beeinflussen oder Vertrauen in demokratische Prozesse untergraben. Das Verification-Center von Reuters und anderen Nachrichtenagenturen bekämpft solche Fälschungen aktiv.

Non-consensual intimate images (NCII): Der weitaus häufigste Missbrauch von Deepfake-Technologie ist die Erstellung sexualisierter Bilder und Videos ohne Einwilligung der abgebildeten Person. Diese betrifft überproportional häufig Frauen und Mädchen und richtet erheblichen psychischen Schaden an.

Betrug und Erpressung: Deepfake-Anrufe, bei denen Stimmen von Vorgesetzten oder Angehörigen imitiert werden (sog. CEO-Fraud oder Voice-Phishing), verursachen erhebliche finanzielle Schäden.

Erkennung von Deepfakes

Die Erkennung von Deepfakes wird mit zunehmender Qualität der Generierungsmodelle schwieriger. Aktuelle Erkennungstechniken umfassen:

  • KI-basierte Detektoren: Tools wie Intel FakeCatcher, Microsoft Video Authenticator oder Sensity AI analysieren Videomaterial auf Artefakte.
  • Visuelle Merkmale: Inkonsistente Beleuchtung, unnatürliche Augenreflexionen, unscharfe Haare/Zähne, fehlende Hautvenen.
  • Biologische Signale: Analyse der Hautfarbe-Variationen, die Herzschlag-Signale widerspiegeln (rPPG-Methode) – bei Deepfakes oft inkonsistent.
  • Metadaten und Provenienz: Fehlende oder manipulierte Kamera-Metadaten (EXIF-Daten) sind ein Indiz.

Rechtliche Lage in Deutschland

In Deutschland schützt § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen) vor unbefugter Verbreitung von Bildaufnahmen, die die Intimsphäre verletzen. Deep-fakebasierte NCII können darunter fallen. Seit der Reform 2021 ist auch das Verbreiten von Fotos/Videos, die eine andere Person in einer Weise zeigen, die geeignet ist, deren Ansehen erheblich zu schädigen, strafbar – wenn dies ohne Einwilligung geschieht.

Für Deepfakes in der politischen Kommunikation greift der EU AI Act (2024): Synthetische Medien, die reale Personen zeigen, müssen als solche gekennzeichnet werden. Wahlbeeinflussung durch Deepfakes ist in der EU eine Hochrisiko-KI-Anwendung.

Gesellschaftliche Auswirkungen und Medienkompetenz

Deepfakes stellen eine ernsthafte Bedrohung für die Informationsökologie dar: Je einfacher und billiger sie zu produzieren sind, desto schwieriger wird es, echten Medieninhalten zu vertrauen. Das paradoxerweise kann auch dazu führen, dass echte Videos als gefälscht abgetan werden (Liar's Dividend). Medienkompetenz – die Fähigkeit, Quellen kritisch zu bewerten, Manipulationen zu erkennen und bei Unsicherheit seriöse Verifikationstools zu nutzen – ist ein zentrales Bildungsziel des 21. Jahrhunderts.

Beispiele

  1. Positiv – Film-VFX: In „Rogue One: A Star Wars Story" (2016) wurde das Gesicht der verstorbenen Schauspielerin Carrie Fisher per CGI und Deepfake-Technik für kurze Szenen rekonstruiert – mit Genehmigung ihrer Nachlass-Verwalter.
  2. Negativ – Politische Manipulation: Im Vorfeld mehrerer Wahlen (u. a. Moldawien 2023) kursierten Deepfake-Videos von Politiker:innen mit gefälschten Aussagen in sozialen Netzwerken, die von Faktencheckern mit erheblichem Aufwand widerlegt werden mussten.
  3. Negativ – CEO-Fraud: Ein Mitarbeiter eines Hongkonger Unternehmens überwies 2024 umgerechnet 25 Millionen US-Dollar, nachdem er in einem Videokonferenz-Deepfake mit dem CFO seines Unternehmens zu „sprechen" glaubte.

In der Praxis

Für die Medienbranche gilt: Inhalte von unbekannten Quellen, die eine bekannte Person in einer brisanten Situation zeigen, grundsätzlich mit Deepfake-Erkennungstools überprüfen (z. B. Microsoft Video Authenticator, Sensity.ai). Vor der Veröffentlichung solcher Inhalte: Quellenprovenienz prüfen, ggf. Original-Material verifizieren. Content Credentials (C2PA) nutzen, um eigene authentische Inhalte zu schützen.

Vergleich & Abgrenzung

Deepfakes unterscheiden sich von Bildmanipulation (Photoshop-Retusche) durch den Einsatz von KI und die Zielsetzung, eine Person täuschend echt darzustellen. Sie unterscheiden sich von Satire durch den Täuschungscharakter – offensichtlich satirische Darstellungen sind grundsätzlich geschützt, wenn sie als solche erkennbar sind.

Häufige Fragen (FAQ)

Sind alle Deepfakes illegal? Nein. Deepfake-Techniken sind nicht per se illegal und haben legitime Anwendungsgebiete (Film, Kunst, Satire). Illegal wird es, wenn Deepfakes zur Täuschung, Erpressung, Verleumdung oder Erstellung von nicht-einvernehmlichen intimen Inhalten eingesetzt werden. Die rechtliche Lage unterscheidet sich je nach Land und konkrete Verwendung.

Kann ich meine eigene Stimme oder mein Gesicht vor Deepfakes schützen? Technisch ist das schwierig, da KI-Systeme aus öffentlich verfügbaren Fotos und Videos trainiert werden können. Präventiv helfen: weniger öffentliche Medien mit dem eigenen Gesicht; Privacy-Einstellungen in sozialen Netzwerken. Rechtlich hilft die Durchsetzung des Persönlichkeitsrechts und die Meldung von NCII bei Plattformen, die verpflichtet sind, solche Inhalte zu entfernen.

Verwandte Einträge

Weiterführend

  • Westerlund, M. (2019): The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review, 9(11)
  • Bundesamt für Sicherheit in der Informationstechnik (2023): Deepfakes – Gefahren und Schutzmaßnahmen. bsi.bund.de
  • Rössler, A. et al. (2019): FaceForensics++: Learning to Detect Manipulated Facial Images. ICCV 2019
Verwandte Einträge
KI-UrheberrechtEU AI ActKI-Ethik
← Zurück zu GenAI & Content Creation
Infotag · 13. Mai · 15:00 Uhr · Vor Ort

Sei am Mittwoch dabei.
Bring Eltern oder Freunde mit.

Ein halber Nachmittag, der dir drei Jahre Klarheit bringen kann. Kostenlos, unverbindlich, ehrlich.

  • Rundgang durch Studios, Schnitträume und Tonstudio
  • Echte Absolventenfilme sehen
  • 1:1-Beratung zu Bewerbung & BAföG
  • Studierende direkt fragen
  • Kaffee, Snacks, kein Sales-Pitch
  • Auch online möglich

Platz beim Infotag reservieren

Dauert 30 Sekunden. Bestätigung per E-Mail.
100 % kostenlos · keine Verpflichtung · jederzeit absagbar