Deepfakes

2910

Verfasst zusammen mit → Karla Herb

Wortherkunft: Der Begriff ‚Deepfake‘ setzt sich aus den Begriffen ‚Deep Learning‘ (engl. für eine Methode des maschinellen Lernens) und ‚Fake‘ (engl. für Fälschung) zusammen.

Definition und Technik:
Deepfakes sind technisch erzeugte oder manipulierte Medieninhalte, meist Personenabbildungen, die äußerst realistisch wirken, aber unecht sind. Das bedeutet zum Beispiel, dass eine abgebildete Person die gezeigten → Inhalte nie wirklich gesagt oder getan hat. Um die unechten Inhalte zu generieren, werden Originaldaten wie Bilder, Audios und Videos der zu analysierenden Person benötigt. Daraus ‚lernt‘ Software die charakteristischen Merkmale der zu fälschenden Person und ist im Anschluss im Stande, eine steuerbare, virtuelle Kopie der Person auszugeben. Die Technik wird dem Bereich der sogenannten → Künstlichen Intelligenz zugeordnet (Huijstee et al. 2021: 1).

Am häufigsten werden Deepfakes anhand eines sogenannten GAN (generative adversarial network) erstellt, das sich einer bestimmten Art von Deep Learning bedient (Farid/Schindler 2020: 17). GAN bestehen aus zwei Hauptkomponenten: einem Generator und einem Diskriminator. Der Generator kann anhand eingespeister Rohdaten errechnen, wie ein bestimmtes Abbild einer Person aus einem Blickwinkel aussieht. Während er künstlich neue Bild- oder Videoinhalte erstellt, gleicht der Diskriminator das Ergebnis mit den Originalen ab und versucht, die gefälschten von den echten Inhalten zu trennen. Die beiden → Algorithmen arbeiten gegeneinander und iterativ, sodass der Generator lernt, ein künstliches Bild zu produzieren, das den Diskriminator täuscht (Enquete-Kommission KI 2020: 451). GANs können außerdem erlernte Eigenschaften eines Originalbildes auf ein anderes übertragen. Eine Vorlage der unterschiedlichen Gesichtsausdrücke der auszutauschenden Person, z. B. bei Freude oder Erschrecken, benötigen sie dafür nicht. Das ermöglicht, dass das Bildnis eines Menschen das eines anderen in einem fremden Bild oder Video überschreibt (Hartmann 2020: 351).

Eine wichtige Rolle spielen daneben sogenannte Autoencoder. Autoencoder können Informationen über Gesichtsmerkmale aus Bildern extrahieren und diese Informationen nutzen, um Bilder mit einem anderen Ausdruck zu konstruieren (Huijstee et al. 2021: 2).

Es gibt verschiedene Arten von Deepfakes, die allein oder kombiniert erstellt werden können. Beim sogenannten ‚Face Swap‘ wird das Gesicht einer Person durch das einer anderen ersetzt. Eine Art Maske der zu fälschenden Person wird dann auf die Aufnahme der zweiten Person gelegt. Dasselbe ist technisch mit Stimmdaten möglich. Beim sogenannten ‚Voice Swap‘ werden Worte basierend auf einer Stimme synthetisiert. Unter ‚Lip Sync‘ versteht man das Anpassen der Mundbewegungen an eine Audioaufnahme. In diese Kategorie fällt ein bekanntes Deepfake des ehemaligen US-Präsidenten Barack Obama, dem ein Text von Jordan Peele untergeschoben wurde (Peele 2018). Bei der Variante ‚Puppetmaster‘ übertragt die KI die Bewegungen eines Schauspielers auf das Erscheinungsbild einer Zielperson (Agrawal et al. 2019: 38; Farid/Schindler 2020: 16; Thies et al. 2016: 2387).

Geschichte:
Der Begriff ‚Deepfake‘ kam zuerst Ende 2017 auf der Plattform Reddit auf. Dort hatte ein Nutzer unter dem Namen ‚deepfakes‘ Videos veröffentlicht, in denen Gesichter prominenter Frauen mittels KI-Technik in pornografische Videos übertragen wurden (Kuhlmann 2020). Manipuliert werden Bilder schon seit der Entwicklung der → Fotografie (Lossau 2020: 2), digitale Fotos spurlos mit Computerprogrammen zu bearbeiten, ist seit den 1990er Jahren möglich (Enquete-Kommission KI 2020: 450). Das Verfälschen von Videos war bisher allerdings professionellen Filmstudios vorbehalten (Lausen 1997: 86). Inzwischen sind der technische Aufwand, die erforderlichen Datenmengen und die Kosten zur Erstellung von manipulierten Inhalten allerdings stark gesunken. Mittlerweile ermöglicht es öffentlich zugängliche Software, Audioinhalte, statische Bilder oder Videos künstlich zu generieren (Farid/Schindler 2020: 15; Kuhlmann 2020). Der größte Anteil an Deepfakes war bislang dem pornografischen Sektor zuzuordnen. Im Jahr 2019 waren 96 Prozent der bekannt gewordenen Deepfakes pornografischen Inhalts (Enquete-Kommission KI 2020: 463; Lantwin 2020: 78).

Gegenwärtiger Zustand:
Deepfakes sind durchaus legal einsetzbar. So kommen sie in der Kunst, Werbung, Wissenschaft, Medizin und in Sicherheitsbehörden zur Anwendung (Lantwin 2019: 574; Hoche 2020: 240). Doch werden sie auch illegal und missbräuchlich verwendet: Dies reicht vom Diskreditieren oder Erpressen individueller Personen, Manipulationsversuchen in der Wirtschaft bis hin zu politischer Desinformation auf globaler Ebene (Thiel 2021: 203). Jüngstes Beispiel ist das Auftauchen gefälschter Videos der Staatschefs der Ukraine und Russlands im Rahmen des russischen Einmarsches in die Ukraine (Metzger/Schneider 2022).

Die bloße Möglichkeit, Deepfakes zu erstellen, hat das Potenzial, die Gesellschaft zu verunsichern. Je genauer die Gesellschaft ihr Potenzial kenne, desto gefährdeter sei das Vertrauen in Medien und in die politische Willensbildung, ist eine gängige Meinung in der aktuellen Forschung (Chesney/Citron 2019: 1785 f.; Linardatos 2021; Huijstee et al. 2021: 3). Eine Herausforderung für die Regulierung von Deepfakes liegt darin, ihren nützlichen Einsatz zu ermöglichen und transparent zu gestalten und zugleich den kriminellen Missbrauch wirksam zu sanktionieren (Lossau 2020: 6f.). Dabei können sich Ersteller:innen von Deepfakes durchaus auf Grundrechte berufen: die Kunst- und → Meinungsfreiheit. Demgegenüber stehen die Grundrechte der dargestellten Person, insbesondere das allgemeine Persönlichkeitsrecht, das → Recht am eigenen Bild und der eigenen Stimme und das Recht auf sexuelle Selbstbestimmung (Hoche 2020: 243; Lantwin 2019: 576). Schon die Herstellung von Deepfakes kann die genannten Rechte verletzen. Nach § 33 Kunsturhebergesetz (KUG) macht sich strafbar, wer Deepfakes ohne Einwilligung der abgebildeten Personen verbreitet oder öffentlich zur Schau stellt. Sofern eine Aufnahme geeignet ist, dem Ansehen der betroffenen Person erheblich zu schaden, ist das Verbreiten eines Deepfakes strafbar gemäß § 201 a Abs. 2 StGB (Lantwin 2020: 79). Starke Kritik erfährt, dass diese strafrechtlichen Sanktionen nicht das Herstellen, sondern nur das Verbreiten von Deepfakes erfassen (Lantwin 2020: 81). Weiterhin drohen bei Benutzung urheberrechtlich geschützten Ausgangsmaterials zivil- und strafrechtliche Folgen (Hoche 2020: 243). Mit einem Entwurf zur KI-Verordnung (COM/2021/206 final) zielt die Europäische Kommission darauf ab, den Fortschritt von KI-Systemen grundrechtskonform zu lenken. Dazu verpflichtet sie Anwender:innen, den Einsatz von Deepfakes kenntlich zu machen, es sei denn, dieser sei offensichtlich. § 6 Abs. 1 Medienstaatsvertrag (MStV) regelt für den Rundfunk allerdings explizit, dass auch beim Einsatz virtueller Elemente Berichterstattung und Informationssendungen den anerkannten journalistischen Grundsätzen zu entsprechen haben. Das bedeutet, dass die Wahrheitspflicht gegenüber den → Rezipienten jedenfalls dann verletzt ist, wenn die Bildbearbeitung für den Durchschnittszuschauer nicht ohne weiteres klar zu Tage tritt und der Bildinhalt mit dem tatsächlichen Ereignis nicht übereinstimmt. Zuletzt sind → soziale Netzwerke verantwortlich, auf Deepfakes zu reagieren, da sie aufgrund des Netzwerkdurchsetzungsgesetzes und der DSGVO Lösch- und Sperrpflichten unterliegen (Thiel 2021: 204).

Forschungsstand:
Aus dem Phänomen ergeben sich v. a. technische und gesellschaftswissenschaftliche Forschungsfragen. Derzeit konzentriert sich die Forschung auf Erkennbarkeit und Regulierung von Deepfakes. Um Deepfakes zu erkennen, werden in der Medienforensik manuelle und automatische Ansätze genutzt (Huijstee et al. 2021: 2). Dieses kleine Forschungsfeld entwickelte ursprünglich Algorithmen, um Bildmaterial für Strafverfolgungsbehörden zu überprüfen (Enquete-Kommission KI 2020: 451). Deepfakes anhand offensichtlicher Bearbeitungsspuren visuell zu erkennen, wird mit zunehmender Qualität schwieriger, weshalb es Software-gestützter Techniken bedarf. Einfache Methoden erfassen zum Beispiel Artefakte, die beim Erstellen des künstlichen Bildes auf Pixelebene entstehen. Ähnlich lassen sich auch digitale Fingerabdrücke, die GAN-generierte Inhalte enthalten, identifizieren. Um eine große Bandbreite an Deepfakes aufzuspüren, sind sogenannte High-Level-Ansätze besser geeignet. Diese zielen auf semantisch offensichtlichere Merkmale wie Inkonsistenzen in der Kopfhaltung oder ungewöhnlich seltenes Blinzeln ab, die sich nur schwer korrigieren lassen (Farid/Schindler 2020: 19). Allerdings stehen Verfahren zur Erstellung von Deepfakes in einem Wettstreit mit Verfahren zu ihrer Entlarvung. Sobald eine Möglichkeit zur Detektion veröffentlicht wird, nehmen Hersteller:innen diese derart auf, dass sie keinen Gewinn für die Detektion mehr bringt (Agarwal et al. 2019: 38; Lossau 2020: 4). Es existieren Webseiten, auf denen Bilder und Videos hochgeladen werden können, um überprüfen zu lassen, ob sie echt sind (z. B. www.deepware.ai). Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet einen Leitfaden zur Bewertung und Erkennbarkeit von Deepfakes an. In der Rechtswissenschaft stellen sich vor allem Fragen nach Persönlichkeitsrechtsverletzungen, Datenrechten und immaterialgüterrechtlichen Aspekten. Ob Offenlegungspflichten ein wirksames Schutzkonzept darstellen, kann bezweifelt werden (Lindardatos 2021; Thiel 2021: 201). Gesellschaftswissenschaftlich stellt sich schließlich die Frage nach der Überzeugungskraft eines Deepfake-Videos. Denn der scheinbaren → Authentizität ist ein hochgradig subjektiver Aspekt inhärent. Ein Video, das für ein bestimmtes → Publikum überzeugend erscheint, ist es für ein anderes möglicherweise nicht, da die Menschen oft kontextbezogene Informationen oder Hintergrundwissen nutzen, um die Authentizität zu beurteilen (Huijstee et al. 2021: 71).

Literatur:

Agrawal, Shruti et al.: Protecting World Leaders Against Deep Fakes. In: Proceedings of the IEEE/ CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops 2019, 2019, S. 38-45.

Deutscher Bundestag: Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale. Drucksache 19/23700, 28.10.2020. Online verfügbar unter: https://dserver.bundestag.de/btd/19/237/1923700.pdf [29.03.2022]

Farid, Hany; Hans-Jakob Schindler: Bericht des Counter Extremism Project: Deepfakes – Eine Bedrohung für Demokratie und Gesellschaft. Berlin [Konrad-Adenauer-Stiftung] 2020.

Hartmann, Frank: Der persönlichkeitsrechtliche Schutz vor Deepfakes. In: Kommunikation & Recht, 5, 2020, S. 350-356.

Heckmann, Dirk; Anne Paschke: Juris Praxis Kommentar Internetrecht: Das Recht der Digitalisierung. 7. Auflage. Saarbrücken [juris] 2021.

Hoche, Angelika: Hat Obama Präsident Trump wirklich als Vollidioten bezeichnet? In: Der IP-Rechtsberater, 10, 2020, S. 240-244.

van Huijstee, Mariëtte; Pieter van Boheemen; Djurre Das; Linda Nierling; Jutta Jahnel; Murat Karaboga; Martin Fatun: Tackling deepfakes in European policy, EPRS Study, PE 690.039, 2021.

Kuhlmann, Nico: Realität, Fiktion und das Problem, sie vor Gericht zu kriegen. In: Legal Tribute Online, 27.06.2020. https://www.lto.de/recht/hintergruende/h/deepfakes-gegen-gefaelschte-videos-vorgehen-gericht-persoenlichkeitsrecht-strafrecht/ [25.10.2021].

Lausen, Matthias: Der Schauspieler und sein Replikant. In: Zeitschrift für Urheber- und Medienrecht, 2, 1997, S. 86-93.

Lantwin, Tobias: Strafrechtliche Bekämpfung missbräuchlicher Deep Fakes. In: MultiMedia und Recht, 1, 2020, S. 78-82.

ders.: Deep Fakes – Düstere Zeiten für den Persönlichkeitsschutz? In: MultiMedia und Recht, 9, 2019, S. 574-578.

Linardatos, Dimitros: Regulierung von Deepfakes – Das Ende der Verlässlichkeit? In: Legal Tribute Online, 27.07.2021. https://www.lto.de/recht/hintergruende/h/deepfakes-regulierung-europa-eu-schaden-demokratie-manipulation/ [25.10.2021]

Lossau, Norbert: Deep Fake: Gefahren, Herausforderungen und Lösungswege. In: Analysen & Argumente, 382, 2020, Konrad-Adenauer-Stiftung. https://www.kas.de/documents/252038/7995358/AA382+Deep+Fake.pdf/de479a86-ee42-2a9a-e038-e18c208b93ac [20.10.2021]

Metzger, Nils; Jan Schneider: Wie Deepfakes im Ukraine-Krieg genutzt werden. In ZDF heute, 18.03.2022, https://www.zdf.de/uri/cbb730bf-b39c-4ecb-bee5-351dc2c96d32 [29.03.2022]

Peele, Jordan: You won’t Believe What Obama Says in This Video!😉BuzzFeedVideo, 17.04.2018, https://youtu.be/cQ54GDm1eL0 [26.10.2021]

Spindler, Gerald: Der Vorschlag der EU-Kommission für eine Verordnung zur Regulierung der Künstlichen Intelligenz (KI-VO-E) – Ansatz, Instrumente, Qualität und Kontext, In: Computer und Recht, 2021, S. 361-374.

Thiel, Markus: ‚Deepfakes‘ – Sehen heißt glauben? – Gefahren, gesetzgeberischer Handlungsbedarf, Konsequenzen für die biometrische Gesichtserkennung. In: Zeitschrift für Rechtspolitik, 7, 2021, S. 202-205.

Thies, Justus; Michael Zollhofer; Marc Stamminger; Christian Theobalt; Matthias Niessner: Face2Face: Real-Time Face Capture and Reenactment of RGB Videos. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, S. 2387-2395. https://openaccess.thecvf.com/content_cvpr_2016/html/Thies_Face2Face_Real-Time_Face_CVPR_2016_paper.html [20.10.2021]

Vorheriger ArtikelKarl Gutzkow
Nächster ArtikelPressekodex
*1985, Ass. iur., LL.M., ist Wissenschaftlicher Mitarbeiter am Weizenbaum-Institut für die vernetzte Gesellschaft. Jurastudium in Marburg, Madrid und Münster. Referendariat in Münster, Berlin, Speyer, Köln und Barcelona. Danach u.a. Wissenschaftlicher Mitarbeiter an der Ruhr-Universität Bochum und TU Berlin. Forschungs-/Arbeitsschwerpunkte: (Online-)Medienrecht, Ziviles Wirtschaftsrecht, Staatsrecht.