Deepfake

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Deep Fake)
Zur Navigation springen Zur Suche springen

Deepfakes (englisch Kofferwort aus den Begriffen „Deep Learning“ und „Fake“)[1] sind realistisch wirkende Medieninhalte (Foto, Audio, Video usw.), die durch Techniken der künstlichen Intelligenz (KI bzw. AI, artificial intelligence) abgeändert, erzeugt (→ Prompt) bzw. verfälscht worden sind.

Zwar ist Medienmanipulation kein neues Phänomen, allerdings nutzen Deepfakes maschinelles Lernen, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom und damit in bislang ungeahnter und nicht möglicher Dimension zu erzeugen.

Im Laufe der Zeit veränderte sich der Begriff Deepfake. Während er 2017 und 2018 nur für genau die Bildwerke benutzt wurde, die explizit durch die Deepfake-KI erschaffen wurden, wurde er im Jahr 2022 benutzt, um Bilder und Filme zu beschreiben, die offensichtlich oder mutmaßlich durch irgendeine KI verfälscht wurden.[2] So behaupteten Elon Musks Anwälte 2022 in einem Gerichtsprozess in den USA, dass ein Musk belastendes Video wahrscheinlich nicht dessen Aussagen wiedergebe, sondern eine Deepfake-Produktion sei.[3]

Der erste und derzeit häufigste Einsatz von Deepfakes findet im Bereich des „face swapping“ statt. Hierbei wird in visuellem Material (z. B. Videos oder Fotos) das Gesicht einer Person durch das Gesicht einer anderen Person ersetzt, um diese Person in einem anderen Kontext darzustellen. Die so entstehenden Inhalte haben großes destruktives Potential,[4][5] wie zum Beispiel gefälschte pornografische Inhalte. Deepfakes können weit über die Anwendung des „face-swapping“ hinausgehen und die Manipulation auditorischer Inhalte (z. B. „voice swapping“) und die als „body-puppetry“ bekannte Übertragung von Körperbewegungen auf andere Personen in Videomaterial beinhalten.[4]

Obwohl Deepfakes ein relativ neuartiges Phänomen sind (erste Nutzung des Begriffs 2017), haben sie eine breite Debatte um ihre Nutzung und Gefahren für Politik, Wirtschaft und Gesellschaft entfacht. Auf Seiten der Politik sowie auf Seiten der Industrie gibt es Bestrebungen, die Identifizierung von Deepfakes zu erleichtern, ihre Nutzung einzuschränken und ihre unerlaubte Erstellung unter Strafe zu stellen.[6][7]

Das MIT Center for Advanced Virtuality produzierte ein komplexes Deepfake, bei dem die Technologie sowohl zum Einsatz kam, um Gesicht als auch Stimme des ehemaligen US-Präsidenten Richard Nixon zu duplizieren. Die Macher ließen Nixon dadurch eine Rede über den Tod der Apollo-11-Astronauten vorlesen.[8] Diese war einst geschrieben, aber aufgrund der erfolgreichen Mondlandung nie öffentlich gehalten worden.

Deepfakes werden genutzt, um Politiker auf Videoportalen oder Imageboards falsch darzustellen. So wurde zum Beispiel das Gesicht des argentinischen Präsidenten Mauricio Macri durch das von Adolf Hitler oder das von Angela Merkel durch das von Donald Trump ersetzt.[9][10]

Um März 2022 tauchte auf einer gehackten ukrainischen Nachrichten-Website ein Fake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj auf, in dem er ukrainische Soldaten aufrief, sich zu ergeben. Das Video wurde schnell als Fälschung entlarvt. Facebook klassifizierte das Video als Deepfake und entfernte es aus seinem Netzwerk. Ob das Video tatsächlich mit Deepfake-Technologie entstand, ist unbekannt.[11][12]

Im Juni 2022 wurde in Videokonferenzen mehreren Politikern gegenüber vorgetäuscht, dass sie ein Gespräch mit dem Kiewer Bürgermeister Vitali Klitschko führen würden. Die Konferenzen wurden unter anderem mit der EU-Innenkommissarin Ylva Johansson, der Berliner Bürgermeisterin Franziska Giffey, dem Bürgermeister von Madrid José Luis Martínez-Almeida, dem Budapester Bürgermeister Gergely Karácsony, dem Warschauer Stadtpräsidenten Rafał Trzaskowski und dem Wiener Bürgermeister Michael Ludwig geführt und durch die ersten beiden Bürgermeister vorzeitig abgebrochen.[13][14] Im Nachgang bekannte sich das als Kreml-nah geltende russische Komiker-Duo Vovan und Lexus zu den Telefonaten.[15] Sie widersprechen der Darstellung, dass Deepfake-Technologie eingesetzt wurde oder eine politische Motivation vorlag.[16] Stattdessen wird davon ausgegangen, dass ein Shallowfake genutzt wurde.[17]

Im Oktober 2022 wurde berichtet, dass im Rahmen des russischen Überfalls auf die Ukraine ein mittels Deepfake gefälschter Video-Anruf abgefangen worden sei. Die Anrufer hätten sich als der ukrainische Premierminister Denys Schmyhal ausgegeben.[18]

In der Kunst werden Deepfakes als Mittel der Zuspitzung verwendet, etwa um sich über popkulturelle Dinge lustig zu machen.

Der Künstler Joseph Ayerle nutzte Deepfake für den Kurzfilm Un’emozione per sempre 2.0, um eine Zeitreise der Protagonistin Ornella Muti aus dem Jahr 1978 in das Jahr 2018 zu inszenieren.[19][20] Dabei wurde der Charakter der Ornella Muti des Jahres 2018 durch eine KI errechnet, die aus den Gesichtsdaten der jungen Ornella Muti und Filmszenen des Modells Kendall Jenner neue Szenen errechnete, die die wirkliche Ornella Muti nie gespielt hat.[21] Im April 2018 veröffentlichte der US-amerikanische Kabarettist Jordan Peele gemeinsam mit BuzzFeed ein Deepfake-Video, in dem er Barack Obama vor den Gefahren manipulierter Videos warnen lässt.[22] In diesem Video bezeichnet der „synthetische“ Ex-Präsident unter anderem seinen Nachfolger Donald Trump als „kompletten Volltrottel“.[23] Ein YouTuber, der unter dem Namen „Speaking of AI“ auftritt, ließ wiederum den als Kylo Ren aus Star Wars bekannten Schauspieler das Intro zur Original-TV-Serie Star Trek sprechen.[24]

Seit 2018 wird universitär und industriell daran geforscht, generierte Gesichter zum Schutz der Identität einzusetzen.[25][26] Nach der natürlichen Entfremdung des Gesichtes können im öffentlichen Bereich aufgenommene Daten für Analysezwecke oder für maschinelles Lernen wie Originaldaten verwendet werden, jedoch unter größerem Schutz der Privatsphäre und Ausschlusses biometrischer Erkennungen.[27][28] Einsatzorte sind beispielsweise für die Entwicklung autonomer Fahrzeuge oder für Smart City Kameras.[29][30] Künstliche Gesichter oder andere synthetische Merkmale, stellen damit eine alternative Anonymisierungsform gegenüber dem Blurring von personenbezogen Daten dar.

In Informatik, Mathematik und Kunst sind Algorithmen für maschinelles Lernen, die sich mit der Generierung von solchen Mediendateien beschäftigen, ein Forschungs- und Entwicklungsgebiet.

Deepfakes sorgten für ein großes mediales und gesellschaftliches Echo. Mehrere Journalisten führten daher Selbstversuche durch, um zu untersuchen, wie einfach oder schwierig Deepfakes zu erstellen sind[31] und wie sie die Glaubwürdigkeit von Videobildern beeinflussen könnten.[32] 2020 stellte Microsoft eine Software mit dem Namen Video Authenticator vor, deren KI in der Lage sein soll, durch Deepfake und ähnliche Tools manipulierte Videos zu erkennen.[33]

Im Herbst 2017 stellte ein anonymer Reddit-Nutzer unter dem Pseudonym „Deepfakes“ mehrere Pornovideos ins Internet. So waren die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Diese Szenen waren unter Verwendung künstlicher Intelligenz erstellt worden und wurden rasch entlarvt. Der Reddit-Nutzer hatte Szenen aus Sexfilmen und Spielfilmen mit der eingefügten Person als Trainingsdaten für ein Neuronales Netz verwendet. Nach einem Bericht im Dezember 2017 im Magazin Vice wurde das Thema von weiteren Medien aufgenommen.[1][34] In den folgenden Wochen überarbeiteten und verbesserten andere Reddit-Nutzer der Entwickler-Community das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte von echten Inhalten zu unterscheiden. Auf dem dazu auf Reddit gegründeten Subreddit „Deepfakes“ wurden bis zu dessen Sperrung am 7. Februar 2018 von mehr als 50.000 Nutzern Deepfake-Videos ausgetauscht. Rachepornos wurden durch den Einsatz von Deepfakes ohne Mitwirkung der im Porno erscheinenden Person möglich.[9][34][35][36][37] Auch die Pornoseite Pornhub gab an, Deepfake-Pornos zukünftig zu sperren.[38]

Im Juni 2019 wurde das Programm DeepNude für Windows und Linux veröffentlicht, welches neuronale Netzwerke benutzt, um Personen auf Bildern zu entkleiden. Dabei gab es eine kostenlose und eine kostenpflichtige Version für 50 USD.[39][40] Die Software wurde kurz danach von den Erstellern wieder entfernt und die Käufer erhielten eine Rückerstattung.[41]

Mit der Open-Source-Software DeepFaceLab können Gesichter von Personen ausgetauscht werden.[42] Im April 2023 veröffentlichte das US-Start-Up ElevenLabs erstmals eine Version seiner Stimmen-Klon-Software mit deutschen Stimmen: Mittels KI können somit Stimmen mit geringem Aufwand täuschend echt geklont werden[43] Hinzugekommen per September 2023: KI-Software der Firma Hey Gen Labs lässt gesprochenen Text in Videos übersetzen, samt Anpassung von Lippenbewegungen und Tausch der Gesichter.[44]

Deepfakes von Stimmen können Betrügern kriminelle Handlungen ermöglichen, wenn sie Opfern gegenüber durch eine künstlich imitierte Stimme die Identität einer vertrauens- oder anweisungsberechtigten Person erwecken und das Opfer Handlungen zum Vorteil des Betrügers vornehmen lassen.[45] 2019 wurde ein CEO eines Unternehmens aus dem Vereinigten Königreich durch einen Telefonanruf dazu gebracht, 220.000 Euro auf ein ungarisches Bankkonto zu überweisen, wobei die Täter durch ein Deepfake die Stimme eines Vorgesetzten des Opfers imitierten.[46]

Neben der Täuschung von Personen durch Deepfakes lassen sich auch biometrische Authentifizierungssysteme wie Voice-ID-Systeme, bei denen die Stimme einer Person als Passwort fungiert, mittels künstlich imitierter Stimme aushebeln. So erhalten Betrüger Zugang zu persönlichen Accounts anderer.[47]

Deepfakes werden laut einer Erhebung von 2023 zunehmend in größerem Umfang im Zusammenhang mit Enkeltrick-Betrügereien genutzt.[43]

Kreditwürdigkeit und Authentizität

[Bearbeiten | Quelltext bearbeiten]

Zwar ist das Verfälschen von Bildern schon lange einfach, jedoch das von Videos viel schwieriger, weswegen einige Unternehmen zur Verifikation von ihren Kunden Videos von ihnen verlangen.[9] Mittels Deepfakes konnten Hacker schon diese Verifikation dadurch bestehen.

Der Professor Hao Li von der Universität von Southern California warnte, dass, wenn die Technologie von Deepfakes nicht der breiten Masse aufgezeigt werde, die missbräuchliche Anwendung von Deepfakes für Fake News oder Ähnliches eine ernste Gefahr darstellen könne.[48]

In der zweiten Jahreshälfte des Jahres 2020 veröffentlichte Microsoft die Information, dass die Firma an einer Software arbeite, die Deepfake-Manipulationen erkennen soll.[49] Im Jahr 2022 wurde in den USA vor Gericht ein mutmaßlich authentische Videoaufnahme von Anwälten angezweifelt, weil sie ein Deepfake sein könnte. So behaupteten Elon Musks Anwälte 2022 in einem Gerichtsprozess in den USA, dass ein belastenden Video wahrscheinlich nicht Elon Musk sei, sondern ein Deepfake-Video. Der Richter akzeptierte diese Argumentation nicht.[50]

Im April 2024 gibt es im Vorfeld der Europawahl Beispiele für den Einsatz von KI zu propagandistischen Zwecken.[51] Der Einfluss von manipulierten Fotos, Audioaufnahmen und Videos stelle nach Ansicht von Experten besonders in Kombination mit sozialen Medien eine zunehmende Herausforderung für die Demokratie dar.[51] Sogenannte Eigenfaktenchecks werden empfohlen.[51]

Als Abgrenzung zu Deepfakes sind Shallowfake oder Cheapfake zu sehen. Hierbei handelt es sich zwar ebenfalls um Fälschungen, die jedoch technisch weniger anspruchsvoll sind und nicht mittels künstlicher Intelligenz generiert werden. Beispielsweise, indem Videos mit falschen Informationen gekennzeichnet werden oder in einem falschen Zusammenhang gezeigt werden.[52] Auch das Zusammenschneiden von Videos, damit ein anderer Eindruck entsteht, wird als Shallowfake bezeichnet.[17]

  • Ende Januar 2018 startete eine App namens FakeApp, mit der Nutzer leicht in Videos Gesichter austauschen können, als sei damit eine andere Person im Video zu sehen (Face Swap). Ein Algorithmus berechnet mithilfe eines künstlichen neuronalen Netzes und der Leistung des Grafikprozessors sowie mit drei bis vier Gigabyte Speicher das zu erzeugende Fake-Video. Für genaue Angaben braucht das Programm viel Bildmaterial von der einzufügenden Person, um mithilfe des erwähnten Deep-Learning-Algorithmus auf Basis der Videosequenzen und Bilder zu lernen, welche Bildaspekte ausgetauscht werden müssen. Die Software nutzt dabei das KI-Framework TensorFlow von Google, welches unter anderem bereits für das Programm DeepDream verwendet wurde. Vorwiegend sind Prominente von damit gefälschten Sexvideos betroffen, obwohl Privatpersonen Ziel sein können.[53][54][55]
  • Zivil- oder strafrechtliches Vorgehen ist möglich, obwohl die Inhalte nicht echt sind (wie wegen Verletzung von Persönlichkeitsrechten und Sexualbeleidigung).[56] Voraussetzung hierfür ist aber, dass sich der Täter identifizieren lässt. Dies ist im Internet aufgrund von Anonymität und Pseudonymität sowie gegenseitigem Hin- und Herreichen nicht immer möglich.[57]
  • Der KI-Forscher Alex Champandard hält ein tradiertes hohes Vertrauen in den Journalismus und Medien für einen Grund für den Erfolg von Deepfakes. Der Google-Ingenieur Ian Goodfellow bezeichnet es als einen historischen Glücksfall, dass wir uns „bisher auf Videos als Beweis für Tatsachen verlassen konnten“.[9][53]
  • Im Mai 2019 ist es Forschern des Samsung-Laboratoriums in Moskau gelungen, ein KI-System zu entwickeln, das in der Lage ist, aus einem einzigen Bild ein Fake-Video zu erstellen. Sie schufen aus dem Porträt der Mona Lisa drei verschiedene Videos einer sprechenden und sich bewegenden Frau.[58]
  • Die Webseite notjordanpeterson.com nutzte die Technologie der „Deepfakes“, um den kanadischen Psychologen Jordan Peterson, welcher im Internet durch kontroverse Aussagen und Interviews einige Berühmtheit erlangte, per Textfeld eingegebene, beliebige Sätze scheinbar sagen zu lassen, wobei der verwendete Algorithmus relativ realistisch klingende Resultate lieferte.[59] Die Funktionalität der Webseite wurde nach Androhung von rechtlichen Schritten von Seiten des Psychologen vorerst deaktiviert.[60]
  • Mika Westerlund: The Emergence of Deepfake Technology: A Review. In: Technology Innovation Management Review. Band 9, Nr. 11, 2019, ISSN 1927-0321 (timreview.ca [abgerufen am 17. Juli 2021]).
Wiktionary: Deepfake – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b AI-Assisted Fake Porn Is Here and We’re All Fucked. In: Motherboard. 11. Dezember 2017 (motherboard.vice.com [abgerufen am 8. Februar 2018]).
  2. Christian Lutz: Krasse Kopie von Elon Musk: Ist dieses Doppelgänger-Video nur Fake? In: Chip.de. 21. Dezember 2021, abgerufen am 26. Mai 2023.
  3. Richter schmettert Argument der Tesla-Anwälte ab, Musk-Zitate seien Deepfakes gewesen. In: derstandard.de. Abgerufen am 26. Mai 2023.
  4. a b Jan Kietzmann, Linda W. Lee, Ian P. McCarthy, Tim C. Kietzmann: Deepfakes: Trick or treat? In: Business Horizons. Band 63, Nr. 2, 2020, ISSN 0007-6813, S. 135–146, doi:10.1016/j.bushor.2019.11.006 (sciencedirect.com).
  5. Prepare, Don't Panic: Synthetic Media and Deepfakes. In: WITNESS Media Lab. Abgerufen am 4. Februar 2020 (amerikanisches Englisch).
  6. Abhimanyu Ghoshal: Twitter, Pornhub and other platforms ban AI-generated celebrity porn. 7. Februar 2018, abgerufen am 4. Februar 2020 (amerikanisches Englisch).
  7. Yvette D. Clarke: H.R.3230 – 116th Congress (2019–2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019. 28. Juni 2019, abgerufen am 4. Februar 2020.
  8. Deepfake Art Project Reimagines Nixon’s Speech Had Apollo 11 Gone Horribly Wrong. Abgerufen am 6. März 2020 (amerikanisches Englisch).
  9. a b c d Tomislav Bezmalinovic: Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos. Deepfakes. In: az – Aargauer Zeitung. 3. Februar 2018, ISSN 1661-0539 (Schweizer Hochdeutsch, aargauerzeitung.ch [abgerufen am 8. Februar 2018]).
  10. Patrick Gensing, tagesschau.de: Manipulierte Videos – Auf dem Weg in eine alternative Realität? In: tagesschau.de. ARD-aktuell, NDR, archiviert vom Original am 12. Oktober 2019; abgerufen am 16. Mai 2023 (Deepfake – Deep Learning und Fake).
  11. Fridtjof Küchemann: Fakes zur Ukraine: Perfektion ist Nebensache. In: FAZ.NET. 19. März 2022, ISSN 0174-4909 (faz.net [abgerufen am 20. März 2022]).
  12. „Legt Waffen nieder“: Fake-Video von Selenskyj mittlerweile gelöscht. Kursierte auf Facebook und Instagram. In: focus.de. Focus Online, BurdaForward GmbH, 17. März 2022, abgerufen am 16. Mai 2023.
  13. Julia Klaus: Deepfake in Videokonferenz: Giffey fällt auf „Deepfake-Klitschko“ herein. In: zdf.de. ZDF heute, Zweites Deutsches Fernsehen, abgerufen am 25. Juni 2022.
  14. Daniel Laufer, rbb: Auch EU-Kommissarin fiel auf Fake herein. In: tagesschau.de. ARD-aktuell, NDR, abgerufen am 1. Juli 2022.
  15. Süddeutsche Zeitung: Russische Komiker bekennen sich zu Fake-Videoschalten. 29. Juni 2022, abgerufen am 2. Juli 2023.
  16. Daniel Laufer, rbb: Russische Komiker bekennen sich zu Anrufen. In: tagesschau.de. ARD-aktuell, NDR, abgerufen am 1. Juli 2022.
  17. a b Andreas Donath: Vitali Klitschko: Zweifel an Giffeys Deepfake-These. In: golem.de. Golem Media GmbH, abgerufen am 28. Juni 2022.
  18. Ruth Fulterer: Deepfake-Anruf beim Hersteller der Bayraktar-Drohne sollte die Ukraine diskreditieren. In: Neue Zürcher Zeitung. 24. Oktober 2022, ISSN 0376-6829 (Schweizer Hochdeutsch, nzz.ch [abgerufen am 16. Mai 2023]).
  19. Co-Creation Studio at MIT Open Documentary Lab: Can Humans Co-Create with Algorithms? In: immerse.news. Immerse, MIT Open DocLab and Dot Connector Studio, 11. Juni 2019, abgerufen am 16. Mai 2023 (amerikanisches Englisch).
  20. Kendall Jenner. Kendall Jenner: Aktuelle News und Infos zum US-amerikanischen Model. In: Rheinische Post. 2023, ZDB-ID 553801-4 (rp-online.de [abgerufen am 16. Mai 2023] Profil: Kendall Jenner).
  21. Joseph Ayerle, IMDb: Un’emozione per sempre 2.0. 24. März 2018, abgerufen am 12. April 2021.
  22. Daniel Dillmann: Fake-Obama beschimpft Donald Trump. In: Frankfurter Rundschau (FR). 20. April 2018, ISSN 0940-6980 (fr.de [abgerufen am 16. Mai 2023] täuschend echt wirkender Barack Obama).
  23. Dreht Obama durch? Dieses Video zeigt eine der größten Gefahren für Demokratien. Täuschend echt. In: bz – Zeitung für die Region Basel. 18. April 2018, ISSN 2624-9944 (Schweizer Hochdeutsch, archiviert. (Memento vom 1. August 2018 im Internet Archive) [abgerufen am 16. Mai 2023]).
  24. Speaking of AI: Kylo Ren in Star Trek auf YouTube, 18. Februar 2020, abgerufen am 16. Mai 2023 (englisch; deepfaked Videoclip mit Kylo Ren (Star-Wars-Universum) im Star Trek; Laufzeit: 30 s).
  25. Xiuye Gu, Weixin Luo, Michael S. Ryoo, Yong Jae Lee: Password-conditioned Anonymization and Deanonymization with Face Identity Transformers. In: Computer Science. 29. November 2019, arxiv:1911.11759.
  26. Oran Gafni, Lior Wolf, Yaniv Taigman: Live Face De-Identification in Video. In: Computer Science. 19. November 2019, arxiv:1911.08348.
  27. Bart Willemsen (Analyst): 5 Areas Where AI Will Turbocharge Privacy Readiness. Gartner Research. In: gartner.com. Gartner, Inc., 20. August 2019, abgerufen am 17. Juni 2020 (englisch).
  28. D-ID, the Israeli company that digitally de-identifies faces in videos and still images, raises $13.5 million. In: social.techcrunch.com. TechCrunch, Yahoo, abgerufen am 17. Juni 2020 (amerikanisches Englisch).
  29. Ina Karabasz und Dietmar Neuerer: Pilotprojekt in Stuttgart: Mit Kameras gegen Corona: Deutsche Bahn will Passagierströme bewusster lenken. Mit Videodaten aus Zügen will die Deutsche Bahn ihre Passagiere besser verteilen. Damit soll das Risiko einer Corona-Infektion gesenkt werden. In: Handelsblatt. 27. April 2020, ISSN 0017-7296 (handelsblatt.com [abgerufen am 16. Mai 2023]).
  30. K. Hayduk: [Drug therapy of hypertension]. In: Zeitschrift Fur Allgemeinmedizin. Band 51, Nr. 33, 30. November 1975, ISSN 0300-8673, S. 1536–1542, PMID 1909.
  31. Michael Förtsch: Wie ich in nur zwei Wochen gelernt habe, eigene Deepfakes zu produzieren. In: 1e9.community. 1E9 Denkfabrik GmbH, 26. Januar 2020, abgerufen am 16. Mai 2023.
  32. Christian Schiffer: Deepfakes: Kann man seinen Augen noch trauen? In: br.de. Bayerischer Rundfunk, 3. Dezember 2019, archiviert vom Original am 3. Dezember 2020; abgerufen am 16. Mai 2023.
  33. Denise Bergert: Microsoft: KI soll Deep Fakes erkennen. In: pcwelt.de. PC-Welt, IDG Tech Media GmbH, 2. September 2020, abgerufen am 25. Dezember 2021.
  34. a b Markus Böhm: "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor. In: Spiegel Online. 7. Februar 2018 (spiegel.de [abgerufen am 8. Februar 2018]).
  35. Barbara Wimmer: Digital Life – Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos. In: Reddit. 8. Februar 2018 (futurezone.at [abgerufen am 16. Mai 2023]).
  36. Bernd Mewes: Deepfakes: Auch Reddit verbannt Fake-Porn. In: heise.de. heise online, Heise Medien GmbH & Co. KG, abgerufen am 16. Mai 2023.
  37. Netzpolitik – Reddit verbannt Deepfake-Pornos. Die Plattform erlässt ein Verbot von gefälschten Videos, in denen Gesichter von Stars oder Kindern auf Pornostars montiert werden. In: Der Standard. 8. Februar 2018, ZDB-ID 915914-9 (österreichisches Deutsch, derstandard.de [abgerufen am 16. Mai 2023]).
  38. Samantha Cole: Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual. In: vice.com. VICE Media Group, 6. Februar 2018, abgerufen am 20. Mai 2020 (englisch).
  39. Samantha Cole: This Horrifying App Undresses a Photo of Any Woman With a Single Click. In: vice.com. VICE Media Group, 26. Juni 2019, abgerufen am 17. Mai 2020 (englisch).
  40. Joseph Cox: GitHub Removed Open Source Versions of DeepNude. In: vice.com. VICE Media Group, 9. Juli 2019, abgerufen am 17. Mai 2020 (englisch).
  41. deepnudeapp: pic.twitter.com/8uJKBQTZ0o. In: @deepnudeapp. Twitter Inc., 27. Juni 2019, abgerufen am 17. Mai 2020.
  42. Gefälschte Videos – Wie leicht es ist, Deepfakes zu erstellen. Im Netz tummeln sich zahlreiche Tutorials – Aufwand wird immer niedriger, da immer mehr Tools entwickelt werden. In: Der Standard. 1. April 2003, ZDB-ID 915914-9 (österreichisches Deutsch, derstandard.de [abgerufen am 16. Mai 2023]).
  43. a b Das Geschäft mit der geklonten Stimme. Betrug mit Künstlicher Intelligenz. In: Tagesschau (ARD). 18. Juli 2023 (tagesschau.de [abgerufen am 20. September 2023]).
  44. Hey Gen Labs: KI-Übersetzer geht viral, lässt sich aber nicht testen. Mit Hey Gen Labs lässt sich der gesprochene Text in Videos übersetzen, samt Lippenbewegungen. Offensichtlich wollen aber zu viele auf das Tool zugreifen. 13. September 2023 (heise.de [abgerufen am 13. September 2023]).
  45. Nick Statt: Thieves are now using AI deepfakes to trick companies into sending them money. In: theverge.com. The Verge, 5. September 2019, abgerufen am 17. Mai 2020 (englisch).
  46. Jesse Damiani: A Voice Deepfake Was Used To Scam A CEO Out Of $243,000. In: forbes.com. Forbes, Inc., abgerufen am 17. Mai 2020 (englisch).
  47. Konstantin Böttinger, Nicolas Müller: »Deepfakes«: Mit KI-Systemen Audio- und Videomanipulationen verlässlich entlarven Deepfakes – Fraunhofer AISEC. In: aisec.fraunhofer.de. Fraunhofer-Institut für Angewandte und Integrierte Sicherheit – AISEC, abgerufen am 16. Mai 2023.
  48. Tonya Mosley: Perfect Deepfake Tech Could Arrive Sooner Than Expected. In: wbur.org. WBUR, abgerufen am 16. Mai 2023 (englisch).
  49. Leo Kelion: Deepfake detection tool unveiled by Microsoft. In: BBC News. 1. September 2020 (englisch, bbc.com [abgerufen am 16. Mai 2023]).
  50. Richter schmettert Argument der Tesla-Anwälte ab, Musk-Zitate seien Deepfakes gewesen. Abgerufen am 26. Mai 2023 (österreichisches Deutsch).
  51. a b c Philip Pfleger, ORF.at: EU-Wahl: Desinformation trifft auf Wissenslücken. 19. April 2024, abgerufen am 20. April 2024.
  52. Bobbie Johnson: Deepfakes are solvable—but don’t forget that “shallowfakes” are already pervasive. In: technologyreview.com. MIT Technology Review, 25. März 2019, abgerufen am 16. Mai 2023 (englisch).
  53. a b Britta Bauchmüller: „Fake-App“: Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht! Fake-App: Neue Software macht jeden zum Porno-Star – auch ungewollt. In: Berliner Kurier. 29. Januar 2018, ISSN 1437-3475 (archiviert. (Memento vom 28. August 2019 im Internet Archive) [abgerufen am 16. Mai 2023]).
  54. Eike Kühl: Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 16. Mai 2023]).
  55. Fabian A. Scherschel: Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien. In: heise.de. heise online, Heise Medien GmbH & Co. KG, 25. Januar 2018, abgerufen am 16. Mai 2023.
  56. Eike Kühl: Seite 2 von 2: Künstliche Intelligenz: Selfies sind eine gute Quelle. Künstliche Intelligenz: Auf Fake News folgt Fake Porn. In: Die Zeit. 26. Januar 2018, ISSN 0044-2070 (zeit.de [abgerufen am 8. Februar 2018]).
  57. Muzayen Al-Youssef: Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem. Deepfakes sind täuschend echt gefälschte Videos. Was bedeutet eine solche Entwicklung? In: Der Standard. 31. Januar 2018, ZDB-ID 915914-9 (österreichisches Deutsch, derstandard.de [abgerufen am 16. Mai 2023]).
  58. Joan E. Solsman: Samsung deepfake AI could fabricate a video of you from a single profile pic. Even the Mona Lisa can be faked. In: cnet.com. CNET Networks Inc, 24. Mai 2019, abgerufen am 16. Mai 2023 (englisch).
  59. Mix: NotJordanPeterson lets you generate uncannily realistic Jordan Peterson sound bites. In: thenextweb.com. 16. August 2019, abgerufen am 16. Mai 2023 (amerikanisches Englisch).
  60. Jordan Peterson deepfake voice simulator taken offline after Peterson suggests legal action. In: Reclaim The Net. 22. August 2019, abgerufen am 29. August 2019 (amerikanisches Englisch).