meyer_solutions/Shutterstock
Wir neigen dazu, dem Inhalt von Video- und Audioaufnahmen zu vertrauen. Aber mit KI kann das Gesicht oder die Stimme von jedem punktgenau nachgebildet werden. Das Produkt ist ein Deepfake, ein Identitätswechsel, der für Meme, Fehlinformationen oder Pornos verwendet werden kann.
Ein Blick auf die Nicholas Cage-Deepfakes oder Jordan Peeles Deepfake-PSA macht deutlich, dass wir es mit einer seltsamen neuen Technologie zu tun haben. Diese Beispiele sind zwar relativ harmlos, werfen aber Fragen über die Zukunft auf. Können wir Video und Audio vertrauen? Können wir Menschen für ihre Aktionen auf dem Bildschirm zur Rechenschaft ziehen? Sind wir bereit für Deepfakes?
Deepfakes sind neu, einfach zu machen und wachsen schnell
Die Deepfake-Technologie ist erst ein paar Jahre alt, aber sie ist bereits zu etwas Fesselndem und Beunruhigendem explodiert. Der Begriff „Deepfake“, der 2017 in einem Reddit-Thread geprägt wurde, wird verwendet, um die Wiederherstellung des Aussehens oder der Stimme eines Menschen durch künstliche Intelligenz zu beschreiben. Überraschenderweise kann fast jeder mit einem beschissenen PC, etwas Software und ein paar Stunden Arbeit einen Deepfake erstellen.
Ob Sie es glauben oder nicht, das Bild links ist das Deepfake. Tiefe Hommage/Bob Thornton
Wie bei jeder neuen Technologie gibt es bei Deepfakes einige Verwirrung. Das Video „betrunkener Pelosi“ ist ein hervorragendes Beispiel für diese Verwirrung. Deepfakes werden von KI konstruiert und sollen Menschen imitieren. Das „Dunk Pelosi“-Video, das als Deepfake bezeichnet wurde, ist eigentlich nur ein Video von Nancy Pelosi, das war verlangsamt und tonhöhenkorrigiert um einen undeutlichen Spracheffekt hinzuzufügen.
Dies unterscheidet Deepfakery auch von der CGI Carrie Fisher in Star Wars: Rogue One. Während Disney Unmengen an Geld ausgegeben hat, um Carrie Fishers Gesicht zu studieren und es von Hand nachzubilden, kann ein Nerd mit einer Deepfake-Software mach den gleichen Job kostenlos an einem einzigen Tag. KI macht die Arbeit unglaublich einfach, günstig und überzeugend.
So erstellen Sie einen Deepfake
Wie ein Schüler in einem Klassenzimmer muss die KI „lernen“, wie sie ihre beabsichtigte Aufgabe erfüllt. Dies geschieht durch einen Brute-Force-Trial-and-Error-Prozess, der normalerweise als maschinelles Lernen oder Deep Learning bezeichnet wird. Eine KI, die beispielsweise das erste Level von Super Mario Bros abschließen soll, wird das Spiel immer wieder spielen, bis sie den besten Weg zum Gewinnen herausfindet. Die Person, die die KI entwickelt, muss einige Daten bereitstellen, um die Dinge zu starten, zusammen mit ein paar „Regeln“, wenn etwas schief geht. Abgesehen davon erledigt die KI die ganze Arbeit.
Das gleiche gilt für Deepfake-Gesichtserholung. Aber natürlich ist das Nachbilden von Gesichtern nicht dasselbe wie das Besiegen eines Videospiels. Wenn wir einen Deepfake von Nicholas Cage erstellen würden, der die Wendy Williams-Show moderiert, würden wir Folgendes brauchen:
- Ein Zielvideo: Ab sofort funktionieren Deepfakes am besten mit klaren, sauberen Zielvideos. Deshalb stammen einige der überzeugendsten Deepfakes von Politikern; sie neigen dazu, bei konstanter Beleuchtung auf einem Podium still zu stehen. Wir brauchen also nur ein Video von Wendy, die still sitzt und spricht.
- Zwei Datensätze: Damit Mund- und Kopfbewegungen genau aussehen, benötigen wir einen Datensatz von Wendy Williams’ Gesicht und einen Datensatz von Nicholas Cages Gesicht. Wenn Wendy nach rechts schaut, brauchen wir ein Foto von Nicholas Cage, der nach rechts schaut. Wenn Wendy den Mund öffnet, brauchen wir ein Bild von Cage, der seinen Mund öffnet.
Danach lassen wir die KI ihre Arbeit machen. Es versucht immer wieder, den Deepfake zu erstellen und dabei aus seinen Fehlern zu lernen. Einfach, oder? Nun, ein Video von Cages Gesicht auf Wendy Williams Körper wird niemanden täuschen, also wie können wir ein bisschen weiter gehen?
People Magazine/Time Magazine
Die überzeugendsten (und potenziell schädlichsten) Deepfakes sind totale Nachahmungen. Der populäre Obama-Deepfake von Jordan Peele ist ein gutes Beispiel. Machen wir also einen dieser Identitätswechsel. Lassen Sie uns einen Deepfake von Mark Zuckerberg erstellen, der seinen Hass auf Ameisen erklärt – das klingt überzeugend, oder? Das brauchen wir:
- Ein Zielvideo: Dies könnte ein Video von Zuckerberg selbst oder einem Schauspieler sein, der Zuckerberg ähnlich sieht. Wenn unser Zielvideo einen Schauspieler zeigt, kleben wir einfach Zuckerbergs Gesicht auf den Schauspieler.
- Fotodaten: Wir brauchen Fotos von Zuckerberg, der spricht, blinzelt und seinen Kopf bewegt. Wenn wir einem Schauspieler sein Gesicht überlagern, benötigen wir auch einen Datensatz der Gesichtsbewegungen des Schauspielers.
- Die Stimme der Zuck: Unser Deepfake muss wie The Zuck klingen. Wir können dies tun, indem wir einen Imitator aufnehmen oder Zuckerbergs Stimme mit KI nachbilden. Um seine Stimme nachzubilden, lassen wir einfach Audiosamples von Zuckerberg durch eine KI wie . laufen Leiervogel, und geben Sie dann ein, was er sagen soll.
- Eine Lippensynchronisations-KI: Da wir in unserem Video die Stimme von gefälschtem Zuckerberg sind, muss eine lippensynchrone KI sicherstellen, dass die Deepfake-Gesichtsbewegungen mit dem übereinstimmen, was gesagt wird.
Wir versuchen nicht, die Arbeit und das Fachwissen herunterzuspielen, die in Deepfakery stecken. Aber im Vergleich zu dem Millionen-Dollar-CGI-Job, der ihm einbrachte Audrey Hepburn ist von den Toten zurück, Deepfakes sind ein Spaziergang im Park. Und obwohl wir noch nicht auf einen politischen oder prominenten Deepfake hereingefallen sind, haben selbst die beschissensten und offensichtlichsten Deepfakes echten Schaden angerichtet.
Deepfakes haben bereits realen Schaden angerichtet
Im Moment sind die meisten Deepfakes nur Nicholas Cage-Meme, Ankündigungen des öffentlichen Dienstes und gruselige Promi-Pornos. Diese Verkaufsstellen sind relativ harmlos und leicht zu identifizieren, aber in einigen Fällen werden Deepfakes erfolgreich verwendet, um Fehlinformationen zu verbreiten und das Leben anderer zu verletzen.
In Indien werden Deepfakes von hinduistischen Nationalisten eingesetzt, um Journalistinnen zu diskreditieren und zu Gewalt gegen sie aufzustacheln. Im Jahr 2018 wurde ein Journalist namens Rana Ayyub fiel zum Opfer zu einer solchen Fehlinformationskampagne, die ein Deepfake-Video ihres Gesichts enthielt, das über ein pornografisches Video gelegt wurde. Dies führte zu anderen Formen der Online-Belästigung und dem Androhung von körperlicher Gewalt.
In den USA wird Deepfake-Technologie oft verwendet, um nicht einvernehmliche Rachepornos zu erstellen. Wie berichtet von Vice, fragten viele Benutzer im mittlerweile verbotenen Deepfakes-Reddit-Forum, wie man Deepfakes von Ex-Freundinnen, Schwarmfreunden, Freunden und Klassenkameraden erstellt (ja, Kinderpornos). Das Problem ist so groß, dass Virginia jetzt alle Formen nicht einvernehmlicher Pornografie verbietet. inklusive Deepfakes.
Da Deepfakes immer überzeugender werden, wird die Technologie zweifellos für zweifelhaftere Zwecke verwendet. Aber es besteht die Möglichkeit, dass wir überreagieren, oder? Ist das nicht der natürlichste Schritt nach Photoshop?
Deepfakes sind eine natürliche Erweiterung von bearbeiteten Bildern
Selbst auf der grundlegendsten Ebene sind Deepfakes beunruhigend. Wir vertrauen darauf, dass Video- und Audioaufnahmen die Worte und Handlungen von Menschen ohne Voreingenommenheit oder Fehlinformationen erfassen. Aber in gewisser Weise ist die Bedrohung durch Deepfakes überhaupt nicht neu. Es existiert, seit wir angefangen haben, Fotografie zu verwenden.
Nehmen Sie zum Beispiel die wenigen Fotos, die es von Abraham Lincoln gibt. Die meisten dieser Fotografien (einschließlich der Porträts auf dem Penny und dem Fünf-Dollar-Schein) wurden gefälscht von einem Fotografen namens Mathew Brady, um Lincolns spindeldürre Erscheinung (insbesondere seinen dünnen Hals) zu verbessern. Einige dieser Porträts wurden auf eine Art und Weise bearbeitet, die an Deepfakes erinnert, wobei Lincolns Kopf über den Körpern „starker“ Männer wie Calhoun gelegt wurde (das Beispiel unten ist eine Radierung, kein Foto).
Atlas Obscura/Bibliothek des Kongresses
Das klingt nach einer bizarren Werbung, aber in den 1860er Jahren hatte die Fotografie eine gewisse „Wahrheit“, die wir heute für Video- und Audioaufnahmen behalten. Es galt als das genaue Gegenteil von Kunst –eine Wissenschaft. Diese Fotos wurden manipuliert, um absichtlich die Zeitungen zu diskreditieren, die Lincoln für seinen schwachen Körper kritisierten. Am Ende hat es funktioniert. Die Amerikaner waren beeindruckt von Lincolns Figur, und Lincoln selbst behauptete, dass Bradys Fotos „hat mich zum Präsidenten gemacht.“
Die Verbindung zwischen Deepfakes und der Fotobearbeitung des 19. Jahrhunderts ist seltsam beruhigend. Es bietet uns die Erzählung, dass diese Technologie zwar schwerwiegende Folgen hat, aber nicht völlig außerhalb unserer Kontrolle liegt. Aber traurigerweise, diese Erzählung kann nicht sehr lange halten.
Wir werden Deepfakes nicht für immer entdecken können
Wir sind es gewohnt, gefälschte Bilder und Videos mit unseren Augen zu erkennen. Es ist einfach, sich ein anzusehen Joseph Goebbels Familienporträt und Spruch, «Der Typ hinten hat etwas Seltsames.» Ein Blick auf Nordkoreanische Propagandafotos macht deutlich, dass die Leute ohne YouTube-Tutorials an Photoshop scheißen. Und so beeindruckend Deepfakes auch sind, es ist noch möglich einen Deepfake allein auf Sicht zu erkennen.
Aber wir werden Deepfakes nicht mehr lange entdecken können. Jedes Jahr werden Deepfakes überzeugender und noch einfacher zu erstellen. Du kannst einen Deepfake machen mit einem einzigen Foto, und Sie können KI wie verwenden Leiervogel Stimmen in weniger als einer Minute zu klonen. Hightech-Deepfakes, die gefälschtes Video und Audio verschmelzen, sind unglaublich überzeugend, selbst wenn sie erkennbare Figuren nachahmen wie Mark Zuckerberg.
In Zukunft werden wir möglicherweise KI, Algorithmen und Blockchain-Technologie einsetzen, um Deepfakes zu bekämpfen. Theoretisch könnte KI Videos scannen, um nach Deepfakes zu suchen.“Fingerabdrücke“ und Blockchain-Technologie, die auf Betriebssystemen installiert ist, könnte Benutzer oder Dateien kennzeichnen, die Deepfake-Software berührt haben.
Wenn Ihnen diese Anti-Deepfake-Methoden dumm klingen, dann treten Sie dem Club bei. Auch KI-Forscher bezweifeln, dass es eine echte Lösung für Deepfakes gibt. Je besser die Erkennungssoftware wird, desto besser werden auch Deepfakes. Irgendwann werden wir einen Punkt erreichen, an dem Deepfakes unmöglich zu erkennen sind, und wir werden uns um viel mehr Sorgen machen müssen als gefälschte Promi-Pornos und Nicolas Cage-Videos.