Deepfake-Propagranda ist kein wirkliches Problem
Wenn Sie im letzten Jahr die technischen Nachrichten verfolgt haben, haben Sie wahrscheinlich von deepfakes gehört, dem weit verbreiteten, maschinenlesbaren System zum Austausch von Gesichtern und Doktorvideos. Die Technologie, die Ende 2017 erstmals von Motherboard berichtet wurde, schien nach Jahren verwirrender Fehlinformationskampagnen wie ein beängstigendes Omen. Die Deepfake-Panik breitete sich in den folgenden Monaten immer weiter aus, mit alarmierenden Artikeln von Buzzfeed (mehrmals), The Washington Post (mehrmals) und The New York Times (mehrmals). Es ist nicht übertrieben zu sagen, dass viele der bekanntesten Schriftsteller und Publikationen des Journalismus 2018 damit verbracht haben, uns zu sagen, dass diese Technologie eine unmittelbare Bedrohung für den öffentlichen Diskurs war, wenn nicht sogar die Wahrheit selbst.
Vor kurzem hat sich dieser Alarm auf den Kongress ausgeweitet. Senator Ben Sasse (R-NE) drängt derzeit auf ein Gesetz, um die Nutzung der Technologie zu verbieten, und beschreibt sie als „etwas, das die Nachrichtendienste nachts wach hält“. Um Sasse sagen zu hören, ist diese Video-Manipulationssoftware geopolitisch gefährlich und erfordert ein schnelles und entschlossenes Handeln des Kongresses.
Aber mehr als ein Jahr nachdem die ersten Fälschungen auf Reddit auftauchten, ist diese Bedrohung nicht eingetreten. Wir haben viele öffentliche Demonstrationen gesehen – vor allem ein Buzzfeed-Video, in dem Jordan Peele den ehemaligen Präsidenten Obama verkörperte – aber Journalisten scheinen mit der Technologie besser vertraut zu sein als Trolle. Twitter und Facebook haben Zehntausende von gefälschten Accounts aus Troll-Kampagnen enttarnt, aber bisher haben diese gefälschten Accounts kein einziges Deepfake-Video produziert. Das nächste, was wir gesehen haben, ist ein kurzlebiges Anti-Trump-Video in Belgien, aber es war eher eine verwirrende politische Anzeige als eine Chaos-Kampagne. (Es wurde z.B. von einer bekannten politischen Gruppe öffentlich gesponsert und mit After Effects erstellt.) Die vorhergesagte Welle politischer Deepfakes hat sich nicht verwirklicht, und zunehmend scheint die Panik um die von der KI unterstützte Propaganda wie ein Fehlalarm zu wirken.
Das Schweigen ist besonders bedauerlich, weil politische Trolle noch nie so aktiv waren. Während der Zeit, in der deepfake tech zur Verfügung stand, haben Fehlinformationskampagnen die französischen Wahlen, die Müller-Untersuchung und zuletzt die demokratischen Vorwahlen zum Ziel gehabt. Sektiererische Unruhen in Sri Lanka und Myanmar wurden durch gefälschte Geschichten und Gerüchte angeheizt, die oft bewusst fabriziert wurden, um Hass gegen gegnerische Gruppen zu schüren. Trollkampagnen aus Russland, Iran und Saudi-Arabien haben durch Twitter gewütet und versucht, die Opposition zum Schweigen zu bringen und Gegner zu verwirren.
In jedem dieser Fälle hatten die Angreifer das Motiv und die Ressourcen, ein Deepfake-Video zu produzieren. Die Technologie ist preiswert, leicht verfügbar und technisch unkompliziert. Aber angesichts der Möglichkeit, Videobeweise zu erstellen, scheint jede Gruppe entschieden zu haben, dass es die Mühe nicht wert war. Stattdessen sahen wir Nachrichtenartikel aus ganzem Stoff oder Videos, die bearbeitet wurden, um eine unheimliche Bedeutung zu erhalten.
Es ist eine gute Frage, warum Deepfakes nicht als Propaganda-Technik abgelöst wurden. Ein Teil des Problems ist, dass sie zu einfach zu verfolgen sind. Die vorhandenen Deepfake-Architekturen hinterlassen vorhersagbare Artefakte auf verfälschtem Video, die für einen maschinell lernenden Algorithmus leicht zu erkennen sind. Einige Erkennungsalgorithmen sind öffentlich zugänglich, und Facebook verwendet seit September ein eigenes proprietäres System, um nach verfälschten Videos zu filtern. Diese Systeme sind nicht perfekt, und es entstehen regelmäßig neue Filter-Weichen-Architekturen. (Es gibt auch das ernsthafte politische Problem, was zu tun ist, wenn ein Video den Filter auslöst, da Facebook nicht bereit war, ein pauschales Verbot zu verhängen.)
Aber selbst mit den Einschränkungen der Deepfake-Filter könnten sie ausreichen, um politische Trolle von der Taktik fernzuhalten. Das Hochladen eines algorithmisch verzerrten Videos wird wahrscheinlich die Aufmerksamkeit von automatisierten Filtern auf sich ziehen, während herkömmliche Filmbearbeitung und offensichtliche Lügen dies nicht tun. Warum das Risiko eingehen?
Es ist auch nicht klar, wie nützlich Deepfakes für diese Art von Trollkampagne sind. Bei den meisten Operationen, die wir bisher gesehen haben, ging es mehr darum, das Wasser zu verschmutzen, als überzeugende Beweise für eine Klage zu liefern. Im Jahr 2016 war eines der deutlichsten Beispiele für gefälschte Nachrichten der Facebook-getankte Bericht, dass Papst Francis Donald Trump unterstützt hatte. Es war weit verbreitet und völlig falsch, das perfekte Beispiel für gefälschte Nachrichten laufen Amok. Aber die gefälschte Geschichte bot keinen wirklichen Beweis für die Behauptung, nur einen flüchtigen Artikel auf einer sonst unbekannten Website. Es war nicht schädlich, weil es überzeugend war; die Leute wollten es nur glauben. Wenn Sie bereits denken, dass Donald Trump Amerika auf den Weg Christi führt, wird es nicht viel kosten, Sie davon zu überzeugen, dass auch der Papst dies denkt. Wenn Sie skeptisch sind, wird ein manipuliertes Video einer päpstlichen Adresse Ihre Meinung wahrscheinlich nicht ändern.
Das offenbart einige unbequeme Wahrheiten über die Medien und warum die USA überhaupt so anfällig für diese Art von Manipulation waren. Wir betrachten diese Trollkampagnen manchmal als das informative Äquivalent zur Lebensmittelvergiftung: schlechte Beiträge zu einem leichtgläubigen, aber im Grunde genommen rationalen System. Aber Politik ist mehr Stammesangelegenheiten als das, und Nachrichten sind viel mehr als nur Informationen zu vermitteln. Die meisten Troll-Kampagnen konzentrierten sich eher auf Zugehörigkeiten als auf Informationen und trieben das Publikum in immer mehr Fraktionslager. Video hilft dabei nicht; wenn überhaupt, dann tut es weh, indem es das Gespräch in unwiderlegbaren Fakten begründet.
Es gibt immer noch echten Schaden durch Deepfake-Techniken, aber es passiert in der Pornografie, nicht in der Politik. Dort begann die Technologie: Motherboards erste Geschichte über Deepfakes handelte von einem Reddit-Benutzer, der Gal Gadots Gesicht auf den Körper einer Pornodarstellerin klebte. Seitdem haben die schäbigeren Ecken des Webs weiterhin Frauen ohne Zustimmung in Sexfilmmaterial eingefügt. Es ist eine hässliche, schädliche Sache, besonders für alltägliche Frauen, die von Belästigungskampagnen betroffen sind. Aber die meisten Deepfake-Berichte haben Pornografie als eine peinliche Nebensache zum Schutz des politischen Diskurses behandelt. Wenn das Problem unkonventionelle Pornos sind, dann konzentriert sich die Lösung mehr auf individuelle Belästiger und Ziele als auf das von Sasse vorgeschlagene pauschale Verbot. Es deutet auch darauf hin, dass es in der Deepfake-Story um frauenfeindliche Belästigung und nicht um geopolitische Intrigen geht, mit weniger offensichtlichen Auswirkungen auf die nationale Politik.
Einige mögen argumentieren, dass die Deepfake-Revolution noch nicht stattgefunden hat. Wie jeder Tech werden die Video-Doktorierungsprogramme jedes Jahr ein wenig ausgefeilter. Die nächste Version könnte immer die Probleme lösen, die sie zurückhalten. Solange es schlechte Akteure und verfügbare Instrumente gibt, sagen Befürworter, werden sich die beiden schließlich überschneiden. Die zugrunde liegende Logik ist so überzeugend, dass es nur eine Frage der Zeit ist, bis die Realität aufholt.
Sie haben vielleicht Recht. Morgen könnte eine neue Welle von politischen Deepfakes auftauchen, um mir zu beweisen, dass ich falsch liege – aber ich bin skeptisch. Wir haben schon seit langem die Werkzeuge, um Videos und Fotos zu erstellen. Es wurde sogar schon früher in politischen Kampagnen verwendet, vor allem in einem gefälschten John-Kerry-Foto, das während der Kampagne 2004 verbreitet wurde. KI-Tools können diesen Prozess einfacher und zugänglicher machen, aber er ist bereits einfach und zugänglich. Wie die unzähligen Demos zeigten, sind Deepfakes bereits in Reichweite für jeden, der im Internet Ärger machen will. Es ist nicht so, dass die Technik noch nicht bereit ist. Es ist einfach nicht nützlich.