Brad Smith fordert einen branchenweiten Plan zur Bekämpfung extremistischer Inhalte
Microsoft hat die Technologieindustrie aufgefordert, einen einheitlichen Ansatz für gewalttätige, extremistische Inhalte festzulegen, nachdem Anfang des Monats ein weißer Rassist das abscheuliche Massaker an Muslimen in der Moschee in Christchurch, Neuseeland, begangen hat. Mindestens 50 Menschen wurden brutal ermordet, viele andere wurden verletzt, und das vom Schützen live auf Facebook übertragene Filmmaterial wurde auf magenverändernder Ebene viral.
In einem Blogbeitrag am Sonntag schrieb Microsoft-Präsident Brad Smith: „Worte allein reichen nicht aus. Im gesamten Technologiesektor müssen wir mehr tun. Vor allem für diejenigen von uns, die soziale Netzwerke oder digitale Kommunikationsmittel oder Plattformen betreiben, die zur Verstärkung der Gewalt eingesetzt wurden, ist es klar, dass wir von den Ereignissen in Christchurch lernen und neue Maßnahmen ergreifen müssen“.
In einem Schreiben, dass Microsoft bereits festgestellt hatte, wie seine Dienste zur Verbreitung des Videos genutzt wurden, und das Unternehmen „Verbesserungen identifiziert hatte, die wir vornehmen können, und sich umgehend um deren Umsetzung bemüht“, fügte Smith hinzu, „Letztendlich müssen wir einen branchenweiten Ansatz entwickeln, der prinzipientreu, umfassend und effektiv ist. Der beste Weg, dies zu erreichen, ist, schnell neue und konkrete Schritte zu unternehmen, die auf dem Bestehenden aufbauen.“
Während Smith in der Post bestätigte, dass „noch niemand alle Antworten hat“, schlug er mehrere konkrete Schritte vor. Erstens schlug er Verbesserungen der Hashing-Technologie vor – eine Technik, bei der einer bestimmten Datei, wie beispielsweise einem Foto oder Video, eine eindeutige Kennung zugewiesen wird, mit der Kopien von ihr verfolgt werden können, die an anderer Stelle hochgeladen wurden. Smith schrieb, dass dieses System zwar effektiv war, aber die Plattformen in der Lage sein sollten, bearbeitete Versionen dieser Videos automatisch zu erfassen. Er schlug auch vor, dass Browser sichere, suchähnliche Funktionen enthalten sollten, um „den Zugriff auf solche Inhalte zu blockieren, wenn Menschen versuchen, sie anzuzeigen und herunterzuladen“.
Smith fügte hinzu, dass sich Unternehmen, die Webplattformen betreiben, auf eine Kategorie von „vereinbarten „bestätigten Ereignissen“ einigen sollten, die eine Zusammenarbeit zwischen Unternehmen auslösen werden, und forderte die Technologie-Community auf, eine „gesündere Online-Umgebung“ breiter zu fördern.
Einige dieser Ideen sind wahrscheinlich umstritten – nicht nur in Teilen des Internets, die den Regeln gegen Hassreden, Aufrufe zur Gewalt und extremistische Inhalte feindlich gesinnt sind. Zum einen funktioniert das Hashing durch die Identifizierung bestimmter Inhalte, die leicht gespielt werden können, indem man die Inhalte vor dem Hochladen bearbeitet. Die Identifizierung von bearbeiteten Versionen eines Videos ist schwieriger, und da die automatisierten Systeme, die viele große Plattformen zur Verwaltung von Content-Troves verwenden, ein Chaos sind, könnte man vorsichtig sein, dass ein solches System relativ gutartige Inhalte durch Design oder Zufall bereinigen könnte.
Ein theoretisches Beispiel: Eine Plattform, die Filmmaterial von Nachrichtensendungen schrubbt, die Ausschnitte aus einem terroristischen Anschlag enthalten. Der politische Medienkritiker Jack Schafer hat beispielsweise kürzlich das Christchurch-Video mit den Aufnahmen der Anschläge vom 11. September 2001 auf das World Trade Center verglichen.
Schafer’s ist vielleicht kein ganz schlüssiger Vergleich; das Filmmaterial der Anschläge vom 11. September 2001 wurde von Unschuldigen aufgenommen, während das Filmmaterial von Christchurch ausdrücklich als terroristische Propaganda gedacht war. Aber die Linie ist nicht immer sauber, was in Ordnung ist, und eine Lektion der letzten Jahre ist, dass große Technologieunternehmen nicht immun gegen politischen Druck sind, wenn sie diese Entscheidungen treffen. (Nebenbei bemerkt, eine weitere Möglichkeit ist, dass diese Technologie genutzt werden könnte, um weitere drakonische Maßnahmen zur Durchsetzung des Urheberrechts zu ergreifen.)
Umgekehrt scheint Smiths sicherer, suchähnlicher Vorschlag weniger problematisch zu sein – die Browser erlauben es den Benutzern in der Regel, mit markierten Inhalten auf eigenes Risiko fortzufahren. Und inzwischen ist es offensichtlich, dass seine Forderung, dass Technologieunternehmen mehr Verantwortung für ihre Plattformen übernehmen sollten, gerechtfertigt ist, da sie routinemäßig behaupten, dass es aufgrund ihrer Größe unmöglich ist, Inhalte zu moderieren…. selbst wenn sie die Gewinne einbringen.
Eine Studie vom letzten Jahr zeigte, dass der rechtsextreme und weiße Rassist YouTubers von Influencer-Techniken profitiert hat, um sich weit und breit zu verbreiten. Facebook und Google wurden wegen der Verbreitung von Anti-Vax-Verschwörungstheorien kritisiert. Hassreden wüten nicht nur an Orten wie 4chan und 8chan, sondern auch an Mainstream-Webzielen wie Reddit. Twitter verifizierte vitriolische Rassisten wie Richard Spencer und zog sich erst nach intensiver Medienprüfung zurück (und Leute wie der berüchtigte weiße Rassist und ehemalige Ku Klux Klan Führer David Duke twittern weiterhin täglich). Wie die Redaktion der New York Times letztes Jahr in einem op-ed schrieb, gibt es einige Hinweise darauf, dass das grundlegende Design von Social Media toxische Ideen fördert.
Es gibt offensichtlich keine einfache Antwort auf diese Fragen! Aber auf der anderen Seite bedeutet das nicht, dass sie so hart sind, dass es gerechtfertigt ist, die Hände von ihnen zu waschen. (In einem aktuellen MarketPlace Tech-Podcast schlug der Forscher der Harvard Kennedy School und der ehemalige Facebook-Privatsphäre- und Politikmitarbeiter Dipayan Ghosh vor, extremistische Inhalte wie Junk-Mails zu behandeln.) Es gibt keine binäre Wahl zwischen einem totalitären Internet und einer riesigen Senkgrube. Das ist wahrscheinlich das, was die schlimmsten Leute online wollen, dass du denkst.