Der Tages-Anzeiger gewährt einen Einblick in das Innenleben von Facebook und den Umgang mit Falsch- und Desinformation.
Der Artikel beleuchtet die Psyche von Mark Zuckerberg und der Silicon Valley Community, die auf einmal ins Zentrum von Macht und Politik geraten ist, ohne je dorthin zu wollen oder die Erfahrung darin zu haben, wie man damit verantwortungsvoll umgehen kann.
Zuckerberg macht sich Entscheidungen wie den Rauswurf von Donald Trump nicht leicht. Alle, die ihn besser kennen, sagen, dass er ein Grübler ist. Auch seine Kritiker, wie die gefürchtete Silicon-Valley-Journalistin Kara Swisher. «Er quält sich zutiefst mit jedem seiner Schritte», schrieb sie gleich nach der Entscheidung in der «New York Times». «Jeder, der auch nur ein wenig Zeit mit Herrn Zuckerberg verbracht hat, weiss, dass er sich mit seiner immensen Macht unwohl fühlt.» …
Derzeit durchläuft Facebook wie die gesamte Digitalindustrie eine Phase der Einsicht. Zuckerberg merkt dabei, dass er als studierter Ingenieur von Macht, Politik und ihren Folgen keine Ahnung hat. Es ist ja auch ungewollte Macht. Im doppelten Sinne. Die Welt will seinen Einfluss nicht, und er selbst wollte die Macht eigentlich auch nie. Marktmacht ja. Die bringt das Milliardenkapital, mit dem man die Welt verändern kann. Politische Macht ist dagegen – mühsam, langsam, oft grausam.
Also hat er sich Unterstützung an Bord geholt, zum Beispiel Nick Clegg, früher omnipräsenter Vizepremier und Parteichef der Liberal Democrats, als David Cameron Premierminister von Grossbritannien war. Er ist Mitglied des Oversight Board,
eine Art oberster Gerichtshof innerhalb des Konzerns, der unabhängig von der Geschäftsleitung Entscheidungen überprüfen und entweder bestätigen oder kippen soll. Prominente Rechtswissenschaftler wie Michael McConnell von der Stanford University sind beim Oversight Board dabei, Aktivisten wie die jemenitische Friedensnobelpreisträgerin Tawakkol Karman, Journalisten wie der ehemalige Chefredaktor des «Guardian» Alan Rusbridger. Ausgedacht hat sich das Oversight Board Noah Feldman, Verfassungsrechtler an der Harvard Law School.
Die russische Einmischung in den Wahlkampf 2016 und der Cambridge-Analytica-Skandal liessen Zuckerberg «policy teams» ins Leben rufen.
Ganze Abteilungen und Subunternehmer waren fortan damit beschäftigt, Inhalt zu überwachen, Bots zu stoppen, sich die einzelnen Länder und die Konflikte dort noch genauer anzusehen. 97 Prozent der Eingriffe, die Facebook vornimmt, werden von Künstliche-Intelligenz-Algorithmen vorgenommen. Die finden Porno- und Gewaltbilder, klare Hassbotschaften und Lügen, alles, was sich automatisieren lässt.
Wenn es aber um Wertefragen geht, klar, dann müssen echte Menschen ran. 35’000 sind es mittlerweile, die da auf und für Facebook kontrollieren. Auch für diesen hausinternen Wertekanon hat Zuckerberg sich Profis geholt. Chefin seines «policy teams» ist Monika Bickert. Juraabschluss in Harvard, elf Jahre stellvertretende Staatsanwältin in Washington und Chicago, vier Jahre Justiziarin an der US-Botschaft in Bangkok.
Bickert ist bekannt dafür, dass man ihr nichts vormachen kann. Ihr Policy Team ist im Gegensatz zum Oversight Board eine operative Abteilung des Konzerns. Hier werden die Richtlinien entwickelt, die in Dienstanweisungen umgesetzt werden. Das klingt in der Theorie recht hehr. Aber wie sieht die Arbeit in der Praxis aus?
Die Mitarbeiterinnen und Mitarbeiter treffen sich alle zwei Wochen zum grossen «policy forum», in dem die Richtlinien und Strategien festgelegt werden.
200 Mitglieder hat Bickerts Team, verteilt über elf Büros in aller Welt. Die legen mithilfe der Experten die Richtlinien fest, die jederzeit angeglichen werden, wenn es die Lage erfordert. «Unser Engagement für die freie Meinungsäusserung steht an erster Stelle», sagt Monika Bickert.
Ihr Chef, Nick Clegg, hat das beim Interview etwas derber formuliert: «In einer freien Gesellschaft steht es den Menschen frei, Mist zu reden, und die sozialen Medien sind nicht dazu da, die Menschen von ihrem Vergnügen, Mist zu reden, reinzuwaschen.» Aber: «Es ist allerdings unsere Pflicht, Dinge zu entfernen, die Schaden anrichten, und Fehlinformationen zu identifizieren.» Deswegen gibt es den internen Wertekatalog, der auf Authentizität, Sicherheit, Privatsphäre und Menschenwürde basiert. …
Alle drei Monate veröffentlicht Facebook einen «Transparency Report». Da findet man die weltweiten Zahlen zu Bickerts Arbeit. Im ersten Quartal 2021 schritten die Teams und Algorithmen gegen 8,8 Millionen Inhalte ein, die den Tatbestand des Mobbings und der Belästigung erfüllten, gegen 31,8 Millionen, die die Standards zur Darstellung von Sexualität verletzten, gegen Terrorismus und Hetze schritten sie 9 Millionen Mal ein. Tendenz bei diesen Themen steigend. Nur «hate speech» und Fake News nahmen ab. Ob das etwas damit zu tun hat, dass Donald Trump da nicht mehr als Treiber im Netz ist, gilt als noch nicht hinlänglich bewiesen.
Trotz dieser Bemühungen gibt es noch viel zu tun. Eine hausinterne Untersuchung von Facebook ergab, dass 64 Prozent aller Nutzer, die sich radikalen Facebook-Gruppen anschlossen, diese von der Plattform selbst empfohlen bekamen. Die Facebook-Leitung weigerte sich, das zu beheben.
Laut Sinan Aral, Massachusetts Institute of Technology (MIT) verbreiten sich Falschnachrichten in sozialen Medien sechs Mal schneller als seriöse Nachrichten.
Sein Buch «The Hype Machine» ist eine fundierte Abrechnung mit der vor allem politischen Zerstörungskraft sozialer Medien. Grundlage für das Buch war seine Studie, die auf Twitter-Daten basiert und in der er nachwies, dass sich Falschnachrichten in sozialen Medien sechs Mal schneller ausbreiten und rund eintausend Mal mehr Menschen erreichen als seriöse Nachrichten. Hauptgrund dafür ist der Überraschungseffekt, der beste Treiber für Aktivität im Netz.
Letzteres ist der Grund, weshalb die erste Frage zur Identifikation von Desinformation lautet: «Gibt es überraschende und stark emotionalisierende Bilder oder Informationen?». Nicht selten ist dies ein zuverlässiger Hinweis auf gezielte Desinformation.
Bei ReclaimTheFacts machen wir uns das gelegentlich zunutze, indem wir korrekten Informationen unter ähnlich emotionalisierende Überschriften verpacken. Denn Fakten alleine sind langweilig.
Es gibt noch viel zu tun. Let’s #ReclaimTheFacts