Falschmeldungen auf Facebook: Kein einfaches Problem

Facebook

Nach der Wahl von Donald Trump zum Präsidenten der Vereinigten Staaten ist der Jammer groß und Facebook sieht sich plötzlich starker Kritik ausgesetzt: Die vielen Falschmeldungen („Fake News“) im Newsfeed hätten die Wahl negativ beeinflusst. Mark Zuckerberg dementiert das standhaft. Aber liegt er auch richtig?

Angeblich soll der Papst zur Wahl von Donald Trump aufgerufen haben. Eine entsprechende Meldung verbreitete sich kurz vor der Präsidentschaftswahl auf Facebook und wurde dort 960.000 mal geteilt. Eine prominente Gegendarstellung schaffte es nicht annähernd so weit, sie wurde nur 34.000 mal geteilt. Ist dieses Beispiel ein Beleg dafür, dass Falschmeldungen auf Facebook ein leichtes Spiel haben? Oder handelt es sich nur um eine bemerkenswerte Ausnahme?

Mark Zuckerberg will keine Anzeichen dafür sehen, dass sein Netzwerk die Wahl in irgendeiner Weise beeinflusst hätte. In einer ausführlichen Stellungnahme stellt er fest, dass 99 % aller Inhalte auf Facebook authentisch seien: „Only a very small amount is fake and hoaxes.“ Doch in den Medien wird ihm nicht geglaubt. Zwar kann niemand seine Aussagen direkt widerlegen, weil es an genauen Untersuchungen und statistisch unterlegten Daten fehlt, doch die Wahrnehmung ist eine andere:

Screenshot Andrew Golis Twitter

Pikanterweise hat BuzzFeed nun erfahren, dass auch innerhalb von Facebook der Meinung von Mark Zuckerberg teilweise stark widersprochen wird. Es soll sogar eine inoffizielle „Task Force“ geben, die sich um Vorschläge zur Lösung des Problems bemüht. Was aber ist genau das Problem von Facebook?

(1) Auf Facebook spielt es traditionell keine große Rolle was für Inhalte geteilt werden, sofern nicht „nackte Tatsachen“ gezeigt werden. Bei entblössten Brüsten gibt sich Facebook extrem prüde, nur stillende Mütter, deren Brustwarzen nicht zu sehen sind, kommen durch. Bei Texten hingegen ist das anders: Facebook zensiert hier praktisch nicht, so dass Falschmeldungen, Verleumdungen und sogar rassistische Inhalte zunächst einmal durchgehen. Facebook setzt darauf, dass problematische Inhalte von der Community, also den Nutzern von Facebook, gemeldet werden. Erst dann wird Facebook selbst aktiv und entscheidet auf der Basis der hauseigenen Gemeinschaftsstandards, ob zensiert wird oder nicht.

In den Anfangsjahren von Facebook gab es überhaupt keine Regeln in Bezug auf geteilte Inhalte und sie waren auch nicht notwendig. Das Netzwerk war, ähnlich wie Twitter, über mehrere Jahre ein relativ homogenes Insider-Medium, das von kontroversen politischen Debatten verschont blieb – und von den klassischen Medien („Presse“) nur von außen kritisch beäugt wurde. Doch das änderte sich, nicht zuletzt weil Barack Obama 2008 soziale Netzwerke erstmals und systematisch für seinen Wahlkampf nutzte. Zudem stieg die Zahl der Nutzer bei Facebook immer weiter an, so dass heute ein sehr breites Meinungsspektrum bzw. alle nur denkbaren Weltanschauungen vertreten sein dürften.

In Deutschland kam Facebook in den letzten Jahren wegen eindeutig rechtsradikaler Inhalte ins Gerede und damit auch ins Visier der Politik. Kurios dabei war, dass solche Inhalte zwar von der Community beanstandet und gemeldet wurden, diese von Facebook aber nicht immer entfernt wurden – weil sie angeblich nicht gegen die Gemeinschaftsstandards verstoßen würden. Seither fordert Justizminister Heiko Maas (SPD) Facebook immer wieder dazu auf, Hassreden und Trolle wirksamer auszubremsen. Viel passiert ist seitens Facebook aber nicht. Neu ist jetzt nur, dass das Unternehmen mit der Wahl von Donald Trump zum Präsidenten auch im eigenen Land stärker unter Druck gerät.

(2) Facebook ist hier in einer schwierigen Lage. Während Algorithmen bei Fotos inzwischen Gesichter identifizieren und entblösste Körperteile gut als solche erkennen können, tut sich die künstliche Intelligenz bei Texten sehr viel schwerer. Es gibt schlicht noch keine Algorithmen, mit deren Hilfe sich Falschmeldungen, Hassreden oder Verleumdungen in jedem Fall erkennen und in der Folge sofort zensieren ließen. Zwar können Signalwörter identifiziert und damit Texte kategorisiert werden, doch das Raster ist noch sehr grob: Die Algorithmen können noch nicht unterscheiden, ob ein Text tatsächlich rechtsradikale Propaganda darstellt oder ob er diese kritisch reflektiert und widerlegt. Noch schwieriger ist die Lage bei Satire bzw. Falschmeldungen. Hier dürfte es noch auf lange Sicht keine Abhilfe geben, weil Algorithmen schlichtweg nicht „zwischen den Zeilen“ lesen können und ihnen zum Widerlegen von Falschmeldungen ein breites Hintergrundwissen fehlt.

Zwar sieht Tim O’Reilly eine Chance darin, Algorithmen weiter zu entwickeln, so wie das Google auch für seine Suchmaschine tun musste. Doch Google muss bis heute nicht in der Lage sein, Wahres von Falschem exakt zu trennen, sondern muss nur verschiedene Quellen nach Glaubwürdigkeit und Aktualität sortieren. Dass auch das nicht immer gelingt, zeigt das folgende Beispiel:

Zudem sei hier daran erinnert, dass Suchmaschinenoptimierung (SEO) bis heute eine gefragte und profitable Branche darstellt, die zeigt, dass auch die Algorithmen von Google nicht allwissend sind, sondern durchaus manipuliert werden können.

(3) Ein großes Problem auf Netzwerken wie Facebook und Twitter sind gar nicht einmal Falschmeldungen an sich, sondern die Netzwerkeffekte, die sich daraus ergeben können. Weil soziale Netzwerke sehr viele Menschen miteinander verbinden, können sich Meldungen leicht und schnell viral verbreiten („virale Effekte“). Dazu kommt im Fall von Facebook noch die verstärkende Wirkung des Algorithmus: Inhalte, die dieser als populär identifiziert, werden in Bezug auf ihre Reichweite unterstützt. Die Reichweite solcher Inhalte steigt also weiter an. Damit lässt sich erklären, warum die Meldung, dass der Papst Donald Trump unterstützen würde, so weit kam: Einerseits liegt es an den viralen Effekten und andererseits an der Mitwirkung des Algorithmus.

Screenshot Bobby Goodlatte

Darüber hinaus wird an diesem Beispiel deutlich, wie untauglich der Ansatz von Facebook ist, problematische Inhalte allein von der Community identifizieren zu lassen. Am Beginn einer viralen Verbreitung bestimmter Inhalte stehen in der Regel eng begrenzte Freundeskreise, die eine gewisse Affinität zu solchen Inhalten haben. Problematische Inhalte fallen hier auf fruchtbaren Boden und werden natürlich nicht an Facebook gemeldet. Statt dessen wird, was ins eigene Weltbild passt, weiter geteilt. Erst wenn der Empfängerkreis immer größer und damit zwangsläufig weniger homogen wird, kommen auch kritische Leser damit in Berührung. Dann aber dürfte es in den meisten Fällen schon zu spät sein, die Lawine noch auszutreten. Der virale Effekt ist in vollem Gange, Gegenmaßnahmen bringen nicht mehr viel, der Schaden ist schon angerichtet.

(4) Das führt zum nächsten Punkt, dem Verhalten von Gruppen. Der Präsidentschaftswahlkampf hat sehr deutlich gezeigt, dass in bestimmten Kreisen nicht nur die Botschaften von Donald Trump sehr gut ankamen, diese Kreise waren auch regelrecht immun gegenüber sachlicher Kritik an Trump oder dem Entlarven seiner Lügen. Seine Fans wollten gar nichts anderes hören, die Gegenseite war für sie von vornherein diskreditiert. Trump musste einfach nur seinem Narrativ treu bleiben. In ähnlicher Weise immunisiert sich in Deutschland die Pegida-Bewegung mit dem Schlagwort „Lügenpresse“ gegen jegliche anderslautende Äußerung. Solche Gruppen finden auf Netzwerken wie Facebook und Twitter ideale Bedingungen, weil sie hier weitgehend unter sich bleiben („Filter Bubble“) und dabei von der viralen Verbreitung passender Nachrichten (unabhängig von deren Wahrheitsgehalt) profitieren können. Vorschläge wie jene von Jeff Jarvis, dagegen mit Fakten, Fakten-Checks, Kontext, Erklärungen, Bildung, Berichterstattung und Beobachten („watch-dogging“) zu arbeiten, sind gut gemeint, wirken aber naiv angesichts der ideologischen Spaltung, die in den USA und in Europa zunehmend sichtbar wird.

So produziert das Nachrichtenportal „American News“ munter weiter Falschmeldungen, obwohl der Wahlkampf in den USA längst gelaufen ist. Die ideologischen Grabenkämpfe gehen eben weiter und viele Trump-Anhänger würden jetzt gern Hillary Clinton unter Anklage bzw. im Gefängnis sehen (Screenshot vom 15.11.2016):

Facebook Falschmeldungen

(5) Immerhin ein Lichtblick: Sowohl Google als auch Facebook wollen den Betreibern von Nachrichtenseiten, die überwiegend oder nur Falschmeldungen publizieren, den Geldhahn zudrehen. Werbung soll auf diesen Websites ab sofort nicht mehr möglich sein. Dieser Schritt war längst überfällig, denn nicht erst im amerikanischen Präsidentschaftswahlkampf schufen findige Köpfe auf der Basis von Falschmeldungen ein für sie profitables Geschäftsmodell: Einfach eine Website erstellen, Falschmeldungen erfinden und dazu dann Google AdSense einbinden. Wie BuzzFeed herausfand, sollen in Mazedonien zuletzt über 100 solcher Websites in Betrieb gewesen sein. Sie alle machten Wahlkampf für Donald Trump. In Kanada machten die „Hot Global News“ von sich reden. Zwei Jugendlich konnten eigenen Angaben zufolge mit ihren „Nachrichten“ bzw. Google AdSense einige Tausend kanadische Dollar pro Monat verdienen. Ihre Ausrede: Es sei ja nur Satire.

(6) Praktisch frei geblieben von Vorwürfen in diesem Kontext ist die Wikipedia. Das spendenfinanzierte Online-Lexikon kann auf seine Autoren und Redakteure zählen, die Falschmeldungen oder Verschwörungstheorien schon im Ansatz ziemlich wirksam unterbinden. Wäre das ein Modell für Facebook? Vielleicht. Allerdings müsste Mark Zuckerberg dafür über seinen eigenen Schatten springen und sich von der Aussage lösen, Facebook sei nur ein Technologie-Unternehmen. Zudem wäre die redaktionelle Kontrolle aller Inhalte sehr personalintensiv, was die Gewinnmargen des Unternehmens empfindlich beeinflussen würde. Facebook wird deshalb versuchen auf Zeit zu spielen, um Lösungen auf der Basis von Algorithmen entwickeln zu können.

Fazit: Ohne Zweifel steht Facebook hier vor einer Herkulesaufgabe. Sollte das Unternehmen versuchen, allen Falschmeldungen den Boden zu entziehen, würde es sehr wahrscheinlich eine Menge User verlieren. Denn Nachrichten können eben auch einen ideologischen Überbau transportieren, der in bestimmten Kreisen auf starke Resonanz stösst. Am Ende lautet die Kernfrage, wie eine offene Gesellschaft mit Propaganda und Ideologien umgehen möchte. In Deutschland konnte man die AfD lange als Randphänomen abtun und die damit verbundenen medialen Probleme ausblenden. Mit dem Wahlsieg von Donald Trump in den USA stellen sich die entsprechenden Fragen umso dringlicher. Wie halten wir es als Gesellschaft mit der Wahrheit?

Anmerkung vom Mai 2017: Der oben als Screenshot dargestellte Tweet von Andrew Golis wurde inzwischen gelöscht.