Facebook als Wirklichkeitenmaschine
Die großen sozialen Netzwerke sind Medien-Plattformen. Facebook, Twitter et al bieten ihren Nutzern die Infrastruktur zur Ausstrahlung eigener und fremder Inhalte. Dass diese Akteure – untereinander vernetzte Individuen, Unternehmen und Organisationen – als Herausgeber sozialer Medien für die Verbreitung dieser Inhalte Verantwortung tragen, wie sie auch von traditionellen Medien eingefordert werden muss, ist unbestritten. Ob die sozialen Netzwerke als Distributionsplattformen selbst auch als Medien mit entsprechender Verantwortung gelten, ist hingegen kontrovers.
Facebook-Gründer Mark Zuckerberg legte wiederholt – auch bei Hearings vor dem US-Kongress – die Position des Konzerns dar, nur als Mittler zu wirken – vergleichbar mit einem schwarzen Brett, auf dem jeder seine Botschaften weitgehend unzensuriert posten darf. Was im Rahmen der Meinungsfreiheit toleriert werden muss, sei Sache der Gesetze, nicht der Plattform. Allerdings verkauft Facebook auch Werbung auf reservierten Flächen und sortiert die angezeigten Meldungen nach einem Algorithmus, der aufmerksamkeitsstarke und bezahlte Mitteilungen bevorzugt. Durch diese Kuratierung der individuellen Timeline agiert Facebook jedenfalls in diesem Ausschnitt seines User-Interfaces als Medium. Mit der sachten Einführung journalistischer Standards, der gelegentlichen Einschränkung offensichtlicher Falschinformationen, Faktenprüfungen und einem selektiven Verbot von Werbeanzeigen (wie jüngst gegen Impfungen), setzt die Plattform jetzt einen weiteren kleinen Schritt Richtung Medienbetrieb.
Wohlmeinende Willkür
Die Reaktionen darauf wirken wohlwollend. Facebook nimmt seine Verantwortung endlich wahr und verbannt den verschwörungstheoretischen Mist von seiner Plattform. Was sollte man da schon kritisch anmerken?
Mir als Impfenthusiast (mit knapp zehn verabreichten Dosen dieses Jahr) könnte der Verzicht auf die Propaganda von Impfgegnern, die mir als Nicht-Zielgruppe übrigens gar nicht ausgespielt wird, persönlich nur recht sein. Gleiches gilt für den letztjährigen Entschluss Twitters keine politische Werbung zuzulassen. Was aus persönlicher Sicht ein Gewinn ist, reicht aber nicht, um als allgemeingültiger Maßstab zu gelten und wird auf einer prinzipiellen Ebene zu einem Problem. Facebook ist mit 2,7 Milliarden monatlich aktiven Nutzern längst zu einer ubiquitären Infrastruktur mit Monopolstellung geworden, was mit einer Teilnahmeberechtigung von Nutzern einhergehen könnte. Auch eine gut begründete Zensurierung einzelner Nutzer im öffentlichen Diskurs kann zur schiefen Ebene der Willkür werden. Impfgegner und jene, die mit Lügen politisch werben, verstoßen – mit Ausnahme der Holocaust-Leugner – in der Regel nicht gegen Gesetze. Das bedeutet umgekehrt nicht, dass die Plattformen jeden Inhalt zulassen müssen. Facebook kann als privates Unternehmen natürlich tun und lassen, was es will, ist aber gefordert, Regeln innerhalb des Erlaubten aufzustellen, die auch gesellschaftliche Normen reflektieren. Es blendet nackte Körperteile und Anti-Impfreklame aus und geht mittlerweile auch den Mittelweg, bedenkliche Inhalte von Faktencheckern überprüfen und markieren zu lassen. Auch das klingt zunächst gut, oder? Die Meinungsfreiheit bleibt gewahrt, indem Falschinformation einfach als solche markiert wird. Aber wirkt es dann nicht so, als wäre der Rest unproblematisch? Das kann zu einem Riesenproblem in der Grenzziehung werden. Was und wieviel wird denn geprüft? Warum löscht Facebook beispielsweise keine Seiten, die Homöopathie propagieren, obwohl es sich hier um Werbung für wirkungslose Mittel handelt, die effektive Therapien verhindern und in betrügerischer Absicht gehandelt werden? Ist das Ablehnen von Impfungen nun schlimmer oder weniger schlimm?
Geteilte Wirklichkeiten
Wenn Facebook zu einem Medium werden soll, das beginnt, journalistische Standards aufzugreifen, geht damit auch seine unzweifelhaft wertvolle Funktion als neutrale Plattform und Drehscheibe für Meinungsfreiheit verloren. Andererseits führt das ungeregelte Versprühen von Inhalten nachweislich zu bisher ungekannten gesellschaftlichen Problemen, Radikalisierungen sowohl im höchstpersönlichen Bereich, aber auch auf politischer Ebene durch Desinformation, Hetze bis zur Manipulation demokratischer Wahlen.
Die Bewirtschaftung der Unwahrheit ist in diesem Zusammenhang als Symptombekämpfung zu sehen, dem ein anderes Problem zu Grunde liegt, das soziale Plattformen erzeugt haben: Durch die positive Selektion starker Meinung zur Förderung von Aufmerksamkeit und folglich Werbeumsatz, kommt es zu sich selbst verstärkenden Effekten inhaltlicher Dosissteigerungen (Der englische Autor James Bridle nennt das “algorithmic radicalisation”.) und individualisierten Realitäten. Es gibt keine breit geteilte Öffentlichkeit der Massenmedien mehr, sondern fragmentierte, teilende Öffentlichkeiten. Für jeden von uns sehen Youtube, Facebook und Twitter anders aus. Neben den guten alten Filterblasen, die vorwiegend der Selbstbestätigung der Teilnehmer geschuldet sind, ergibt sich diese Form ideologischer Verengung über die Architektur der inhaltlichen Anreizsysteme der Plattformen. Teilnehmer und Nutzergruppen beginnen in inkompatiblen politischen und gesellschaftlichen Realitäten zu leben.
Diese Entwicklung ist den Plattformen und uns allen längst über den Kopf gewachsen. Die (Selbst-)Umwidmung der Plattformen in Medien hilft hierbei bestenfalls oberflächlich. Das Ziel der Herstellung einer geteilten Öffentlichkeit als möglichst naturgetreues Abbild einer gemeinsamen Wirklichkeit und Grundlage des demokratischen Diskurses kann nicht über den Versuch erreicht werden, zerteilte Öffentlichkeiten gleichzuschalten und verzerrte Realitäten auszublenden.