Skip to content →

Warum Facebook seine Macht mit uns teilen muss [KOMMENTAR]

Facebook, Twitter, Google & Co. sind zum Knotenpunkt der weltweiten Informationen geworden. Es wird Zeit, dass wir uns konkret mit ihrer Verantwortung für eine demokratische Gesellschaft auseinandersetzen.

Für Facebook-Chef Mark Zuckerberg konnte der Einfluss seines Netzwerks vor kurzem gar nicht klein genug sein. Auf der Techonomy-Konferenz in Kalifornien sagte Zuckerberg, es sei „verrückt“ zu glauben, dass Falschmeldungen, die während des amerikanischen Präsidentschaftswahlkampfs über Facebook verbreitet worden seien, die US-Wahl in die eine oder andere Richtung beeinflusst hätten. Der Facebook-Chef, ganz bescheiden ob der Macht seines Netzwerks.

Das war vor rund zweieinhalb Jahren noch anders.

Im Juni 2014 veröffentlichten zwei Wissenschaftler der amerikanischen Cornell University die Ergebnisse eines Experiments, das sie gemeinsam mit Facebook aufgesetzt hatten. Der Grundgedanke: Wie ändert sich das Verhalten von Facebook-Usern, wenn sie eher Postings mit freudigem Inhalt ausgespielt bekommen, gegenüber denjenigen, die mit mehr trübsinnigen Inhalten konfrontiert werden? Etwas mehr als 300.000 zufällig ausgewählten Nutzern wurde im Januar 2012 für das Sozial-Experiment der News Feed manipuliert – mit eindeutigem Ausgang: Diejenigen Nutzer, die mit eher freudigen Posts konfrontiert waren, waren später auch geneigt selbst positive Einträge zu formulieren. Bei den Nutzern mit trübsinnigen Posts trat das genaue Gegenteil ein.

Wenige Tage nachdem die ersten Medienberichte über das Experiment veröffentlicht und Kritik an den ethischen Fragen einer solchen Manipulation aufgeworfen wurden, meldete sich der von Facebook für das Experiment abgestellte Mitarbeiter öffentlich zu Wort. In einem (mittlerweile gelöschten) Facebook-Post gab Andrew D. I. Kramer einen Einblick in die Beweggründe für das Sozial-Experiment:

„Wir hatten das Gefühl, dass es wichtig ist zu untersuchen, ob die häufige Sorge zutrifft, dass Menschen sich schlecht oder ausgeschlossen fühlen, wenn sie die positiven Postings ihrer Freunde sehen. Gleichzeitig waren wir besorgt, dass unsere Nutzer seltener Facebook besuchen, wenn ihre Freunde zu negativ posten.“ Kramer entschuldigte sich im nächsten Satz noch, dass man diese Motivation hinter dem Experiment nicht klar gemacht hätte. Es ist allerdings zu vermuten, dass das kein Versehen war.

Denn diese Offenlegung führte damals wie heute zwangsläufig zu der Frage, was Facebook für den Fall vorhatte, dass das Experiment genau diese Sorge bestätigt hätte: Nämlich, dass die Nutzer sich seltener bei Facebook einloggen, wenn sie mit zu viel Negativität konfrontiert werden. Es gibt zwei Möglichkeiten: Sich ergeben und den Laden dicht machen. Oder die Negativität mittels Algorithmen aus dem News Feed herausfiltern.

Dass die zweite Möglichkeit überhaupt besteht, ist das Problem, über das wir nun endlich dringend reden müssen.

Die Macht von Algorithmen über unsere Informationsarchitektur ist nicht neu. Bereits im Mai 2011 veröffentlichte der amerikanische Politikwissenschaftler und Internet-Aktivist Eli Pariser sein zum Standardwerk avanciertes Debüt „The Filterbubble: What the Internet is Hiding from You“ (deutsche Ausgabe: „Filter Bubble: Wie wir im Internet entmündigt werden“). Schon damals formulierte er die Theorie, dass wir uns in den sozialen Netzwerken in Blasen unserer eigenen Vorlieben bewegen. Google weiß, was wir mögen – und bietet uns davon eine Auswahl an. Facebook wirbt mit dem Slogan: „Mach Facebook zu deinem Facebook. Mit mehr von dem, was dir gefällt. Und weniger von allem anderen.“ Gekoppelt mit News werden die Algorithmen des Silicon Valley so zu einer Art Perpetuum Mobile der Meinungsmache. Einmal in Bewegung gesetzt, sind sie nicht mehr zu stoppen.

Warum wir erst jetzt wieder in dieser Vehemenz über Eli Pariser, sein Modell der Filterblase und die Macht der Algorithmen reden, hat mit dem Bedeutungszuwachs der sozialen Netzwerke zu tun. Allein 62 Prozent der Amerikaner haben 2016 ihre Nachrichten über soziale Netzwerke bezogen, wie eine in diesen Tagen vielzitierte Studie des Pew Research Centers festgestellt hat. Und damit werden deren Algorithmen zu ernstzunehmenden Playern im News-Business, der Facebook News Feed so zu einem über allem schwebenden Gatekeeper, der entscheidet, welche Informationen an welchen Nutzer ausgespielt werden, wer was zu lesen bekommt. Ein Gatekeeper, programmiert in einem Großraumbüro in Kalifornien. Angewendet in der ganzen Welt.

Die Frage, die wir alle uns deshalb nun stellen müssen: Wie gehen wir damit um, dass es heute immer öfter Tech-Unternehmen sind, die zum Rückgrat unserer Informationsgesellschaft werden? Und dass diese Unternehmen Inhalte unter der Haube ihres Codes sortieren, gewichten – und sogar löschen könnten?

Als letzteres kürzlich in Norwegen passierte und ein Facebook-Posting der Tageszeitung „Aftenposten“ nach einem vermeintlichen Verstoß gegen die Richtlinien des sozialen Netzwerks gelöscht wurde, bedachte Aftenposten-Chefredakteur Espen Egil Hansen, Facebook-Chef Zuckerberg mit einem vergifteten Kompliment. In einem offenen Brief auf der Titelseite seines Blattes schrieb er ihm: „Du bist der mächtigste Herausgeber der Welt (…) Und ich finde, du missbrauchst diese Macht.“

Auch wenn uns der Rückgriff in traditionelle Denkmuster auf dem Feld der sozialen Netzwerke nicht weiterhilft („Herausgeber“), so liegt in den Sätzen von Espen Egil Hansen die Lösung verborgen. Denn es gibt nur ein Gegenmittel, um Machtmissbrauch zu verhindern: Transparenz.

Der verstorbene Herausgeber der Frankfurter Allgemeinen Zeitung, Frank Schirrmacher, schrieb bereits im September 2009, zwei Jahre vor Pariser:

„Nerds haben die Drehbücher unserer Kommunikation, (…) unseres Denkens geschrieben. Sie sind die größte Macht der modernen Gesellschaft. Ihre Texte verstehen Außenstehende nicht, obwohl sich alle nach ihnen richten, und sei es, wenn sie Suchbefehle bei Google eingeben.“ Und aus heutiger Sicht etwas zu optimistisch, fügte Schirrmacher an: „Es waren die Nerds, die als Erste erkannten, dass deshalb die Codes offen sein müssten, überprüfbar und zumindest lesbar für die anderen Nerds.“

Doch bei Facebook, Google & Co. ist nichts überprüfbar. Die Algorithmen der großen Tech-Konzerne sind zur Coca-Cola-Rezeptur des Internet-Zeitalters geworden – unter Verschluss, Geschäftsgeheimnis. Doch diese Codes bilden heute den Grundriss unserer Informationsarchitektur, auf ihnen ist das Fundament unseres News-Zeitalters aufgebaut. Sie müssen wir verstehen, einsehen und ja, vielleicht sogar anpassen können, um uns weiter selbstbestimmt in den sozialen Netzwerken bewegen zu können. Man stelle sich beispielsweise künftig ein Rädchen an unserem persönlichen Facebook-Profil vor, das wir – etwa bezogen auf unsere politische Einstellung – nach Belieben nach rechts und links bewegen können, um zu sehen, welche Ansichten auf der anderen Seite des Meinungsspektrums gelesen werden. Das garantiert nicht, dass solch ein Tool genutzt wird. Darum geht es aber auch nicht. Es geht darum, dass es genutzt werden kann.

Das wäre der erste Schritt zur, im Zeitalter der sozialen Netzwerke, so bitter notwendigen Medienkompetenz. Heute, wo alle Publizisten sind, müssen auch alle die Grundmechanismen des Publizierens verstehen: Dass Veröffentlichen auch immer Weglassen heißt, dass, wer gewichtet auch gleichzeitig wertet. Wir brauchen die Kontrolle zurück.

Wer das verinnerlicht, kann das Perpetuum Mobile stoppen.

 

*eine leicht redigierte Version dieses Kommentars ist am 20. November 2016 im Tagesspiegel erschienen.

Published in Allgemein

Comments

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.