Account/Login

Gewählt – dank Facebook

  • , , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, , 8194;, & 8194; Von Eva Wolfangel

  • Sa, 12. Dezember 2015
    Bildung & Wissen

Die Rankings von Google und Facebook beeinflussen Meinungen und Wahlen.

Nach einer Facebook-Aufforderung, zur Wahl zu gehen, gingen die Nutzer tatsächlich häufiger zur Urne als eine Vergleichsgruppe. Foto: dpa
1/3
Kann ein Computerprogramm die Menschen so beeinflussen, dass sie andere Kandidaten wählen oder überhaupt erst wählen gehen? Was klingt wie aus einem Science-Fiction-Film treibt immer mehr Forscher um: Sie warnen vor den Ranking-Verfahren der Internet-Suchmaschine Google und des sozialen Netzwerks Facebook, die unterschiedlichen Nutzern verschiedene Ergebnisse anzeigen. Aktuellen Studien zufolge können sie sogar Wahlen beeinflussen. Die Präsidentschaftswahl in den USA im kommenden Jahr könnte die erste Wahl sein, bei der das tatsächlich geschieht, so die Befürchtungen.

Rund 30 Prozent der US-Amerikaner informieren sich laut der US-Soziologin Zeynep Tufekci via Facebook über aktuelle Nachrichten. Facebook hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen in seinem Algorithmus – einer komplexen Rechenvorschrift im Hintergrund – die Meinung der Nutzer zu den geteilten Inhalten anderer verändern.

Auch die Wahlbeteiligung kann der Konzern laut einer eigenen, im Fachmagazin Nature veröffentlichten Studie, beeinflussen: Während der US-Kongresswahlen 2010 schickte Facebook 61 Millionen Nutzern eine Nachricht, die sie an die Wahl erinnerte. Einem Prozent davon wurde zusätzlich angezeigt, wie viele ihrer Freunde schon wählen waren. Während die neutrale Nachricht die Menschen nicht an die Urnen trieb, gingen die Empfänger der sozialen Nachricht signifikant häufiger wählen als die Kontrollgruppe ohne Nachricht. Bei einem knappen Ausgang kann das wahlentscheidend sein, warnt Tufekci: "Facebook kann Wahlen beeinflussen – ohne dass wir das nachweisen können."

Facebook ist nicht allein: Auch bei der Suchmaschine Google entscheidet ein Algorithmus darüber, welcher Nutzer welche Ergebnisse angezeigt bekommt. Studien des US-Psychologen Robert Epstein zeigen, wie eine veränderte Auswahl an Suchergebnissen Wähler eher zugunsten des einen oder des anderen Kandidaten entscheiden ließ. Nachdem Epstein das zunächst in einer Laborstudie testete, nutzte er die Wahlen in Indien 2014 für ein Experiment. Er rekrutierte mehr als 2000 noch unentschlossene Wähler und teilte sie in Gruppen ein: eine Gruppe bekam bei ihrer Internet-Recherche mehr Suchergebnisse über den einen, eine zweite Gruppe mehr über den anderen Kandidaten präsentiert: Die Vorlieben verschoben sich um durchschnittlich 9,5 Prozent jeweils zugunsten des Kandidaten, der in den Suchergebnissen bevorzugt vorkam.

  Besonders brisant ist vor diesem Hintergrund, dass sich nur eine kleine Minderheit der Google- und Facebook-Nutzer dessen bewusst ist, dass ihre Ergebnisse vom Computer individuell für sie sortiert werden. Die meisten halten das Ergebnis schlicht für eine Abbildung der Realität. Die komplexen Rechenvorschriften, die Nachrichten und Suchergebnisse in Abhängigkeit vom jeweiligen Leser sortieren, nennt man "Gatekeeper-Algorithmen" – Pförtner-Algorithmen – da sie entscheiden, welche Inhalte zum Nutzer durchdringen und welche nicht. Google und Facebook haben damit eine ähnliche Rolle und Verantwortung wie die klassischen analogen "Gatekeeper" – beispielsweise Journalisten, die auswählen, welche Nachrichten es in die Zeitung schaffen. Nur dass in einer Zeitung alle Leser das Gleiche zu sehen bekommen und wissen, dass es eine Auswahl ist. Der Entscheidungsprozess von algorithmischen Gatekeepern hingegen ist für die Nutzer nicht nachvollziehbar – und das macht sie doppelt gefährlich, so Epstein: "Solche unsichtbaren Einflüsse überzeugen nicht nur, sie hinterlassen auch noch das Gefühl, man habe sich eine eigene Meinung gebildet, ohne äußere Beeinflussung." Welche Faktoren genau in den Facebook-Algorithmus einfließen und wie sie gewichtet sind, ist ein gut gehütetes Geheimnis des Konzerns.

Bekannt ist allerdings der große Einfluss des "Like-Buttons", des "Gefällt-mir"-Knopfes, den Nutzer anklicken können, wenn ihnen eine Nachricht zusagt. Die Rechenvorschrift von Facebook lernt daraus, was die Besucher wohl interessiert – und präsentiert ihnen künftig mehr Nachrichten dieser Richtung.

Experimente zeigen aber, dass der Computer die Menschen dabei wohl zuweilen missversteht: So entschied sich etwa die Designerin Elan Morgan, zwei Wochen lang den Like-Button zu ignorieren – und war begeistert: "Das machte Facebook eindeutig besser!" Sie habe viel weniger Dinge angezeigt bekommen, die sie nicht sehen wollte. Denn offenbar hatte das System manches falsch interpretiert: Wenn sie ein Foto süßer Katzenbabys mit "Gefällt mir" markierte, bekam sie auch Fotos von Katzen, die von Tierquälern misshandelt worden waren. "Der Algorithmus versteht die vielen politischen, philosophischen und emotionalen Schattierungen eines Themas nicht", bilanziert Morgan ihr Experiment, das eigentlich nur zwei Wochen dauern sollte. Sie beschloss, es auf ihr restliches Leben auszudehnen, so viel besser gefällt ihr Facebook ohne Like: "Es scheint, als ob ich mehr von dem bekomme, was ich mir wirklich wünsche, anstatt einfach mehr und extremere Versionen von dem vorgesetzt zu kriegen, was mir gefällt."

Bedenklicher ist ein anderes Experiment, mit dem der französische Informatiker Kave Salamatian zeigte, wie sehr der Algorithmus eine Radikalisierung junger Menschen fördern kann. Der Forscher legte 130 Fake-Accounts bei Facebook an und ließ studentische Mitarbeiter drei Tage lang verschiedene Nachrichten und Informationen auf Facebook mit "gefällt mir" markieren. "Wir haben dafür harmlose Themen ausgewählt, die junge Menschen interessieren", erklärt Salamatian: zum Beispiel Tierschutz, aktuelle Kinohits oder auch eine Gruppe "I am fat and I hate that" (ich bin dick und hasse das). Nach drei Tagen ließ er die Accounts automatisch allen Empfehlungen des Netzwerks folgen – sie akzeptierten jeden neuen Freund und klickten bei jedem Vorschlag auf "Like". Sie taten das, von dem der Algorithmus dachte, dass es zu ihren Interessen passt. Nach weiteren drei Tagen hatten zehn der Profile Kontakt zu Profilen des terroristischen IS. Aus Angst vor mangelnder Anonymisierung der Mitarbeiter wurde das Experiment nicht publiziert, Salamatian stellte die Ergebnisse lediglich bei einer Konferenz vor.

Facebook selbst weist ebenso wie Google in solchen Fällen jede Verantwortung von sich. Aufgabe des Algorithmus sei lediglich, jedem Nutzer passende Suchergebnisse in kurzer Zeit zu präsentieren, so die einmütige Antwort. Erst auf Nachfrage und unter Wahrung der Anonymität erfährt man, dass bei den großen US-Unternehmen durchaus eine gewisse Ratlosigkeit herrscht: "Larry Page hat mich gefragt: Wie können wir unseren Ranking-Algorithmus so verändern, dass er bessere ethische Entscheidungen trifft?", berichtet ein Google-Mitarbeiter: "Der Wille ist da, aber die Lösung fehlt."

Vielleicht hat sich Facebook auch deswegen gegen den angekündigten Dislike-Button entschieden. Andere Netzwerke wie das Filmportal Youtube haben einen solchen Knopf, mit dem Nutzer auch sagen können, was ihnen nicht gefällt. Dieser sei ein Schritt in die falsche Richtung, hatte Tufecki gewarnt: "Facebook braucht andere Wege, um Wichtigkeit oder Unterstützung zu signalisieren." Natürlich müsse der Feed irgendwie sortiert werden. Aber angesichts der "Tyrannei des Like" gerieten beispielsweise politische Nachrichten-Posts schnell in den Hintergrund: Babys und Hochzeiten dominieren den eigenen Nachrichteneingang, die Flüchtlingsthematik findet auf Facebook fast nicht statt: Wie sollte man sie auch liken?

Was sollten Google oder Facebook idealerweise an den Topppositionen zeigen? Welche Faktoren sollten in einen entsprechenden Algorithmus einfließen, damit die Demokratie gestärkt wird? "Darauf gibt es keine einfache, keine richtige Antwort", sagt Soziologin Tufekci. Informatiker Salamatian betont, dass insbesondere jungen Menschen eine große Vielfalt angezeigt werden sollte – und eben nicht nur die Nachrichten, von denen eine Rechenvorschrift glaubt, dass sie deren Ausrichtung gut finden. Also eine Abschwächung des Rankings, dessen Wert ja genau darin besteht, individuell auszuwählen. Doch selbst wenn man davon ausgeht, dass die großen US-Unternehmen ihre Verantwortung zumindest nicht bewusst missbrauchen, stimmt die dortige Ratlosigkeit misstrauisch. Wer Wahlen beeinflussen kann, sollte auch eine Idee davon haben, wie er genau das vermeiden kann.

Ressort: Bildung & Wissen

  • Artikel im Layout der gedruckten BZ vom Sa, 12. Dezember 2015: PDF-Version herunterladen

Artikel verlinken

Wenn Sie auf diesen Artikel von badische-zeitung.de verlinken möchten, können Sie einfach und kostenlos folgenden HTML-Code in Ihre Internetseite einbinden:

© 2024 Badische Zeitung. Keine Gewähr für die Richtigkeit der Angaben.
Bitte beachten Sie auch folgende Nutzungshinweise, die Datenschutzerklärung und das Impressum.

Kommentare


Weitere Artikel