Die gefilterte Realität – Welchen Anteil haben wir selbst an der Entstehung von Echo-Kammern?

Google, Facebook, Twitter und Co schlagen uns Inhalte vor, die unseren (Such-)Vorlieben entsprechen und viele Menschen fürchten, dass dadurch eine gefilterte, personalisierte Realität entsteht. Doch konsumieren wir Informationen tatsächlich nur passiv? Wie und warum tragen wir mit unseren Handlungen selbst dazu bei, dass wir uns in unserer eigenen Informationsblase aufhalten?

Anfang März 2017 machte in den sozialen Netzwerken folgende Meldung die Runde: Das Auswärtige Amt habe eine Reisewarnung für Schweden herausgegeben, in der es um erhöhte Terrorgefahr gehe. Wie das Auswärtige Amt jedoch kurz darauf richtigstellte, gab es keine Reisewarnung und die Terrorstufe war bereits ein Jahr zuvor von „Hohe Gefahr“ (Stufe 4) auf „Erhöhte Gefahr“ (Stufe 3) heruntergesetzt worden. Analysen von Twitterdaten zeigten, dass die Verbreitung der Falschmeldung sowie ihrer Richtigstellung jeweils in zwei getrennten Netzwerken stattfanden (Seemann, 2017). Doch woran könnte das liegen? Als Erklärung wird oftmals die sogenannte Filterblase herangezogen.

Soziale Netzwerke filtern mittels Algorithmen Informationen für uns. Doch wie tragen wir selbst zu einer solchen Filterblase bei?  Foto von LoboStudioHamburg via pixabay (https://pixabay.com/de/twitter-facebook-miteinander-292988/, Lizenz: https://pixabay.com/de/service/license/). Soziale Netzwerke filtern mittels Algorithmen Informationen für uns. Doch wie tragen wir selbst zu einer solchen Filterblase bei? Foto von LoboStudioHamburg via pixabay (https://pixabay.com/de/twitter-facebook-miteinander-292988/, Lizenz: https://pixabay.com/de/service/license/).

Der Begriff Filterblase geht auf den Internetaktivisten Eli Pariser zurück. Er wies 2011 in einem populärwissenschaftlichen Buch darauf hin, dass das Internet und vor allem die sozialen Netzwerke immer stärker auf die NutzerInnen angepasst werden. Indem durch Algorithmen (also Regeln, anhand derer basierend auf vorhandenen Nutzerdaten Inhalte zur Präsentation ausgewählt werden) Informationen gefiltert werden, bekommen NutzerInnen in erster Linie die für sie vermeintlich relevantesten Informationen präsentiert. Der Begriff Filterblase bezieht sich demnach vor allem auf das technische Herausfiltern von Informationen. Doch das ist nur eine Seite der Medaille, denn als InformationskonsumentInnen nehmen wir nicht nur passiv auf, was uns angeboten wird, sondern uns kommt eine aktive Rolle zu. Analysen eines Forschungsteams von Facebook unterstützen diese Ansicht. Der von Facebook verwendete Algorithmus für den individuellen Newsfeed einer Person reduziert die Menge der angezeigten politischen Nachrichten, die unserer Einstellung widersprechen. Gleichzeitig haben aber unter dem Strich individuelle Entscheidungen einen deutlich größeren Einfluss darauf, dass überwiegend politische Nachrichten angeklickt werden, die unserer Einstellung entsprechen (Bakshy, Messing & Adamic, 2015). Auch wir selbst filtern also Informationen ganz ohne die Hilfe von Facebook und Co. Die Wissenschaft spricht in diesem Fall nicht von Filterblasen, sondern von sogenannten Echo-Kammern (Sunstein, 2007). Durch eigene Entscheidungen ziehen wir die virtuellen Wände einer Echo-Kammer hoch, in der wir dann vorwiegend Sichtweisen zu hören und zu lesen bekommen, die unseren eigenen Einstellungen entsprechen. Der Begriff Echo-Kammer legt den Fokus also stärker auf das Verhalten von Individuen als auf technologische Filterungsprozesse. Was weiß man aus psychologischer Forschung darüber, wie wir selbst Informationen filtern und so unsere Sicht auf die Welt beeinflussen?

Die Auswahl von Informationen

Im Prozess der aktiven Meinungsbildung ist die Auswahl von Informationen der erste Schritt. Mit unseren Handlungen bestimmen wir aktiv mit, mit welchen Informationen wir in Kontakt kommen und wie viel Aufmerksamkeit wir einzelnen Inhalten schenken.

Taber und Lodge (2006) prüften in einer Studie empirisch, ob Menschen Informationen aktiv so auswählen, dass sie zu ihrem Weltbild passen: Zu Beginn der Studie teilten die US-Wie wählen wir Informationen aus, die wir konsumieren und zur Meinungsbildung verwenden? Foto von Startup Stock Photos via pexels (https://www.pexels.com/de/foto/forschung-mann-papiere-person-212286/), Lizenz: https://www.pexels.com/de-de/fotolizenz/).Wie wählen wir Informationen aus, die wir konsumieren und zur Meinungsbildung verwenden? Foto von Startup Stock Photos via pexels (https://www.pexels.com/de/foto/forschung-mann-papiere-person-212286/), Lizenz: https://www.pexels.com/de-de/fotolizenz/).amerikanischen TeilnehmerInnen zunächst mit, wie ihre Meinung zum Thema Gun Control (Reglementierung von Waffenbesitz) ist. Danach bekamen sie die Möglichkeit, Argumente zu diesem Thema zu lesen. Die 16 möglichen Argumente waren zunächst verdeckt, aber es war erkennbar, aus welchen bekannten Quellen sie stammten (z. B. der National Rifle Association, NRA, einem einflussreichen Lobbyverband der Waffenindustrie). Daraus konnten die Personen schließen, ob die Information ihrer eigenen Meinung entsprechen würde oder nicht. Nun durften die Personen auswählen, welche Informationen sie genauer betrachten wollten. Es zeigte sich, dass Personen vor allem die Informationen auswählten, die ihre eigene Meinung bestätigen würden. Interessanterweise war dieser Effekt gerade bei Personen, die sich grundsätzlich gut mit Politik auskannten, besonders stark ausgeprägt. Eine gut informierte Person aus der Studie, die gegen Gun Control ist, schaute sich beispielsweise im Durchschnitt sechs Argumente der NRA oder der republikanischen Partei an, aber nur zwei Argumente der Gegenseite. Die algorithmische Filterblase der sozialen Netzwerke kann also nicht die einzige Erklärung für die selektive Informationsauswahl sein, da Personen anscheinend auch bei freier Wahl bevorzugt Informationen wählen, die ihr Weltbild bestätigen. Diese aktive Selektion von Informationen wird in der Wissenschaft als Selective Exposure bezeichnet.

Eine zusammenfassende Analyse ( Meta-Analyse) der Ergebnisse von 91 Studien zu diesem Thema kam zu dem Ergebnis, dass die Wahrscheinlichkeit, Informationen zu wählen, die bereits bestehende Meinungen unterstützen, im Durchschnitt etwa doppelt so hoch war wie die Wahrscheinlichkeit, sich widersprechende Informationen anzuschauen (Hart et al., 2009). Jüngere Studien deuten zudem darauf hin, dass diese Tendenz in verschiedenen politischen Lagern ähnlich ausgeprägt ist (Frimer, Skitka & Motyl, 2017). Hierbei muss jedoch angemerkt werden, dass nicht jede Studie zum Thema Selective Exposure klare Belege für dieses Phänomen finden konnte. Dies deutet darauf hin, dass die Stärke der Motivation, Informationen so auszuwählen, dass sie zu unserem Weltbild passen, von einer Reihe von Rahmenbedingungen abhängt.

Warum und unter welchen Bedingungen tendieren wir zu Informationen, die unser Weltbild bestätigen?

Bei der Auswahl von Informationen streiten sich zwei menschliche Bedürfnisse. Zum einen treibt uns das Ziel an, die Realität möglichst akkurat wahrzunehmen. Wir möchten korrekte Dinge sagen und faktenbasiert handeln, wofür eine ausgewogene Informationsauswahl hilfreich ist. Zum anderen möchten wir aber auch eigene Meinungen bestätigen und verteidigen. Denn Informationen, die unserem Weltbild entsprechen, geben uns das positive Gefühl, richtig zu liegen. Widersprechende Informationen erzeugen dagegen einen negativen Spannungszustand, der als kognitive Dissonanz bezeichnet wird. Dieses Phänomen wurde schon in den 1950er Jahren untersucht (Festinger, 1957) und besagt, dass Abweichungen zwischen eigenen Vorstellungen und der Realität als sehr unangenehm erlebt werden und daher entsprechende psychologische Kompensationsmechanismen in Gang setzen. Tritt kognitive Dissonanz auf, versuchen Menschen oft unbewusst, diese schnellstmöglich zu beseitigen (z. B. indem sie die Relevanz unerwünschter Fakten herunterspielen). Es konnte gezeigt werden, dass die Konfrontation mit Informationen, die eigenen politischen Ansichten widersprechen, bei Menschen Aktivitäten in Hirnregionen auslöst, die mit starken Emotionen und Bestrafung assoziiert sind, während bei Auflösung dieser Widersprüche Belohnungszentren des Gehirns aktiviert werden (Westen, Blagov, Harenski, Kilts & Hamann, 2006). Die Antizipation dieses unangenehmen Zustands könnte erklären, warum Menschen (wenn möglich) die Konfrontation mit Informationen, die eigenen Ansichten widersprechen, von vorne herein vermeiden.

Man sollte dabei bedenken, dass es aus individueller Perspektive nicht notwendigerweise irrational ist, die Verteidigung eigener Ansichten höher zu gewichten als das Vertreten korrekter Ansichten: Die individuellen Kosten, eine falsche Ansicht zu vertreten (z. B. zu glauben, dass es keinen Zusammenhang zwischen Waffenbesitz und Massenschießereien gibt), sind oft deutlich geringer als die Kosten, von dieser Meinung abzuweichen und deshalb z. B. in einer persönlich relevanten Gruppe geächtet zu werden (Kahan, Peters, Dawson & Slovic, 2017). Anders sieht es auf gesamtgesellschaftlicher Ebene aus, wo es durchaus problematisch sein kann, wenn ein substanzieller Anteil der Bevölkerung Ansichten vertritt, die wissenschaftlichen Erkenntnissen widersprechen.

Wie stark das Streben nach der Bestätigung eigener Ansichten durch Selective Exposure ist, hängt von verschiedenen Rahmenbedingungen ab: Es ist besonders dann stark ausgeprägt, wenn es sich um Ansichten handelt, die ein wichtiger Teil unseres Selbstbilds sind. Die US-amerikanische Debatte um Waffenbesitz ist ein gutes Beispiel: Für die GegnerInnen von Gun Control ist das Recht auf Waffenbesitz fest in ihrem Wertesystem verankert. Erfährt eine solche Person nun, dass US-AmerikanerInnen 300-mal wahrscheinlicher durch Waffengewalt sterben als JapanerInnen (Fisher & Keller, 2017), stellt diese Information ihr Weltbild in Frage und führt zu einer besonders hohen kognitiven Dissonanz. Dementsprechend ist die Person besonders motiviert, Informationen passend zu ihrer Meinung auszuwählen und wendet sich lieber Informationen zu, die z. B. die Möglichkeit der Selbstverteidigung mit Waffen thematisieren. Auf der anderen Seite gibt es auch Situationen, in denen uns Informationen, die unseren Ansichten widersprechen, als besonders relevant und nützlich erscheinen, etwa weil wir uns auf eine Diskussion mit Andersdenkende vorbereiten wollen. Hier schwächt sich die Tendenz zu Selective Exposure ab (Hart et al., 2009).

AutorInnen

Facebook