Die gefilterte Realität – Welchen Anteil haben wir selbst an der Entstehung von Echo-Kammern?

Google, Facebook, Twitter und Co schlagen uns Inhalte vor, die unseren (Such-)Vorlieben entsprechen und viele Menschen fürchten, dass dadurch eine gefilterte, personalisierte Realität entsteht. Doch konsumieren wir Informationen tatsächlich nur passiv? Wie und warum tragen wir mit unseren Handlungen selbst dazu bei, dass wir uns in unserer eigenen Informationsblase aufhalten?

Anfang März 2017 machte in den sozialen Netzwerken folgende Meldung die Runde: Das Auswärtige Amt habe eine Reisewarnung für Schweden herausgegeben, in der es um erhöhte Terrorgefahr gehe. Wie das Auswärtige Amt jedoch kurz darauf richtigstellte, gab es keine Reisewarnung und die Terrorstufe war bereits ein Jahr zuvor von „Hohe Gefahr“ (Stufe 4) auf „Erhöhte Gefahr“ (Stufe 3) heruntergesetzt worden. Analysen von Twitterdaten zeigten, dass die Verbreitung der Falschmeldung sowie ihrer Richtigstellung jeweils in zwei getrennten Netzwerken stattfanden (Seemann, 2017). Doch woran könnte das liegen? Als Erklärung wird oftmals die sogenannte Filterblase herangezogen.

Soziale Netzwerke filtern mittels Algorithmen Informationen für uns. Doch wie tragen wir selbst zu einer solchen Filterblase bei?  Foto von LoboStudioHamburg via pixabay (https://pixabay.com/de/twitter-facebook-miteinander-292988/, Lizenz: https://pixabay.com/de/service/license/). Soziale Netzwerke filtern mittels Algorithmen Informationen für uns. Doch wie tragen wir selbst zu einer solchen Filterblase bei? Foto von LoboStudioHamburg via pixabay (https://pixabay.com/de/twitter-facebook-miteinander-292988/, Lizenz: https://pixabay.com/de/service/license/).

Der Begriff Filterblase geht auf den Internetaktivisten Eli Pariser zurück. Er wies 2011 in einem populärwissenschaftlichen Buch darauf hin, dass das Internet und vor allem die sozialen Netzwerke immer stärker auf die NutzerInnen angepasst werden. Indem durch Algorithmen (also Regeln, anhand derer basierend auf vorhandenen Nutzerdaten Inhalte zur Präsentation ausgewählt werden) Informationen gefiltert werden, bekommen NutzerInnen in erster Linie die für sie vermeintlich relevantesten Informationen präsentiert. Der Begriff Filterblase bezieht sich demnach vor allem auf das technische Herausfiltern von Informationen. Doch das ist nur eine Seite der Medaille, denn als InformationskonsumentInnen nehmen wir nicht nur passiv auf, was uns angeboten wird, sondern uns kommt eine aktive Rolle zu. Analysen eines Forschungsteams von Facebook unterstützen diese Ansicht. Der von Facebook verwendete Algorithmus für den individuellen Newsfeed einer Person reduziert die Menge der angezeigten politischen Nachrichten, die unserer Einstellung widersprechen. Gleichzeitig haben aber unter dem Strich individuelle Entscheidungen einen deutlich größeren Einfluss darauf, dass überwiegend politische Nachrichten angeklickt werden, die unserer Einstellung entsprechen (Bakshy, Messing & Adamic, 2015). Auch wir selbst filtern also Informationen ganz ohne die Hilfe von Facebook und Co. Die Wissenschaft spricht in diesem Fall nicht von Filterblasen, sondern von sogenannten Echo-Kammern (Sunstein, 2007). Durch eigene Entscheidungen ziehen wir die virtuellen Wände einer Echo-Kammer hoch, in der wir dann vorwiegend Sichtweisen zu hören und zu lesen bekommen, die unseren eigenen Einstellungen entsprechen. Der Begriff Echo-Kammer legt den Fokus also stärker auf das Verhalten von Individuen als auf technologische Filterungsprozesse. Was weiß man aus psychologischer Forschung darüber, wie wir selbst Informationen filtern und so unsere Sicht auf die Welt beeinflussen?

Die Auswahl von Informationen

Im Prozess der aktiven Meinungsbildung ist die Auswahl von Informationen der erste Schritt. Mit unseren Handlungen bestimmen wir aktiv mit, mit welchen Informationen wir in Kontakt kommen und wie viel Aufmerksamkeit wir einzelnen Inhalten schenken.

Taber und Lodge (2006) prüften in einer Studie empirisch, ob Menschen Informationen aktiv so auswählen, dass sie zu ihrem Weltbild passen: Zu Beginn der Studie teilten die US-Wie wählen wir Informationen aus, die wir konsumieren und zur Meinungsbildung verwenden? Foto von Startup Stock Photos via pexels (https://www.pexels.com/de/foto/forschung-mann-papiere-person-212286/), Lizenz: https://www.pexels.com/de-de/fotolizenz/).Wie wählen wir Informationen aus, die wir konsumieren und zur Meinungsbildung verwenden? Foto von Startup Stock Photos via pexels (https://www.pexels.com/de/foto/forschung-mann-papiere-person-212286/), Lizenz: https://www.pexels.com/de-de/fotolizenz/).amerikanischen TeilnehmerInnen zunächst mit, wie ihre Meinung zum Thema Gun Control (Reglementierung von Waffenbesitz) ist. Danach bekamen sie die Möglichkeit, Argumente zu diesem Thema zu lesen. Die 16 möglichen Argumente waren zunächst verdeckt, aber es war erkennbar, aus welchen bekannten Quellen sie stammten (z. B. der National Rifle Association, NRA, einem einflussreichen Lobbyverband der Waffenindustrie). Daraus konnten die Personen schließen, ob die Information ihrer eigenen Meinung entsprechen würde oder nicht. Nun durften die Personen auswählen, welche Informationen sie genauer betrachten wollten. Es zeigte sich, dass Personen vor allem die Informationen auswählten, die ihre eigene Meinung bestätigen würden. Interessanterweise war dieser Effekt gerade bei Personen, die sich grundsätzlich gut mit Politik auskannten, besonders stark ausgeprägt. Eine gut informierte Person aus der Studie, die gegen Gun Control ist, schaute sich beispielsweise im Durchschnitt sechs Argumente der NRA oder der republikanischen Partei an, aber nur zwei Argumente der Gegenseite. Die algorithmische Filterblase der sozialen Netzwerke kann also nicht die einzige Erklärung für die selektive Informationsauswahl sein, da Personen anscheinend auch bei freier Wahl bevorzugt Informationen wählen, die ihr Weltbild bestätigen. Diese aktive Selektion von Informationen wird in der Wissenschaft als Selective Exposure bezeichnet.

Eine zusammenfassende Analyse ( Meta-Analyse) der Ergebnisse von 91 Studien zu diesem Thema kam zu dem Ergebnis, dass die Wahrscheinlichkeit, Informationen zu wählen, die bereits bestehende Meinungen unterstützen, im Durchschnitt etwa doppelt so hoch war wie die Wahrscheinlichkeit, sich widersprechende Informationen anzuschauen (Hart et al., 2009). Jüngere Studien deuten zudem darauf hin, dass diese Tendenz in verschiedenen politischen Lagern ähnlich ausgeprägt ist (Frimer, Skitka & Motyl, 2017). Hierbei muss jedoch angemerkt werden, dass nicht jede Studie zum Thema Selective Exposure klare Belege für dieses Phänomen finden konnte. Dies deutet darauf hin, dass die Stärke der Motivation, Informationen so auszuwählen, dass sie zu unserem Weltbild passen, von einer Reihe von Rahmenbedingungen abhängt.

Warum und unter welchen Bedingungen tendieren wir zu Informationen, die unser Weltbild bestätigen?

Bei der Auswahl von Informationen streiten sich zwei menschliche Bedürfnisse. Zum einen treibt uns das Ziel an, die Realität möglichst akkurat wahrzunehmen. Wir möchten korrekte Dinge sagen und faktenbasiert handeln, wofür eine ausgewogene Informationsauswahl hilfreich ist. Zum anderen möchten wir aber auch eigene Meinungen bestätigen und verteidigen. Denn Informationen, die unserem Weltbild entsprechen, geben uns das positive Gefühl, richtig zu liegen. Widersprechende Informationen erzeugen dagegen einen negativen Spannungszustand, der als kognitive Dissonanz bezeichnet wird. Dieses Phänomen wurde schon in den 1950er Jahren untersucht (Festinger, 1957) und besagt, dass Abweichungen zwischen eigenen Vorstellungen und der Realität als sehr unangenehm erlebt werden und daher entsprechende psychologische Kompensationsmechanismen in Gang setzen. Tritt kognitive Dissonanz auf, versuchen Menschen oft unbewusst, diese schnellstmöglich zu beseitigen (z. B. indem sie die Relevanz unerwünschter Fakten herunterspielen). Es konnte gezeigt werden, dass die Konfrontation mit Informationen, die eigenen politischen Ansichten widersprechen, bei Menschen Aktivitäten in Hirnregionen auslöst, die mit starken Emotionen und Bestrafung assoziiert sind, während bei Auflösung dieser Widersprüche Belohnungszentren des Gehirns aktiviert werden (Westen, Blagov, Harenski, Kilts & Hamann, 2006). Die Antizipation dieses unangenehmen Zustands könnte erklären, warum Menschen (wenn möglich) die Konfrontation mit Informationen, die eigenen Ansichten widersprechen, von vorne herein vermeiden.

Man sollte dabei bedenken, dass es aus individueller Perspektive nicht notwendigerweise irrational ist, die Verteidigung eigener Ansichten höher zu gewichten als das Vertreten korrekter Ansichten: Die individuellen Kosten, eine falsche Ansicht zu vertreten (z. B. zu glauben, dass es keinen Zusammenhang zwischen Waffenbesitz und Massenschießereien gibt), sind oft deutlich geringer als die Kosten, von dieser Meinung abzuweichen und deshalb z. B. in einer persönlich relevanten Gruppe geächtet zu werden (Kahan, Peters, Dawson & Slovic, 2017). Anders sieht es auf gesamtgesellschaftlicher Ebene aus, wo es durchaus problematisch sein kann, wenn ein substanzieller Anteil der Bevölkerung Ansichten vertritt, die wissenschaftlichen Erkenntnissen widersprechen.

Wie stark das Streben nach der Bestätigung eigener Ansichten durch Selective Exposure ist, hängt von verschiedenen Rahmenbedingungen ab: Es ist besonders dann stark ausgeprägt, wenn es sich um Ansichten handelt, die ein wichtiger Teil unseres Selbstbilds sind. Die US-amerikanische Debatte um Waffenbesitz ist ein gutes Beispiel: Für die GegnerInnen von Gun Control ist das Recht auf Waffenbesitz fest in ihrem Wertesystem verankert. Erfährt eine solche Person nun, dass US-AmerikanerInnen 300-mal wahrscheinlicher durch Waffengewalt sterben als JapanerInnen (Fisher & Keller, 2017), stellt diese Information ihr Weltbild in Frage und führt zu einer besonders hohen kognitiven Dissonanz. Dementsprechend ist die Person besonders motiviert, Informationen passend zu ihrer Meinung auszuwählen und wendet sich lieber Informationen zu, die z. B. die Möglichkeit der Selbstverteidigung mit Waffen thematisieren. Auf der anderen Seite gibt es auch Situationen, in denen uns Informationen, die unseren Ansichten widersprechen, als besonders relevant und nützlich erscheinen, etwa weil wir uns auf eine Diskussion mit Andersdenkende vorbereiten wollen. Hier schwächt sich die Tendenz zu Selective Exposure ab (Hart et al., 2009).

Neben der Vermeidung kognitiver Dissonanz könnte eine weitere Erklärung für das Ausblenden missliebiger Informationen die Tendenz sein, unsere eigenen Ansichten als objektiv und rational zu betrachten, während wir Personen mit abweichenden Meinungen unterstellen, Denkfehlern und verzerrenden Einflüssen zum Opfer gefallen zu sein (Kennedy & Pronin, 2008). Studien zeigen, dass Menschen umso weniger bereit sind, sich die Argumente von Menschen mit abweichenden Meinungen anzuhören und sich konstruktiv damit auseinanderzusetzen, je stärker sie glauben, dass diese Ansichten verzerrt und irrational sind.

Echo-Kammern können aber auch aus individuellen Entscheidungen resultieren, die im Kern gar nicht darauf abzielen, bestimmte Informationen gezielt auszuwählen: Beispielsweise tendieren wir dazu, Menschen sympathisch zu finden und als Freunde zu haben, die uns ähnlich sind. Diese Menschen haben oft auch politische Ansichten, die unseren eigenen ähneln. Die Zusammensetzung unseres sozialen Netzwerkes hat dann zur Folge, dass wir überwiegend mit einstellungskonformen Informationen und Meinungen in Kontakt geraten, ohne dass dies notwendigerweise jemals unser Ziel war. Wie ausgeprägt das wirklich gewollte Vermeiden von Informationen, die eigenen Einstellungen widersprechen, am Ende tatsächlich ist, wird in der Forschung kontrovers diskutiert.

Suchen wir passende Informationen auf oder vermeiden wir unpassende?

Die Motivation, unser eigenes Weltbild zu bestätigen, lässt sich prinzipiell auf zwei Arten umsetzen. GegnerInnen von Gun Control könnten beispielsweise die Internetseite der konservativeren Fox News besuchen, um ihre Meinung zu bestätigen. Oder sie könnten versuchen die Internetseite der linksliberaleren Huffington Post und damit kognitive Dissonanz zu vermeiden. Wählen wir also Informationen aus, die zu unserer Einstellung passen, oder vermeiden wir Informationen, die nicht dazu passen? Nicht in jeder wissenschaftlichen Studie zum Thema Selective Exposure wird diese kleine, aber wichtige Unterscheidung getroffen. In der anfangs beschriebenen Studie von Taber und Lodge (2006) zur einstellungskonformen Informationsauswahl lässt sich beispielsweise nicht klar sagen, ob hinter der bevorzugten Informationsauswahl aus Quellen, die zur eigenen Einstellung passen, ein Streben nach Vermeiden wir Informationen, die unserem Weltbild widersprechen? Foto von sasint via Pixabay (https://pixabay.com/de/erwachsene-ank%C3%BCndigung-kommunikation-1822449/, Lizenz: https://pixabay.com/de/service/license/). Vermeiden wir Informationen, die unserem Weltbild widersprechen? Foto von sasint via Pixabay (https://pixabay.com/de/erwachsene-ank%C3%BCndigung-kommunikation-1822449/, Lizenz: https://pixabay.com/de/service/license/).Bestätigung oder ein Streben nach Vermeidung von Widerspruch oder möglicherweise eine Mischung aus beidem steckte.

Die Frage nach den verschiedenen Varianten von Selective Exposure stellte sich der Forscher Kelly Garrett (2009) in den USA vor der Präsidentschaftswahl 2004 (George W. Bush gegen John Kerry). In seiner Studie wurden mehr als 1500 Personen telefonisch dazu befragt, wie stark sie welchen Kandidaten unterstützten und welche Internetseiten sie verwendeten, um an politische Informationen zu gelangen. Personen mit starken Präferenzen für einen Kandidaten riefen mit höherer Wahrscheinlichkeit meinungskonforme Internetseiten auf als Personen mit schwachen Präferenzen. Allerdings hatte die Stärke der politischen Präferenzen keinen Einfluss darauf, wie häufig Internetseiten mit abweichenden Meinungen aufgerufen wurden. Die Personen suchten also vor allem Informationen auf, die der eigenen Einstellung entsprachen, vermieden aber nicht systematisch Informationen, die dies nicht taten.

Wie problematisch sind Echo-Kammern? Eine Zusammenfassung und Einordnung.

Wenn wir die Wahl haben, bevorzugen wir oft Inhalte, die unseren Einstellungen entsprechen, und umgeben uns mit Menschen, die diese teilen. Auf diese Weise vermeiden wir on- und offline den unangenehmen Zustand kognitiver Dissonanz, in den uns widersprechende Informationen versetzen. Gerade bei Themen, mit denen wir uns stark identifizieren oder die uns ein Gruppenzugehörigkeitsgefühl vermitteln, sind diese Bestrebungen besonders stark. Diese psychologischen Prozesse und daraus resultierende Echo-Kammern sind kein neues Phänomen, denn auch vor dem Internet konnten Menschen auswählen, welche TV- und Radiosender oder Zeitungen sie konsumierten. Durch soziale Netzwerke und Suchmaschinen wird uns diese aktive Auswahl teilweise aus der Hand genommen, indem Algorithmen für uns Inhalte auswählen, die uns vermeintlich gefallen. Während dies für ein angenehmes Nutzungserlebnis sorgt, könnte es für den politischen Diskurs schädlich sein.

In welchem Ausmaß das Entstehen von Echo-Kammern dem Internet und sozialen Medien anzulasten ist, ist jedoch gar nicht so klar. Beispielsweise werden wir auf Facebook dazu animiert, auch oberflächliche Bekanntschaften in unsere sozialen Netzwerke aufzunehmen. So erfahren wir leichter etwas über die politischen Ansichten von Menschen, die uns weniger ähnlich sind. Dass genau dies jedoch auch negative Effekte haben kann, zeigen die Ergebnisse einer Studie von Bail und Kollegen (2018). US-amerikanische NutzerInnen von Twitter wurden dafür bezahlt, einem Twitter-Account zu folgen, der Informationen teilte, die ihren eigenen politischen Ansichten widersprachen. Diese Intervention hatte zur Folge, dass sich die politischen Ansichten noch stärker in die bereits bestehende Richtung verschoben (wobei der Effekt nur bei AnhängerInnen der republikanischen Partei statistisch signifikant war). Die steigende Polarisierung bei politischen Themen könnte also auch daraus resultieren, dass wir im Internet besonders oft mit abweichenden Meinungen konfrontiert werden, anstatt dass wir durch Algorithmen und eigene Entscheidungen davon abgeschirmt werden (Jessen, 2018).

Was können wir also tun?

Bestätigende Informationen aufzusuchen, mag die bequemere Möglichkeit sein, zu der wir oft tendieren. Hilflos sind wir gegenüber Informationsblasen und Echo-Kammern aber nicht, denn wir haben stets die Wahl, aktiv daraus auszubrechen. Dies erfordert das Bewusstsein für die psychologischen Prozesse, die in uns stattfinden, sowie Verständnis für die Möglichkeiten und Gefahren sozialer Netzwerke. Gerade in Zeiten zunehmender Digitalisierung sollte eine Aufklärung diesbezüglich schon in der Schule sowie im Elternhaus stattfinden.

Das Internet gibt uns die Freiheit, aus unzähligen Informationen auszuwählen. Mit dieser Freiheit geht jedoch auch die Verantwortung einher, diese Informationsflut mit Vorsicht zu genießen, eigene Sichtweisen zu hinterfragen, mit Fakten zu untermauern und andere Perspektiven aufzusuchen. Sich aktiv kognitiver Dissonanz auszusetzen, kostet Energie, Mut und Empathie. Für den politischen Diskurs und eine demokratische Meinungsbildung ist es jedoch essentiell.

Literaturverzeichnis

Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. B. F., … Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. PNAS Proceedings of the National Academy of Sciences of the United States of America, 115(37), 9216–9221. doi:10.1073/pnas.1804840115

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132. doi:10.1126/science.aaa1160

Cappella, J. N., Kim, H. S., & Albarracín, D. (2015). Selection and transmission processes for information in the emerging media environment: Psychological motives and message characteristics. Media Psychology, 18(3), 396-424. doi:10.1080/15213269.2014.941112

Festinger, L. (1957). A theory of cognitive dissonance. Stanford, CA: Stanford University Press.

Fisher, M., & Keller, J. (7. November 2017). What explains U.S. mass shootings? International comparisons suggest an answer. The New York Times. Abgerufen von https://www.nytimes.com/2017/11/07/world/americas/mass-shootings-us-inte...

Frimer, J. A., Skitka, L. J., & Motyl, M. (2017). Liberals and conservatives are similarly motivated to avoid exposure to one another's opinions. Journal of Experimental Social Psychology, 72, 1-12. doi:10.1016/j.jesp.2017.04.003

Garrett, R. K. (2009). Politically motivated reinforcement seeking: Reframing the selective exposure debate. Journal of Communication, 59(4), 676-699. doi:10.1111/j.1460-2466.2009.01452.x

Hart, W., Albarracín, D., Eagly, A. H., Brechan, I., Lindberg, M. J., & Merrill, L. (2009). Feeling validated versus being correct: A meta-analysis of selective exposure to information. Psychological Bulletin, 135(4), 555-588. doi:10.1037/a0015701

Jessen, J. (26. September 2018). Lob der Blase. Zeit Online. Abgerufen von https://www.zeit.de/2018/40/debattenkultur-filterblasen-soziale-medien-s...

Kahan, D., Peters, E., Dawson, E., & Slovic, P. (2017). Motivated numeracy and enlightened self-government. Behavioural Public Policy, 1(1), 54-86. doi:10.1017/bpp.2016.2

Kennedy, K. A., & Pronin, E. (2008). When disagreement gets ugly: Perceptions of bias and the escalation of conflict. Personality and Social Psychology Bulletin, 34(6), 833-848. doi:10.1177/0146167208315158

Pariser, E. (2011). The filter bubble: what the internet is hiding from you. London: Penguin Books.

Seemann, M. (29. September 2017). Digitaler Tribalismus und Fake News. Ctrl+verlust. Abgerufen von http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/

Sunstein, C. (2007). Republic.com 2.0. Princeton, Oxford: Princeton University Press.

Taber, C. S., & Lodge, M. (2006). Motivated skepticism in the evaluation of political beliefs. American Journal of Political Science, 50(3), 755-769. doi:10.1111/j.1540-5907.2006.00214.x

Westen, D., Blagov, P. S., Harenski, K., Kilts, C., & Hamann, S. (2006). Neural bases of motivated reasoning: An fMRI study of emotional constraints on partisan political judgment in the 2004 US presidential election. Journal of Cognitive Neuroscience, 18(11), 1947–1958. doi:10.1162/jocn.2006.18.11.1947

Autor*innen