Die gefilterte Realität – Welchen Anteil haben wir selbst an der Entstehung von Echo-Kammern?

Neben der Vermeidung kognitiver Dissonanz könnte eine weitere Erklärung für das Ausblenden missliebiger Informationen die Tendenz sein, unsere eigenen Ansichten als objektiv und rational zu betrachten, während wir Personen mit abweichenden Meinungen unterstellen, Denkfehlern und verzerrenden Einflüssen zum Opfer gefallen zu sein (Kennedy & Pronin, 2008). Studien zeigen, dass Menschen umso weniger bereit sind, sich die Argumente von Menschen mit abweichenden Meinungen anzuhören und sich konstruktiv damit auseinanderzusetzen, je stärker sie glauben, dass diese Ansichten verzerrt und irrational sind.

Echo-Kammern können aber auch aus individuellen Entscheidungen resultieren, die im Kern gar nicht darauf abzielen, bestimmte Informationen gezielt auszuwählen: Beispielsweise tendieren wir dazu, Menschen sympathisch zu finden und als Freunde zu haben, die uns ähnlich sind. Diese Menschen haben oft auch politische Ansichten, die unseren eigenen ähneln. Die Zusammensetzung unseres sozialen Netzwerkes hat dann zur Folge, dass wir überwiegend mit einstellungskonformen Informationen und Meinungen in Kontakt geraten, ohne dass dies notwendigerweise jemals unser Ziel war. Wie ausgeprägt das wirklich gewollte Vermeiden von Informationen, die eigenen Einstellungen widersprechen, am Ende tatsächlich ist, wird in der Forschung kontrovers diskutiert.

Suchen wir passende Informationen auf oder vermeiden wir unpassende?

Die Motivation, unser eigenes Weltbild zu bestätigen, lässt sich prinzipiell auf zwei Arten umsetzen. GegnerInnen von Gun Control könnten beispielsweise die Internetseite der konservativeren Fox News besuchen, um ihre Meinung zu bestätigen. Oder sie könnten versuchen die Internetseite der linksliberaleren Huffington Post und damit kognitive Dissonanz zu vermeiden. Wählen wir also Informationen aus, die zu unserer Einstellung passen, oder vermeiden wir Informationen, die nicht dazu passen? Nicht in jeder wissenschaftlichen Studie zum Thema Selective Exposure wird diese kleine, aber wichtige Unterscheidung getroffen. In der anfangs beschriebenen Studie von Taber und Lodge (2006) zur einstellungskonformen Informationsauswahl lässt sich beispielsweise nicht klar sagen, ob hinter der bevorzugten Informationsauswahl aus Quellen, die zur eigenen Einstellung passen, ein Streben nach Vermeiden wir Informationen, die unserem Weltbild widersprechen? Foto von sasint via Pixabay (https://pixabay.com/de/erwachsene-ank%C3%BCndigung-kommunikation-1822449/, Lizenz: https://pixabay.com/de/service/license/). Vermeiden wir Informationen, die unserem Weltbild widersprechen? Foto von sasint via Pixabay (https://pixabay.com/de/erwachsene-ank%C3%BCndigung-kommunikation-1822449/, Lizenz: https://pixabay.com/de/service/license/).Bestätigung oder ein Streben nach Vermeidung von Widerspruch oder möglicherweise eine Mischung aus beidem steckte.

Die Frage nach den verschiedenen Varianten von Selective Exposure stellte sich der Forscher Kelly Garrett (2009) in den USA vor der Präsidentschaftswahl 2004 (George W. Bush gegen John Kerry). In seiner Studie wurden mehr als 1500 Personen telefonisch dazu befragt, wie stark sie welchen Kandidaten unterstützten und welche Internetseiten sie verwendeten, um an politische Informationen zu gelangen. Personen mit starken Präferenzen für einen Kandidaten riefen mit höherer Wahrscheinlichkeit meinungskonforme Internetseiten auf als Personen mit schwachen Präferenzen. Allerdings hatte die Stärke der politischen Präferenzen keinen Einfluss darauf, wie häufig Internetseiten mit abweichenden Meinungen aufgerufen wurden. Die Personen suchten also vor allem Informationen auf, die der eigenen Einstellung entsprachen, vermieden aber nicht systematisch Informationen, die dies nicht taten.

Wie problematisch sind Echo-Kammern? Eine Zusammenfassung und Einordnung.

Wenn wir die Wahl haben, bevorzugen wir oft Inhalte, die unseren Einstellungen entsprechen, und umgeben uns mit Menschen, die diese teilen. Auf diese Weise vermeiden wir on- und offline den unangenehmen Zustand kognitiver Dissonanz, in den uns widersprechende Informationen versetzen. Gerade bei Themen, mit denen wir uns stark identifizieren oder die uns ein Gruppenzugehörigkeitsgefühl vermitteln, sind diese Bestrebungen besonders stark. Diese psychologischen Prozesse und daraus resultierende Echo-Kammern sind kein neues Phänomen, denn auch vor dem Internet konnten Menschen auswählen, welche TV- und Radiosender oder Zeitungen sie konsumierten. Durch soziale Netzwerke und Suchmaschinen wird uns diese aktive Auswahl teilweise aus der Hand genommen, indem Algorithmen für uns Inhalte auswählen, die uns vermeintlich gefallen. Während dies für ein angenehmes Nutzungserlebnis sorgt, könnte es für den politischen Diskurs schädlich sein.

In welchem Ausmaß das Entstehen von Echo-Kammern dem Internet und sozialen Medien anzulasten ist, ist jedoch gar nicht so klar. Beispielsweise werden wir auf Facebook dazu animiert, auch oberflächliche Bekanntschaften in unsere sozialen Netzwerke aufzunehmen. So erfahren wir leichter etwas über die politischen Ansichten von Menschen, die uns weniger ähnlich sind. Dass genau dies jedoch auch negative Effekte haben kann, zeigen die Ergebnisse einer Studie von Bail und Kollegen (2018). US-amerikanische NutzerInnen von Twitter wurden dafür bezahlt, einem Twitter-Account zu folgen, der Informationen teilte, die ihren eigenen politischen Ansichten widersprachen. Diese Intervention hatte zur Folge, dass sich die politischen Ansichten noch stärker in die bereits bestehende Richtung verschoben (wobei der Effekt nur bei AnhängerInnen der republikanischen Partei statistisch signifikant war). Die steigende Polarisierung bei politischen Themen könnte also auch daraus resultieren, dass wir im Internet besonders oft mit abweichenden Meinungen konfrontiert werden, anstatt dass wir durch Algorithmen und eigene Entscheidungen davon abgeschirmt werden (Jessen, 2018).

Was können wir also tun?

Bestätigende Informationen aufzusuchen, mag die bequemere Möglichkeit sein, zu der wir oft tendieren. Hilflos sind wir gegenüber Informationsblasen und Echo-Kammern aber nicht, denn wir haben stets die Wahl, aktiv daraus auszubrechen. Dies erfordert das Bewusstsein für die psychologischen Prozesse, die in uns stattfinden, sowie Verständnis für die Möglichkeiten und Gefahren sozialer Netzwerke. Gerade in Zeiten zunehmender Digitalisierung sollte eine Aufklärung diesbezüglich schon in der Schule sowie im Elternhaus stattfinden.

Das Internet gibt uns die Freiheit, aus unzähligen Informationen auszuwählen. Mit dieser Freiheit geht jedoch auch die Verantwortung einher, diese Informationsflut mit Vorsicht zu genießen, eigene Sichtweisen zu hinterfragen, mit Fakten zu untermauern und andere Perspektiven aufzusuchen. Sich aktiv kognitiver Dissonanz auszusetzen, kostet Energie, Mut und Empathie. Für den politischen Diskurs und eine demokratische Meinungsbildung ist es jedoch essentiell.

Literaturverzeichnis

Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. B. F., … Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. PNAS Proceedings of the National Academy of Sciences of the United States of America, 115(37), 9216–9221. doi:10.1073/pnas.1804840115

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132. doi:10.1126/science.aaa1160

Cappella, J. N., Kim, H. S., & Albarracín, D. (2015). Selection and transmission processes for information in the emerging media environment: Psychological motives and message characteristics. Media Psychology, 18(3), 396-424. doi:10.1080/15213269.2014.941112

Festinger, L. (1957). A theory of cognitive dissonance. Stanford, CA: Stanford University Press.

Fisher, M., & Keller, J. (7. November 2017). What explains U.S. mass shootings? International comparisons suggest an answer. The New York Times. Abgerufen von https://www.nytimes.com/2017/11/07/world/americas/mass-shootings-us-inte...

Frimer, J. A., Skitka, L. J., & Motyl, M. (2017). Liberals and conservatives are similarly motivated to avoid exposure to one another's opinions. Journal of Experimental Social Psychology, 72, 1-12. doi:10.1016/j.jesp.2017.04.003

Garrett, R. K. (2009). Politically motivated reinforcement seeking: Reframing the selective exposure debate. Journal of Communication, 59(4), 676-699. doi:10.1111/j.1460-2466.2009.01452.x

Hart, W., Albarracín, D., Eagly, A. H., Brechan, I., Lindberg, M. J., & Merrill, L. (2009). Feeling validated versus being correct: A meta-analysis of selective exposure to information. Psychological Bulletin, 135(4), 555-588. doi:10.1037/a0015701

Jessen, J. (26. September 2018). Lob der Blase. Zeit Online. Abgerufen von https://www.zeit.de/2018/40/debattenkultur-filterblasen-soziale-medien-s...

Kahan, D., Peters, E., Dawson, E., & Slovic, P. (2017). Motivated numeracy and enlightened self-government. Behavioural Public Policy, 1(1), 54-86. doi:10.1017/bpp.2016.2

Kennedy, K. A., & Pronin, E. (2008). When disagreement gets ugly: Perceptions of bias and the escalation of conflict. Personality and Social Psychology Bulletin, 34(6), 833-848. doi:10.1177/0146167208315158

Pariser, E. (2011). The filter bubble: what the internet is hiding from you. London: Penguin Books.

Seemann, M. (29. September 2017). Digitaler Tribalismus und Fake News. Ctrl+verlust. Abgerufen von http://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/

Sunstein, C. (2007). Republic.com 2.0. Princeton, Oxford: Princeton University Press.

Taber, C. S., & Lodge, M. (2006). Motivated skepticism in the evaluation of political beliefs. American Journal of Political Science, 50(3), 755-769. doi:10.1111/j.1540-5907.2006.00214.x

Westen, D., Blagov, P. S., Harenski, K., Kilts, C., & Hamann, S. (2006). Neural bases of motivated reasoning: An fMRI study of emotional constraints on partisan political judgment in the 2004 US presidential election. Journal of Cognitive Neuroscience, 18(11), 1947–1958. doi:10.1162/jocn.2006.18.11.1947

AutorInnen

Facebook