Im Auge des Anderen - Wie uns die Anwesenheit anderer beeinflusst

Wir alle haben schon einmal festgestellt, dass der Blick des anderen eine besondere Bedeutung für uns hat. Ob wir in die Augen unseres Partners schauen, oder eines verärgerten Verkehrsteilnehmers, beides löst bestimmte Reaktionen in uns aus. Auch in der alltäglichen Kommunikation nutzen wir Blicke zur Steuerung von Gesprächen und um auf wichtige Informationen hinzuweisen. In unserem Artikel gehen wir der Frage nach, wie uns die Blicke anderer darin beeinflussen, was wir wahrnehmen und was in einer komplexen Umgebung unsere Aufmerksamkeit weckt.

 

Ohne dass Menschen besonders darüber nachdenken, gelingt es ihnen soziale Regeln zu befolgen. So sind sozial erwartetes Blickverhalten und Reaktionen auf die Vorstellungen und Gefühle anderer Menschen nahezu mühelos möglich. Die augenscheinliche Leichtigkeit, mit der solche Prozesse ablaufen, täuscht allerdings darüber hinweg, dass funktionierende soziale Interaktionen häufig sehr komplexe Fähigkeiten voraussetzen. Auffällig wird diese Komplexität erst, wenn die Interaktion nicht mehr reibungslos gelingt, wie es z.B. bei Menschen mit Autismus der Fall ist (Frith, 2003).

 

Neuere Studien haben sich deshalb mit der Frage befasst, welche Prozesse beim Menschen ablaufen, wenn elementare soziale Vorgänge beobachtet werden. Im Folgenden gehen wir auf Studien ein, die zeigen, dass die Beobachtung von sozialen Agenten spontan zur Übernahme der Perspektive des Agenten führt und dass wahrgenommene Bewegungen anderer unter Umständen die Ausführung der eigenen Bewegungen stören können. Überdies werden Arbeiten berichtet, die nachweisen, dass Aufmerksamkeit und Augenbewegungen eines Beobachters den Blicken beobachteter Agenten folgen und dass sowohl geometrische als auch Kontextfaktoren die Genauigkeit der Wahrnehmung der Blickrichtung des Interaktionspartners bestimmen. Abschließend wird beschrieben, welche neuronalen Strukturen für die Verarbeitung sozialer Informationen verantwortlich sind und wie Blicke die Verarbeitung von Objekten und die Beurteilung von Personen beeinflussen können. Ein grundlegendes Verständnis dieser Fragestellungen ist nicht nur für Neuro- und Sozialwissenschaftler wichtig. Sie gewinnen auch zunehmend an Bedeutung für die Entwicklung moderner Roboter, die in ihrem Interaktionsverhalten das natürliche Verhalten von Menschen berücksichtigen und adäquat darauf reagieren sollen (Zwickel & Müller, 2009).

 

Wenn Bewegungen stören

Dass gesehenen menschlichen Bewegungen eine besondere Rolle im Beobachter zukommt, zeigen z.B. Studien von Kilner et al. (2003). Die Forscher untersuchten, ob die Stärke, mit der sich Personen durch beobachtete Bewegungen in der Ausführung eigener Bewegungen beeinflussen lassen davon abhängt, ob die beobachteten Bewegungen mechanischer oder biologischer Natur sind. Dazu sollten die Teilnehmer der Studie z.B. horizontale Armbewegungen ausführen. Während deren Ausführung waren vertikale Armbewegungen zu sehen. Wenn die gesehenen Bewegungen die normalen Beschleunigungs- und Abbremsphasen von menschlichen Bewegungen zeigten, war die Leistung der Teilnehmer vermindert. Dies war nicht der Fall, wenn mechanische Bewegungsmuster gezeigt wurden. Dieser Befund wurde dadurch erklärt, dass die Beobachter ein internes Modell der gesehenen Bewegung sozusagen mitlaufen ließen, welches zu Problemen bei der eigenen Ausführung führte. Dieses Modell war aber nur für menschliche Bewegungen vorhanden.

 

Stanley et al. (2007) zeigten darüber hinaus, dass sogar beobachtete Bewegungen eines Punktes zu einer Verringerung der Leistung des Beobachters führen können. Dieser Effekt war allerdings nur dann zu beobachten, wenn der Beobachter glaubte, dass die Bewegung von einem Menschen erzeugt wurde, nicht aber wenn den Beobachtern gesagt wurde, dass die Bewegung von einem Computer generiert worden ist. Diese Befunde legen nahe, dass Menschen sich nicht grundsätzlich durch wahrgenommene Bewegungen in der Ausführung ihrer eigenen Bewegungen beeinflussen lassen, sondern nur dann, wenn die Bewegungen in eine soziale Situation eingebettet sind und sie davon ausgehen, dass sie mit einem menschlichen Partner interagieren.

 

Die Perspektive der anderen

Beim Beobachten eines Menschen scheinen aber nicht nur Bewegungsmodelle aktiviert zu werden. Gleichzeitig wird auch die visuell-räumliche Perspektive der gesehenen Person beachtet. So zeigten z.B. Tversky und Hard (2009), dass Personen, die aufgefordert wurden, die Lage eines Objektes zu beschreiben, spontan auch die Perspektive eines gesehenen Menschen berücksichtigten. Spontan bedeutet hier, dass die Teilnehmer weder durch die Instruktion aufgefordert wurden, die Perspektive der dargestellten Personen zu übernehmen, noch dass durch eine Perspektivenübernahme die Aufgabe leichter zu lösen war. Den Teilnehmern der Studie wurde z.B. ein Tisch gezeigt, auf dem sich ein Buch und rechts davon eine Flasche befanden. Ihre Aufgabe war es, den Ort des Buches zu beschreiben. In Situationen, in denen hinter dem Tisch eine Person abgebildet war, wurde häufig deren Perspektive mitberücksichtigt und z.B. das Buch als links der Flasche von der Position der beobachteten Person aus beschrieben. Ähnliche Effekte wurden auch von Belopolsky et al. (2008), Frischen et al. (2009), Samson et al. (in Druck) und Thomas et al. (2006) berichtet.

 

Vermenschlichte Dreiecke

Dass dieser Effekt aber nicht nur auf die Beobachtung von Personen beschränkt ist, zeigt eine Studie von Zwickel (2009). In dieser Studie betrachteten die Teilnehmer kurze Filme in denen zwei bewegte Dreiecke zu sehen waren (Frith-Happé Animationen; Abell, Happé, & Frith, 2000). Ähnliche Filme wurden bereits 1944 von Heider und Simmel (Heider & Simmel, 1944) eingesetzt, um zu untersuchen, welchen Einfluss die Bewegung einfacher geometrischer Objekte darauf hat, ob den Objekten komplexe Handlungen und Ziele zugeschrieben werden. Die Filme der Frith-Happé Animationen unterscheiden sich darin, wie stark sie im Beobachter den Eindruck hervorrufen, dass die Dreiecke ein „Innenleben“ besitzen. Zum einen gibt es Animationen, in denen sich die Dreiecke unabhängig von einander bewegen. Sie gleiten z.B. von links nach rechts, stoßen am Rand des Bildschirms an und gleiten wieder zurück, vergleichbar mit Billardkugeln. Dreiecke in Animationen diesen Typs werden gewöhnlich nicht als handelnde Agenten mit eigenem Willen beschrieben. Es gibt aber auch Animationen in denen die Bewegungen der Dreiecke aufeinander abgestimmt sind. So klopft z.B. in einer Animation ein Dreieck an eine schematisch dargestellte Tür und versteckt sich danach. Eine typische Beschreibung dieser Animation könnte lauten, dass das eine Dreieck das andere ärgern will und einen Klingelstreich spielt. Hier wird also den Dreiecken ein „Innenleben“, ein mentaler Zustand, zugeschrieben.

 

In der Studie von Zwickel (2009) waren nun zusätzlich Punkte zu sehen, die zu zufälligen Zeitpunkten rechts oder links des großen Dreiecks auftauchen konnten. Die Aufgabe der Teilnehmer war es, so schnell wie möglich zu beurteilen, ob die Punkte rechts oder links des Dreiecks zu sehen waren. Wenn das Dreieck eine Bewegung nach unten vollführte, so war ein Punkt, der aus der Sicht des Beobachters rechts des Dreiecks erschien, nicht nur rechts des Dreiecks aus Sicht des Beobachters sondern auch gleichzeitig links aus Sicht des Dreiecks (vgl. Abbildung 1, inkongruente Bedingung, linke Seite). In der kongruenten Bedingung befand sich der Punkt sowohl vom Beobachter aus als auch vom Dreieck aus gesehen auf der linken Seite (Abbildung 1, rechte Seite). Für die Teilnehmer der Studie sollte dies keine Rolle spielen, da sie nur aus ihrer Sicht den Ort des Punktes beurteilen sollten. Dennoch reagierten sie in inkongruenten Bedingungen langsamer als in kongruenten. Dieser Unterschied zwischen kongruenten und inkongruenten Bedingungen trat jedoch nur in Filmen auf, in denen die Dreiecke als belebt aufgefasst werden, nicht aber in Filmen, in denen die Bewegung der Dreiecke z.B. als mechanisch beschrieben wurde.

 

Ein Blick sagt mehr als tausend Worte

Menschen sind in sozialen Situationen nicht nur in der Lage, die Perspektive ihrer Interaktionspartner einzunehmen. Sie haben auch ein sehr großes Interesse daran, worauf andere ihre Aufmerksamkeit richten, um beispielsweise Informationen über die Intentionen des Gegenübers zu erhalten oder um antizipieren zu können, welche Handlungsschritte der Interaktionspartner als nächstes unternehmen wird. Dieses Wissen ist in sozialen Situationen essentiell notwendig, um adäquat reagieren zu können. Informationen über die Blickrichtung des Interaktionspartners sind dabei nicht nur ein guter Indikator für dessen Aufmerksamkeitsfokus, sie können auch modulierend auf das Interaktionsverhalten einwirken, indem sie beispielsweise die Wechselseitigkeit der Kommunikation beeinflussen.

 

Die nachfolgenden Studien sollen die Sonderstellung der Augen in der sozialen Interaktion verdeutlichen und einen Eindruck darüber vermitteln, wie hochspezialisiert Menschen auf die Verarbeitung und Interpretation von Blickinformationen sind.

 

Indikatoren für Aufmerksamkeit in sozialen Agenten

Eine grundlegende Voraussetzung um auf andere adäquat reagieren zu können, ist die Fähigkeit, den Aufmerksamkeitsfokus eines oder mehrerer Interaktionspartner möglichst genau bestimmen zu können. Neben Informationen, die die Geometrie des Auges liefert, spielen dabei auch die Kopf- und Körperposition eine entscheidende Rolle. Diese drei Faktoren beeinflussen sich gegenseitig und können zu Störeffekten führen, wenn sie widersprüchlich sind. Langton (2000) führte dazu ein Experiment durch, in dem Fotos einer realen Person gezeigt wurden. Hierbei wurde die Blickrichtung der Augen relativ zur Position des Kopfes variiert. Gleichzeitig wurde auch noch die Kopfrichtung unabhängig von der Blickrichtung manipuliert. Sie konnte dabei mit der Blickrichtung übereinstimmen (kongruent) oder ihr entgegengesetzt sein (inkongruent). Die Aufgabe der Versuchspersonen war es, entweder auf die Kopfrichtung oder auf die Blickrichtung so schnell wie möglich durch Tastendruck zu reagieren. Wenn sich Kopfrichtung und Blickrichtung gegenseitig beeinflussen, sollte sich das in verlangsamten Reaktionen und höheren Fehlerraten in der inkongruenten Bedingung im Vergleich zur kongruenten Bedingung zeigen. Die Daten bestätigten die Vermutungen des Forschers. Es zeigte sich, dass die Reaktionen auf die Kopfrichtung deutlich langsamer und fehleranfälliger waren, wenn die Augen in die entgegengesetzte Richtung schauten, als wenn die Augen in die gleiche Richtung schauten. Analog dazu waren die Reaktionen auf die Blickrichtung deutlich schneller, wenn Blickrichtung und Kopfrichtung übereinstimmten, als wenn der Kopf in die dem Blick entgegengesetzte Richtung zeigte.

Eine grundlegende Voraussetzung um auf andere adäquat reagieren zu können, ist die Fähigkeit, den Aufmerksamkeitsfokus eines oder mehrerer Interaktionspartner möglichst genau bestimmen zu können. Neben Informationen, die die Geometrie des Auges liefert, spielen dabei auch die Kopf- und Körperposition eine entscheidende Rolle. Diese drei Faktoren beeinflussen sich gegenseitig und können zu Störeffekten führen, wenn sie widersprüchlich sind. Langton (2000) führte dazu ein Experiment durch, in dem Fotos einer realen Person gezeigt wurden. Hierbei wurde die Blickrichtung der Augen relativ zur Position des Kopfes variiert. Gleichzeitig wurde auch noch die Kopfrichtung unabhängig von der Blickrichtung manipuliert. Sie konnte dabei mit der Blickrichtung übereinstimmen (kongruent) oder ihr entgegengesetzt sein (inkongruent). Die Aufgabe der Versuchspersonen war es, entweder auf die Kopfrichtung oder auf die Blickrichtung so schnell wie möglich durch Tastendruck zu reagieren. Wenn sich Kopfrichtung und Blickrichtung gegenseitig beeinflussen, sollte sich das in verlangsamten Reaktionen und höheren Fehlerraten in der inkongruenten Bedingung im Vergleich zur kongruenten Bedingung zeigen. Die Daten bestätigten die Vermutungen des Forschers. Es zeigte sich, dass die Reaktionen auf die Kopfrichtung deutlich langsamer und fehleranfälliger waren, wenn die Augen in die entgegengesetzte Richtung schauten, als wenn die Augen in die gleiche Richtung schauten. Analog dazu waren die Reaktionen auf die Blickrichtung deutlich schneller, wenn Blickrichtung und Kopfrichtung übereinstimmten, als wenn der Kopf in die dem Blick entgegengesetzte Richtung zeigte.

 

Ob und wie wir auf Richtungsinformationen reagieren, scheint allerdings auch davon abzuhängen, wie wir dargebotene Reize wahrnehmen und interpretieren. Eine Studie von Ristic und Kingstone (2005) zeigt beispielsweise, dass Versuchspersonen auf ein und dasselbe Reizmuster anders reagieren, wenn sie davon ausgehen ein Augenpaar zu sehen, als wenn sie glauben, die Räder eines Autos anzuschauen (vgl. Abbildung 2). Im ersten Fall zeigen die Probanden eine spontane Aufmerksamkeitsverschiebung in Blickrichtung und können so deutlich schneller auf Zielobjekte reagieren, die von den Augen angeschaut werden. Im zweiten Fall profitieren sie jedoch nicht von der im Reizmuster enthaltenen Richtungsinformation und zeigen folglich auch keine beschleunigte Reaktion auf Zielobjekte, deren Position durch die Stellung der Räder eigentlich angezeigt wird.

 

Genauigkeit der Bestimmung der Blickrichtung

Was die Genauigkeit der Bestimmung der Blickrichtung betrifft, so ist es beim menschlichen Auge besonders gut möglich, zwischen verschiedenen Blickrichtungen zu unterscheiden (Bock, Dicke, & Thier, 2008; Gale & Monk, 2000; Gamer & Hecht, 2007; Symons, Lee, Cedrone, & Nishimura, 2004; Todorović, 2006). Verantwortlich dafür ist dessen besonderer anatomischer Aufbau: Im Gegensatz zu anderen Primatenarten, bilden Pupille und Iris beim Menschen nur eine relativ kleine dunkle Fläche im Auge, die links und rechts von anteilsmäßig großen weißen Gebieten, der sogenannten Sclera, umgeben ist (Kobayashi & Kohshima, 1997). Folglich können beim Menschen Informationen über die Blickrichtung aus dem geometrischen Verhältnis von hellen und dunklen Arealen im Auge abgelesen werden. Jede Veränderung der Blickrichtung erzeugt dabei eine charakteristische Veränderung der Geometrie zwischen hellen und dunklen Anteilen, die von einem Beobachter innerhalb kürzester Zeit analysiert werden kann. Auf diese Weise ist die Bestimmung der Blickrichtung auf der Basis geometrischer Informationen bei Menschen viel leichter zu bewerkstelligen als bei anderen Primatenarten.

 

Neuere Erkenntnisse legen allerdings nahe, dass neben geometrischen Informationen auch Kontextinformationen einen Einfluss auf die wahrgenommene Blickrichtung haben können. So tendieren Menschen dazu, Intentionen hinter Veränderungen in der Blickrichtung zu vermuten und gehen deshalb davon aus, dass sozialen Agenten eher ein Objekt anschauen als einen imaginären Punkt im leeren Raum. Dementsprechend können Annahmen darüber, wo eine Person hinschaut, die rein geometrischen Informationen aus den Augen verzerren und die wahrgenommene Blickrichtung systematisch beeinflussen. In einer Studie von Lobmaier et al. (2006) sollten Probanden die Blickziele eines sozialen Agenten möglichst genau berichten. Der tatsächliche Fixationspunkt konnte dabei entweder ein imaginärer Punkt im zweidimensionalen Raum sein oder durch eine Münze markiert sein. Zusätzlich konnte diese Münze auch links oder rechts des tatsächlichen Fixationspunktes platziert sein. Es zeigte sich einerseits, dass die Schätzung am genauesten war, wenn sich die Münze auf dem tatsächlichen Fixationspunkt befand und andererseits, dass die wahrgenommene Blickrichtung systematisch in Richtung der Position der Münze verzerrt wurde.

 

Neuronale Spezialisierung für die Verarbeitung von Blickinformationen

Die besondere Bedeutung, die Augen für die soziale Interaktion haben, spiegelt sich auch in der neuronalen Verarbeitung von Blickbewegungen wieder. Das menschliche Gehirn ist nämlich in eindrucksvoller Weise auf die Verarbeitung von Blickinformationen spezialisiert. Zahlreiche neurologische Studien konnten dabei eine Schlüsselrolle des STS (superior temporal sulcus) nachweisen. Der STS ist eine Struktur der Großhirnrinde, die spezialisiert ist auf die Verarbeitung biologischer Bewegung, auf das Erkennen und Interpretieren von Gesichtsausdrücken und auf die Integration audiovisueller Informationen (Allison, Puce, & McCarthy, 2000). So ist es mit Hilfe des STS möglich, Veränderungen der Blickrichtung zu erkennen und zu interpretieren. Er wird auch durch den Kontext, in dem die Blickverarbeitung stattfindet, in seiner Aktivität beeinflusst und zeigt eine stärkere Aktivierung, wenn der Blick auf ein Objekt gerichtet ist, als wenn der Blick in den leeren Raum führt (Pelphrey, Singerman, Allison, & McCarthy, 2003).

 

Der STS ist zusätzlich in ein größeres neuronales Netzwerk eingebunden, das es ermöglicht, soziale Aspekte bei Veränderungen der Blickrichtung zu erkennen. Es bestehen Verbindungen zu den Emotionszentren des menschlichen Gehirns, z.B. der Amygdala, einer mandelförmigen Struktur im limbischen System (Kawashima et al., 1999). Die Amygdala ist wesentlich an der Entstehung von Angst beteiligt und spielt eine wichtige Rolle bei der emotionalen Bewertung und Wiedererkennung von Situationen sowie der Analyse möglicher Gefahren. Im Hinblick auf die Verarbeitung von Blickinformationen reagiert diese Struktur besonders empfindlich auf direkten Blickkontakt sowie auf andere sozial relevante Informationen im Blickverhalten (Hooker et al., 2003). Eine weitere Struktur, die direkt mit dem STS kommuniziert, ist der fusiforme Gyrus, ein Areal, das spezialisiert ist auf die Verarbeitung von Informationen aus der Gesichtsregion (George, Driver, & Dolan, 2001). Im Gegensatz zum STS reagiert diese Struktur aber nicht auf temporäre Veränderungen in der Blickbewegung, sondern hauptsächlich auf Veränderungen, die mit der Identität des Interaktionspartners zu tun haben. Hoffman und Haxby (2000) konnten mit Hilfe bildgebender Verfahren (fMRI) zeigen, dass bei der Wahrnehmung von Blickbewegungen auch solche Strukturen eine gesteigerte Aktivierung zeigen, die für die räumliche Aufmerksamkeitsverteilung zuständig sind. Sie befinden sich u.a. im intraparietalen Sulcus der linken und rechten Hirnhälfte. Eine weitere neuronale Struktur, die bei der Verarbeitung von Blickbewegungen aktiv ist, ist der mediale präfrontale Cortex. Er befindet sich im Stirnhirn und ist für die Zuschreibung mentaler Zustände bei anderen und für die Intentionserkennung zuständig (Calder et al., 2002).

 

Spontane Verarbeitung von Blickbewegungen

Im Laufe eines Tages verarbeiten wir zahlreiche Blickinformationen in den unterschiedlichsten Situationen: Wir laufen beispielsweise eine belebte Straße entlang und bemerken plötzlich eine Person, die ihren Blick nach oben richtet (Abbildung 3). Ohne große Mühe können wir die Blickrichtung der Person bestimmen, ihrem Blick spontan folgen und das Objekt lokalisieren, das das Interesse dieser Person geweckt hat. Oder wir befinden uns mit unseren Arbeitskollegen beim Mittagessen und sollen einem weiter entfernt sitzenden Kollegen eine bestimmte auf dem Tisch stehende Schüssel reichen. Allein durch das Verfolgen seiner Blickbewegungen sind wir in der Lage, das gewünschte Objekt zu bestimmen und es dem Kollegen zu reichen.

 

Abbildung 3:Spontanes Verfolgen der Blickbewegung anderer in Alltagssituationen.Um dieser Fähigkeit auf den Grund zu gehen, wurde in zahlreichen Verhaltensstudien getestet, ob die Blickbewegung eines Interaktionspartners tatsächlich spontan verfolgt wird und welche Faktoren bestimmen, worauf wir unsere Aufmerksamkeit in sozialen Interaktionen richten. Die bisherigen Ergebnisse scheinen für eine spontane Verarbeitung von und Reaktion auf die Blickrichtung des Interaktionspartners zu sprechen. In einer Studie von Friesen und Kingstone (1998) sahen Versuchspersonen beispielsweise Abbildungen von schematischen Gesichtern (Strichzeichnungen), die entweder nach links, rechts oder geradeaus schauten. Die Aufgabe der Versuchspersonen war es, so schnell und fehlerfrei wie möglich auf ein links oder rechts neben dem Gesicht erscheinendes Zielobjekt zu reagieren. Obwohl die Versuchspersonen im Vorfeld darüber informiert wurden, dass die Blickrichtung keine Information über den Ort des Erscheinens des Zielobjektes beinhaltete, reagierten sie deutlich schneller und produzierten weniger Fehler, wenn die Blickrichtung des schematischen Gesichts mit der Position des Zielreizes übereinstimmte. Eine Studie von Driver et al. (1999) konnte außerdem zeigen, dass eine intuitive Aufmerksamkeitsverschiebung in Blickrichtung des Gegenübers sogar dann erfolgt, wenn die Probanden im Vorfeld darüber informiert wurden, dass das Zielobjekt sehr viel wahrscheinlicher auf der gegenüberliegenden Seite erscheinen würde.

 

Ähnliche Ergebnisse zeigten sich auch für Augenbewegungen (Castelhano, Wieth, Henderson, & Rome, 2008; Fletcher-Watson, Leekam, Benson, Frank, & Findlay, 2008; Zwickel & Võ, in Druck). In der Studie von Zwickel und Võ hatten die Probanden die Aufgabe, komplexe Szenen am Computer so anzuschauen, wie sie auch Photos betrachten würden. In jeder Szene war eine Person zu sehen. Die Position der Person variierte dabei zwischen den Szenen. Obwohl die Person keine prominente Rolle in den Szenen spielte und auch die Aufgabeninstruktion ihr keine relevante Rolle zuschrieb, folgten die Probanden mit ihren Augen spontan der Blickrichtung der Person zu den in Blickrichtung liegenden Objekten. Diese Folgebewegung zeigte sich nicht für ein nicht-menschliches Kontrollobjekt (vgl. Abbildung 4).

 

Blicke verändern die Wahrnehmung und Bewertung von Objekten

Blicke signalisieren in sozialen Situationen nicht nur, worauf jemand seine Aufmerksamkeit richtet, sie beeinflussen auch, wie Objekte wahrgenommen und verarbeitet werden. Studien von Bayliss et al. (2006, 2007) zeigen beispielsweise, dass die affektive Bewertung eines Objektes durch Blicke verändert werden kann. Dabei werden Objekte, die von Interaktionspartnern angeschaut werden, positiver bewertet und gegenüber Objekten bevorzugt, die nicht angeschaut werden. Dieser Effekt wird noch zusätzlich durch die emotionale Färbung des Gesichtsausdrucks (Bayliss, Frischen, Fenske, & Tipper, 2007) und die Attraktivität (Strick, Holland, & van Knippenberg, 2008) des Interaktionspartners moduliert. Objekte, die mit einem fröhlichen Gesicht angeschaut werden, werden positiver bewertet als Objekte, die mit einem angewiderten Gesicht angeschaut werden. Richtet der Interaktionspartner seinen Blick allerdings nicht auf das neben sich befindliche Objekt, sondern auf den Beobachter selbst, hat die emotionale Färbung des Gesichtsausdrucks keinen Einfluss auf die Bewertung des Objektes. Ein Zusammenhang zwischen Blickrichtung und Objektbewertung findet sich auch in entwicklungspsychologischen Studien. Reid und Striano (2005) wiesen beispielsweise bei 4-monatigen Säuglingen nach, dass Objekte, die von einem Interaktionspartner angeschaut wurden, deutlich vertrauter wahrgenommen wurden als Objekte, die zwar bekannt waren, aber nicht angeschaut wurden.

 

Umgekehrt kann die Blickrichtung auch einen Einfluss darauf haben, wie wir die Persönlichkeit des Interaktionspartners bewerten. Personen, die direkten Blickkontakt aufnehmen, werden als vertrauenserweckender und attraktiver wahrgenommen, als Personen, die direkten Blickkontakt vermeiden (Mason, Tatkow, & Macrae, 2005). Zusätzlich werden Personen, die durch Blicke in sozialen Situationen falsche Informationen vermitteln (z.B. nie auf ein gewünschtes Zielobjekt schauen) als weniger vertrauenserweckend bewertet (Bayliss & Tipper, 2006).

 

Zusammenfassung

Die Anwesenheit anderer übt einen großen Einfluss auf das eigene Verhalten aus. So übernehmen Menschen durch die Beobachtung von sozialen Agenten nicht nur spontan deren Perspektive, sondern richten ihre Aufmerksamkeit auch entsprechend der Blickrichtung anderer aus. Die dazu nötigen Informationen werden neben der Kopf- und Körperposition vor allem aus der Geometrie des Auges gewonnen, können aber durch Kontextinformationen zusätzlich moduliert werden. Für die Verarbeitung von Augeninformationen ist ein neuronales System zuständig, welches neben der Blickrichtung auch Emotionen und die Identität des Interaktionspartners verarbeitet und an der Verschiebung des Aufmerksamkeitsfokus beteiligt ist. Darüber hinaus können Blicke beobachteter Agenten die Bewertung von Personen und Objekten beeinflussen. Dies zeigt welche wichtige Rolle Augenbewegungen auch in Alltagssituationen spielen.

 

Danksagung

Wir danken der DFG für die freundliche Unterstützung im Rahmen der Exzellenzinitiative "cognition for technical systems – CoTeSys".

 

Literaturverzeichnis

  • Abell, F., Happé, F., & Frith, U. (2000). Do triangles play tricks? Attribution of mental states to animated shapes in normal and abnormal development. Cognitive Development, 15(1), 1-16.
  • Allison, T., Puce, A., & McCarthy, G. (2000). Social perception from visual cues: role of the STS region. Trends in Cognitive Sciences, 4(7), 267-278.
  • Bayliss, A. P., & Tipper, S. P. (2006). Predictive Gaze Cues and Personality Judgments. Psychological Science, 17(6), 514-520.
  • Bayliss, A. P., Frischen, A., Fenske, M. J., & Tipper, S. P. (2007). Affective evaluations of objects are influenced by observed gaze direction and emotional expression. Cognition, 104(3), 644-53.
  • Belopolsky, A. V., Olivers, C. N., & Theeuwes, J. (2008). To point a finger: Attentional and motor consequences of observing pointing movements. Acta Psychologica, 128(1), 56-62.
  • Bock, S. W., Dicke, P., & Thier, P. (2008). How precise is gaze following in humans? Vision Research, 48(7), 946-57.
  • Calder, A. J., Lawrence, A. D., Keane, J., Scott, S. K., Owen, A. M., Christoffels, I., et al. (2002). Reading the mind from eye gaze. Neuropsychologia, 40(8), 1129-1138.
  • Castelhano, M., Wieth, M., Henderson, J. L. P., & Rome, E. (2008). I see what you see: eye movements in real-world scenes are affected by perceived direction of gaze. Lecture Notes in Computer Science, 4840, 251-262.
  • Driver, J., Davis, G., Ricciardelli, P., Kidd, P., Maxwell, E., Baron-Cohen, S., et al. (1999). Gaze perception triggers reflexive visuospatial orienting. Visual Cognition, 6(5), 509-540.
  • Fletcher-Watson, S., Leekam, S. R., Benson, V., Frank, M. C., & Findlay, J. M. (2009). Eye-movements reveal attention to social information in autism spectrum disorder. Neuropsychologia, 47(1), 248-257.
  • Friesen, C. K., & Kingstone, A. (1998). The eyes have it! Reflexive orienting is triggered by nonpredictive gaze. Psychonomic Bulletin & Review, 5(3), 490-495.
  • Frischen, A., Loach, D., & Tipper, S. P. (2009). Seeing the world through another person's eyes: simulating selective attention via action observation. Cognition, 111(2), 212-218.
  • Frith, U. (2003). Autism: Explaining the Enigma. Blackwell Publishing.
  • Gale, C., & Monk, A. (2000). Where am I looking? The accuracy of video-mediated gaze awareness. Perception & Psychophysics, 62(3), 586-595.
  • Gamer, M., & Hecht, H. (2007). Are you looking at me? Measuring the cone of gaze. Journal of Experimental Psychology: Human Perception and Performance, 33(3), 705-715.
  • George, N., Driver, J., & Dolan, R. J. (2001). Seen gaze-direction modulates fusiform activity and its coupling with other brain areas during face processing. NeuroImage, 13, 1102-1112.
  • Heider, F. & Simmel, M. (1944). An experimental study of apparent behavior. American Journal of Psychology, 57, 243–259.
  • Hoffman, E. A., & Haxby, J. V. (2000). Distinct representations of eye gaze and identity in the distributed human neural system for face perception. Nature Neuroscience, 3(1), 80-84.
  • Hooker, C., Paller, K., Gitelman, D., Parrish, T. B., Mesulam, M., Reber, P. J., et al. (2003). Brain networks for analyzing eye gaze. Cognitive Brain Research, 17(2), 406-418.
  • Kawashima, R., Sugiura, M., Kato, T., Nakamura, A., Hatano, K., Ito, K., et al. (1999). The human amygdala plays an important role in gaze monitoring: A PET study. Brain, 122, 779-783.
  • Kilner, J. M., Paulignan, Y., & Blakemore, S. J. (2003). An interference effect of observed biological movement on action. Current Biology, 13(6), 522-525.
  • Kobayashi, H., & Kohshima, S. (1997). Unique morphology of the human eye. Nature, 387, 767-768.
  • Langton, S. (2000). The mutual influence of gaze and head orientation in the analysis of social attention direction. The Quarterly Journal of Experimental Psychology, 53A (3), 825-845.
  • Lobmaier, J. S., Fischer, M. H., & Schwaninger, A. (2006). Objects capture perceived gaze direction. Experimental Psychology, 53(2), 117-122.
  • Mason, M. F., Tatkow, E. P., & Macrae, C. N. (2005). The Look of Love. Gaze Shifts and Person Perception. Psychological Science, 16(3), 236-239.
  • Pelphrey, K. A., Singerman, J. D., Allison, T., & McCarthy, G. (2003). Brain activation evoked by perception of gaze shifts: the influence of context. Neuropsychologia, 41(2), 156-170.
  • Reid, V. M., & Striano, T. (2005). Adult gaze influences infant attention and object processing: implications for cognitive neuroscience. Neuroscience, 21, 1763-1766.
  • Ristic, J., & Kingstone, A. (2005). Taking control of reflexive social attention. Cognition, 94(3), B55-65.
  • Samson, D., Apperly, I. A., Braithwaite, J., & Andrews, B. (in Druck). Seeing it your way: Evidence for altercentric intrusion effects in visual perspective taking. Journal of Experimental Psychology: Human Perception and Performance.
  • Stanley, J., Gowen, E., & Miall, R. C. (2007). Effects of agency on movement interference during observation of a moving dot stimulus. Journal of Experimental Psychology: Human Perception and Performance, 33(4), 915-926.
  • Strick, M., Holland, R. W., & van Knippenberg, A. (2008). Seductive eyes: attractiveness and direct gaze increase desire for associated objects. Cognition, 106(3), 1487-96.
  • Symons, L. A., Lee, K., Cedrone, C. C., & Nishimura, M. (2004). What are you looking at? Acuity for triadic eye gaze. Journal of General Psychology, 131(4), 451-469.
  • Thomas, R., Press, C., & Haggard, P. (2006). Shared representations in body perception. Acta Psychologica, 121(3), 317-330.
  • Todorović, D. (2006). Geometrical basis of perception of gaze direction. Vision Research, 46(21), 3549-62.
  • Tversky, B., & Hard, B. M. (2009). Embodied and disembodied cognition: spatial perspective-taking. Cognition, 110(1), 124-129.
  • Zwickel, J. (2009). Agency Attribution and Visuo-Spatial Perspective Taking. Psychonomic Bulletin & Review,16, 1089-1093.
  • Zwickel, J., & Müller, H. J. (2009). Eye Movements as a Means To Evaluate and Improve Robots. International Journal of Social Robotics, 1(4), 357-366.
  • Zwickel, J., & Võ, M. L. (in Druck). How the Presence of Persons Biases Eye Movements. Psychonomic Bulletin & Review.