Können Roboter uns helfen, andere zu verstehen?
Was denkt mein Gegenüber über mich? Wie fühlt sich die andere Person gerade? Für uns Menschen ist Kommunikation ein elementarer Bestandteil des Alltags. Doch nicht alle Menschen sind in der Lage, die Signale ihres Gegenübers richtig zu deuten. Besonders Menschen mit psychischen Erkrankungen fehlen hierfür oftmals wichtige mentale Voraussetzungen. Doch inzwischen können Roboter helfen, andere besser zu verstehen.
Wir Menschen stehen täglich im Austausch mit unserer sozialen Umgebung: wenn wir morgens in der Bäckerei Brötchen kaufen, mittags bei der Arbeit eine Präsentation halten, nachmittags mit unseren Kindern spielen oder am Abend einen Instagram-Beitrag kommentieren. Kommunikation verbindet uns mit der Welt. So alltäglich, wie soziale Interaktionen für uns Menschen sind, so komplex sind sie auch. In einer Interaktion treffen zwei oder mehr Personen mit unterschiedlichen Persönlichkeiten, Erfahrungen und Zielen aufeinander. Diese können aus unterschiedlichen Generationen und Kulturen stammen. Sie haben nicht immer das gleiche
Geschlecht oder sprechen die gleiche Sprache. Sie haben meist nicht die gleichen Ziele. Sie fühlen sich unterschiedlich und diese Gefühle können sich im Verlauf des Gesprächs sogar verändern. Das erkennt man zum Beispiel am Gesichtsausdruck. Menschen nutzen viel oder wenig Körpersprache. Sie meinen nicht immer das, was sie sagen. Oder sagen nicht das, was sie meinen.
Wie machen wir Menschen das? Woran erkennen wir sofort, wie es unserer Freundin geht, wenn sie uns am Telefon begrüßt? Wie schlussfolgern wir, dass der Herr, der nach dem Weg zur nächsten Bank fragt, einen Geldautomaten statt einer Parkbank meint? Und wie verstehen wir andere sogar dann, wenn gar nichts gesagt wird?
Perspektivenübernahme: Andere Menschen verstehen
Die meisten Menschen entwickeln mit etwa fünf Jahren eine Fähigkeit, über die kein anderes Lebewesen in dieser Form verfügt: die Fähigkeit zur Perspektivenübernahme (oder auch: Theory of mind, ToM; Premack & Woodruff, 1978). Durch diese Fähigkeit gelingt es uns, anderen Menschen mentale Zustände wie Gefühle, Gedanken und Handlungsabsichten zuzuschreiben. Dadurch können wir ihr Verhalten vorhersagen und erklären (Premack & Woodruff, 1978). Das ist eine wichtige Voraussetzung für eine gelungene soziale Interaktion. Wir erkennen, dass eine andere Person eine andere Perspektive hat als wir. Das bedeutet, mein Wissen unterscheidet sich von dem der anderen Person. Ich muss mich also mitteilen, damit sie mich verstehen kann. Wenn beispielsweise eine andere Person die Straße überqueren möchte und ein heranfahrendes Auto nicht bemerkt, kann und sollte ich sie warnen. Ich kann also ihr Verhalten beeinflussen. Auch kann ich ihre Gefühle beeinflussen, wenn ich zum Beispiel meiner Freundin ihre Lieblingsblumen mitbringe, da ich weiß, dass sie sich darüber freut.
Es gibt inzwischen zahlreiche Studien zur Entwicklung der Perspektivenübernahmefähigkeit, die deren Wichtigkeit verdeutlichen (Wellman, 2008). So hat diese beispielsweise einen bedeutsamen Einfluss darauf, ob Kinder Freundschaften entwickeln und wie beliebt Kinder sind (Slaughter, Imuta, Peterson & Henry, 2015). Auch sagt sie die akademischen Leistungen von Schüler*innen vorher (Lecce, Caputi & Pagnin, 2014). Im Alltag schlussfolgern gesunde Personen automatisch, was andere fühlen und denken. Wie wichtig diese Fähigkeit ist, bemerken wir vor allem dann, wenn sie nicht oder nicht vollständig vorhanden ist.
Eingeschränkte Fähigkeit zur Perspektivenübernahme bei Autismus-Spektrums-Störungen
Die größten Auffälligkeiten in der Perspektivenübernahmefähigkeit finden sich bei Personen mit Autismus-Spektrums-Störungen (ASS; Baron-Cohen, 2001). Vergleiche der Test-Ergebnisse von autistischen Kindern mit denen von gesunden Gleichaltrigen zeigen, dass es autistischen Kindern schwerer fällt, anhand der Blickrichtung einer Person vorherzusagen, welches Objekt diese Person gerne haben möchte. Autistische Kinder können jedoch durchaus benennen, worauf diese Person schaut (Baron-Cohen, 2000).
Autistische Erwachsene zeigen in standardisierten Testsituationen oftmals keine oder nur wenige Auffälligkeiten (Attwood, 2005): Sie haben (meist mühsam) Strategien erlernt, die einen Mangel in der Perspektivenübernahmefähigkeit in einfachen sozialen Situationen ausgleichen können. Diese Strategien helfen ihnen, andere zu „lesen“. Befinden sie sich allerdings in komplexen Situationen, beispielsweise auf einer Party mit vielen Menschen, werden sie mit einer Vielzahl sozialer Informationen konfrontiert. Eine Anwendung der erlernten Strategien ist dann oft nicht möglich. Betroffene unterbrechen ihr Gegenüber dann beispielsweise an unpassenden Stellen. Manchmal antworten sie erst, nachdem sie über die Aussage des Gegenübers nachgedacht und diese verstanden haben. Dadurch geraten Gespräche ins Stocken (Attwood, 2005). Viele Betroffene wünschen sich Unterstützung, insbesondere im Hinblick auf soziale Interaktionen und Kommunikation, einschließlich der Perspektivenübernahmefähigkeit (Gawronski, Pfeiffer & Vogeley, 2012).
Die aktuellen Therapien für Personen mit einer ASS haben vor allem zum Ziel, soziale Interaktionen zu trainieren und die dafür notwendigen Fähigkeiten zu verbessern. So lernen Personen mit ASS in der Behandlung, Hinweise wie Gesichtsausdrücke in sozialen Situationen zu analysieren (Gawronski et al., 2012). Die Methoden sind wirksam, sind jedoch mit erheblichem Zeit- und Kostenaufwand verbunden. Und sie führen zwar zu einer Verbesserung der Lebenssituation der Betroffenen, aber nicht zur Heilung (Bölte, 2009). Eine intuitive Perspektivenübernahme kann nach bisherigen Kenntnissen nicht erworben und durch regelmäßigen Einsatz erlernter Strategien nur teilweise ausgeglichen werden. Trotz jahrzehntelanger Forschung ist größtenteils noch unklar, welche Ursachen den Schwierigkeiten zur Perspektivenübernahmefähigkeit zugrunde liegen. Dabei ist das Thema aktueller denn je.
Künstliche Perspektivenübernahmefähigkeit: Wie Roboter Menschen verstehen können
Die Perspektivenübernahmefähigkeit wird seit einigen Jahren im Bereich der künstlichen Intelligenz intensiv beforscht. Denn nur durch eine gelungene Kommunikation zwischen Roboter und Mensch kann ein Roboter einen Menschen erfolgreich unterstützen. Ein Roboter ist dabei ein „künstlicher Agent“. Als künstlichen Agenten bezeichnet man ein künstliches (von Menschen erschaffenes) System, das Aufgaben weitgehend selbstständig und zielgerichtet bearbeiten kann. Dabei tauscht sich ein Roboter mit seiner Umgebung und anderen Agenten aus. Für diese Interaktion benötigt er bestimmte Voraussetzungen: Ein Roboter, der einen Menschen hilfreich unterstützen soll, muss die mentalen Zustände des Menschen erkennen. Er muss einschätzen können, welche Informationen für den Menschen neu und wichtig sind. Zu wenige oder unwichtige Informationen würden dem Menschen nicht weiterhelfen. Zu viele Informationen könnten ihn dagegen verärgern oder stören. Der Herr, der nach dem Weg zur nächsten Bank fragt, möchte vermutlich nicht die Koordinaten einer Parkbank erhalten. Er möchte auch keine zehn Wegbeschreibungen zu einer Bankfiliale, sondern eine. In der Forschung zu künstlichen Systemen werden daher Ansätze erarbeitet und geprüft, die eine menschenähnliche Perspektivenübernahmefähigkeit abbilden.
Künstliche Agenten können die Umgebung und den Menschen beobachten, wenn sie sich in einer Interaktionssituation befinden. Durch Sensoren wie Kamerabilder und Mikrophone lassen sich Informationen über Stimmlage, Sprache, Mimik, Blickrichtung und Körperhaltung einer Person analysieren. So kann der künstliche Agent anhand dieser Informationen beispielsweise erkennen, in welcher emotionalen Lage sich eine Person befindet. Im Anschluss kann damit eine Einschätzung zum mentalen Zustand dieser Person erfolgen und die Prüfung: Was soll kommuniziert werden? Wann soll kommuniziert werden? Und wie soll kommuniziert werden?
Hierfür wurden komplexe Modelle entwickelt, die sich in Echtzeit durch die Beobachtung von Menschen und der Umwelt anpassen. Die Modelle bestehen aus Berechnungen von Wahrscheinlichkeiten und Erwartungen (siehe beispielsweise Pöppel & Kopp, 2019): Der künstliche Agent berechnet aufgrund seiner Beobachtungen die Reaktion, die mit höchster Wahrscheinlichkeit zum bestmöglichen Ergebnis führt. Dabei wägt er die Kosten und den Nutzen seiner Reaktion gegeneinander ab: Könnte es vielleicht besser sein, nochmal nachzufragen? Oder wäre es besser, eine falsche Reaktion in Kauf zu nehmen?
Möchte eine Person zum Beispiel ein neues Kochrezept ausprobieren und vertauscht sie beim Kochen die Gewürze, wäre es wichtig und relevant, dass der künstliche Agent den Fehler erkennt (= Beobachtung der Umwelt). Er sollte auch bemerken, dass die Person den Fehler noch nicht wahrgenommen habe (= Rückschluss auf mentalen Zustand). So kann er die Person unterbrechen und auf Fehler hinweisen (= Reaktion), damit das Gericht gelungen zubereitet werden kann (= bestmögliches Ergebnis).
Dabei muss der künstliche Agent nicht unbedingt das ideale Ergebnis herausfinden. Sondern er soll ein Ergebnis liefern, das gut genug ist. Im Fall der Wegbeschreibung zur nächsten Bank würde also eine möglichst einfache Beschreibung ausreichen. Es braucht nicht die schönste und sonnigste Strecke sein. Der künstliche Agent zieht immer die einfachste Lösung vor, bis eine komplexere Lösung notwendig ist.
Wie kann künstliche Intelligenz helfen, andere besser zu verstehen?
Ein künstlicher Agent, der ähnliche Ergebnisse wie ein Mensch liefert, könnte für die Unterstützung von Menschen mit Schwierigkeiten in der Perspektivenübernahme interessant sein. Er könnte dabei unterstützen, mentale Zustände anderer zu erkennen. Ähnlich wie Personen mit Sehschwäche sich eine Brille aufsetzen, könnten Personen mit Schwierigkeiten in der Perspektivenübernahme in sozialen Situationen auf einen künstlichen Agenten zurückgreifen, beispielsweise mit der Frage: „Wie geht es meinem Gegenüber gerade?“ Der künstliche Agent würde dann über Sensoren soziale Informationen aufnehmen und eine Einschätzung des mentalen Zustands vornehmen, beispielsweise mit dem Ergebnis: „Lena ist verärgert. Wahrscheinlich liegt es daran, dass du nicht abgewaschen hast. Denn das hattest du ihr versprochen.“ Die technischen Möglichkeiten erlauben es, dass das künstliche System in Echtzeit unterstützende Hinweise oder auch Erinnerungen geben kann. Personen mit ASS könnten dadurch ohne die bisherigen Mühen an sozialen Interaktionen teilnehmen. Das könnte ihnen den menschlichen Kontakt deutlich vereinfachen.
Roboter in der Behandlung von Personen mit ASS
Künstliche Intelligenz in Form von Robotern hilft in der Behandlung der ASS schon jetzt zum Einüben von Fähigkeiten (siehe Scassellati, 2007), aber auch bei der Motivation von Betroffenen (beispielsweise Dautenhahn, 2003). Der sogenannte „soziale Roboter“ wird dabei wie eine Art soziales Hilfsmittel eingesetzt: Ein Roboter bietet beispielsweise dem autistischen Kind in einer Therapiesitzung eine Anleitung, wie es mit dem behandelnden Menschen interagieren kann und ermutigt es zu weiteren Interaktionen (Dautenhahn, 2003) oder trainiert mit dem Kind gemeinsam soziale Fähigkeiten (Scassellati et al., 2018). Ein großer Vorteil ist, dass Roboter eine standardisierte Umgebung ermöglichen und eine objektive Beurteilung vornehmen. Das macht auch den Einsatz automatisierter Prozesse in der Diagnostik interessant (siehe Drimalla et al., 2020). In der Studie passte der Roboter sogar die Schwierigkeit der Aufgaben an die Fähigkeiten der Kinder an, um diesen eine optimale Lernumgebung zu ermöglichen (Scassellati et al., 2018). Mit vielversprechenden Ergebnissen: Den Kindern machte es Freude, regelmäßig mit dem Roboter zu trainieren, und ihre sozialen Fähigkeiten besserten sich über den Untersuchungszeitraum von 30 Tagen bedeutsam.
Roboter in der Behandlung bei anderen psychischen Erkrankungen
Doch auch bei vorhandenen Perspektivenübernahmefähigkeiten können Fehler bei Schlussfolgerungen über mentale Zustände anderer Personen passieren. Personen mit depressiven Störungen leiden beispielsweise unter Denkverzerrungen in der Art von „Andere Personen mögen mich nicht“ (vgl. Beck, 1974); Betroffene mit einer sozialen Angststörung denken typischerweise, ihr Gegenüber könnte sie negativ bewerten (Dilling et al., 2015); und Personen mit Wahnerleben haben verzerrte Überzeugungen über die Realität, an denen mit Unerschütterlichkeit festgehalten wird (Stieglitz, Haug, Kis, Kleinschmidt & Thiel, 2019). Bei diesen Erkrankungen erweisen sich Methoden der kognitiven Verhaltenstherapie, die auf eine Veränderung der inhaltlich verzerrten Gedanken abzielt, als sehr wirksam (Hofmann, Asnaani, Vonk, Sawyer & Fang, 2012). Gegebenenfalls könnte ein künstlicher Agent die betroffenen Personen ebenfalls unterstützen. Er könnte realistischere Einschätzungen bei inhaltlich verzerrten Gedanken vorschlagen, wie: „Paul hat dich gestern um Nachhilfe gebeten. Es ist unwahrscheinlich, dass er dich für einen Versager hält“ und auf wichtige soziale Signale hinweisen, wie: „Brigitte hat dich in der letzten Woche drei Sekunden lang angeschaut. Es ist unwahrscheinlich, dass sie dich bespitzelt.“
Auch in der Behandlung von Depressionen werden soziale Roboter bereits erfolgversprechend eingesetzt, wo sie u. a. zur Kommunikation, zur Überwachung des Gesundheitszustands und als Gesellschaft dienen (Chen, Jones & Moyle, 2018). Möglicherweise könnten die Behandlungen hierdurch unterstützt und verkürzt werden (Baisch & Kolling, 2021).
Ethische Aspekte und Ausblick auf weitere Forschung
Idealerweise werden Roboter nicht nur in Roboter-Mensch-, sondern in Mensch-Mensch-Interaktionen eingesetzt oder wirken sich zumindest positiv auf diese aus (vgl. Scassellati, 2007). Der Einsatz von Robotern im Alltag muss dabei jedoch ethischen, sozialen und rechtlichen Überlegungen standhalten. So ist abzuwägen, inwiefern es für Personen mit Schwierigkeiten in der Perspektivenübernahmefähigkeit besser wäre, selbst Strategien zu erlernen, sich in andere hineinzuversetzen, anstatt einen Roboter hierfür zu nutzen. Zu beachten sind auch Aspekte des Datenschutzes, wenn der “Perspektivenübernahme-Roboter“ die mentale Zustände einer Person analysiert. Letztendlich sind weitere Untersuchungen zum Effekt von Robotern in kontrolliert-randomisierten Therapiestudien und zum Einfluss auf Mensch-Mensch-Interaktionen notwendig. Der Einsatz von sozialen Robotern sollte für jede Person individuell geprüft werden. Der Eine profitiert womöglich stärker als der Andere. Wichtig ist, dass Menschen – einschließlich Betroffenen mit Schwierigkeiten in der Perspektivenübernahmefähigkeit – sehr unterschiedlich sind.
Zusammenfassung
Forschung zur Perspektivenübernahme in künstlichen Systemen bietet vielversprechende Möglichkeiten, die bei Gesunden automatische Fähigkeit zur Perspektivenübernahme künstlich abzubilden. Möglicherweise könnten in Zukunft Personen mit Schwierigkeiten in der Perspektivenübernahme durch den Einsatz von Robotern unterstützt werden. Weitere Studien sollten untersuchen, wie Roboter idealerweise eingesetzt werden können. Dabei sollten sie die möglichen Kosten und Nutzen gegeneinander abwägen und den Einsatz in Therapie und Alltag prüfen.
Bildquellen
Bild 1:nadia_bormotova via iStock (https://www.istockphoto.com/de/vektor/hoch-fünf-hand-junge-schwarze-frauenfigur-die-mit-einem-roboter-kommuniziert-gm1151212040-311922340?clarity=false, Lizenz vorhanden).
Bild 2: nadia_bormotova via IStock (https://www.istockphoto.com/de/vektor/netter-roboter-der-einen-traurigen...übt-psychotherapie-neue-technologien-gm1175376298-327274965?clarity=false, Lizenz vorhanden).
Bild 3: nadia_bormotova via istock (https://www.istockphoto.com/de/vektor/datenübertragung-konzeptionelle-illustration-kaukasische-frauenfigur-menschliche-gm1153662872-313411322?clarity=false, Lizenz vorhanden).
Bild 4: nadia_bormotova via Shutterstock (https://www.istockphoto.com/de/vektor/eine-vielf%C3%A4ltige-gruppe-von-k..., Lizenz vorhanden).
Literaturverzeichnis
Attwood, T. (2005). Asperger- Syndrom. Wie Sie und Ihr Kind alle Chancen nutzen. Das erfolgreiche Praxis-Handbuch für Eltern und Therapeuten. Trias.
Baisch, S. & Colling, T. (2021). Roboter in der Therapie: Vom Demonstrationsobjekt zum Psychotherapeuten. In O. Bendel (Hrsg.), Soziale Roboter. Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen (S. 417-440). Springer.
Baron-Cohen, S. (2000). Theory of mind and autism: A fifteen year review. In S. Baron-Cohen, H. Tager-Flusberg, & D. J. Cohen (Hrsg.), Understanding other Minds: Perspectives from Developmental Cognitive Neuroscience (S. 3-21). Oxford University Press.
Beck, A. T. (1974). The development of depression: A cognitive model. In R. J. Friedman & M. M. Katz (Hrsg.), The psychology of depression: Contemporary theory and research. John Wiley & Sons.
Bölte, S. (2009). Evidenzbasierte Intervention. In S. Bölte (Hrsg.), Autismus. Spektrum, Ursachen, Diagnostik, Intervention, Perspektiven (S. 221-228). Huber.
Chen, S. C., Jones, C., & Moyle, W. (2018). Social robots for depression in older adults: a systematic review. Journal of Nursing Scholarship, 50(6), 612-622.
Dautenhahn, K. (2003). Roles and functions of robots in human society: Implications from research in autism therapy. Robotica, 21, 443-452.
Dilling, H., Mombour, W., Schmidt, M. H., Schulte-Markwort, E., Remschmidt, H., & Weltgesundheitsorganisation (2015). Internationale Klassifikation psychischer Störungen (10. Auflage). Hogrefe.
Drimalla, H., Scheffer, T., Landwehr, N., Baskow, I., Roepke, St., Behnia, B., & Dziobek, I. (2020). Towards the automatic detection of social biomarkers in autism spectrum disorder: introducing the stimulated interaction task (SIT). npj Digital Medicine, 3, 25.
Gawronski, A., Pfeiffer, K., & Vogeley, K. (2012). Hochfunktionaler Autismus im Erwachsenenalter – Verhaltenstherapeutisches Gruppenmanual. Beltz.
Hofmann, S. G., Asnaani, A., Vonk, I. J. J., Sawyer, A. T., & Fang, A. (2012). The efficacy of cognitive behavioral therapy: A review of meta-analyses. Cognitive Therapy and Research, 36, 427-440.
Lecce, S., Caputi, M., & Pagnin, A. (2014). Long-term effect of theory of mind on school achievement: The role of sensitivity to criticism. European Journal of Developmental Psychology, 11(3), 305-318.
Pöppel, J. & Kopp, S. (2019). Satisficing mentalizing: Bayesian models of Theory of Mind reasoning in scenarios with different uncertainties. arXiv preprint arXiv: 1909. 10419.
Premack, D. & Woodruff, G. (1978). Does the chimpanzee have a Theory of Mind? Behavioral and Brain Sciences, 4, 515-526.
Scassellati, B. (2007). How social robots will help us to diagnose, treat, and understand autism. Robotics Research: Results of the 12th International Symposium ISRR, 552-563.
Scassellati, B., Boccanfuso, L., Huang, C.-M., Mademtzi, M., Qin, M., Salomons, N., Ventola, P., & Shic, F. (2018). Improving social skills in children with ASD using a long-term, in-home social robot. Science Robotics, 3(21), eaat7544.
Slaughter, V., Imuta, K., Peterson, C. C., & Henry, J. D. (2015). Meta-analysis of theory of mind and peer popularity in preschool and early school years. Child Development, 86(4), 1159-1174.
Stieglitz, R.-D., Haug, A., Kis, B., Kleinschmidt, S., & Thiel, A. (2018). Praxisbuch AMDP. Psychopathologische Befunderhebung – Grundlagen und Anwendungsbeispiele. Hogrefe.
Wellman, H. M. (2008). Theory of mind: The state of the art. European Journal of Developmental Psychology, 15, 728-755.