Warum manche Menschen Emotionen mühelos erkennen – und andere nicht

Manche Menschen können Emotionen sofort lesen – andere liegen trotz klarer Signale daneben. Warum das so ist, zeigt eine neue Studie.

Zwei Frauen unterhalten sich draußen im Winter

Forscher der UC Berkeley zeigen, dass Menschen Emotionen unterschiedlich erkennen, je nachdem, ob Gesichtsausdruck oder Umfeld klarer ist. © Pexels

Es gibt Menschen, die erfassen Stimmungen fast mühelos. Sie merken sofort, wenn sich etwas verändert. Andere verlassen Gespräche mit einem diffusen Gefühl und bleiben unsicher, wie ihr Gegenüber sich eigentlich gefühlt hat. Diese Unterschiede gelten oft als Frage von Empathie oder sozialer Erfahrung. Doch eine neue Studie aus den USA legt nun nahe, dass sie tiefer im Gehirn verankert sind.

Forscher der UC Berkeley zeigen, dass Menschen Emotionen nicht nach einem einheitlichen Muster lesen. Entscheidend ist, wie das Gehirn Hinweise aus Gesichtsausdruck und Umfeld miteinander verrechnet. Je nach Klarheit dieser Signale gewichten viele Menschen entweder die Mimik oder den Kontext stärker. Genau dieser Rechenweg erklärt, warum manche Situationen treffsicher gedeutet werden – und andere trotz deutlicher Hinweise missverstanden bleiben.

Alltagsnahe Tests ohne sichtbare Mimik

Um diese Unterschiede messbar zu machen, wählten die Forscher einen ungewöhnlichen Ansatz. Statt mit Fotos oder isolierten Gesichtsausdrücken arbeiteten sie mit kurzen Videos. In einigen Szenen blieb das Gesicht der Hauptperson absichtlich unscharf. In anderen war der Hintergrund verschwommen. So ließ sich gezielt trennen, welche Informationen aus dem Gesicht stammen und welche aus dem Umfeld.

Insgesamt nahmen 944 Erwachsene an den Experimenten teil. Sie sollten fortlaufend einschätzen, wie sich die Stimmung einer Person verändert. Dafür nutzten sie ein Bewertungssystem mit zwei Skalen: angenehm oder unangenehm sowie ruhig oder angespannt. Auf diese Weise entstand ein detailliertes Bild davon, wie Menschen Emotionen im zeitlichen Verlauf wahrnehmen.

Wenn der Kontext die Deutung lenkt

Das Studiendesign orientierte sich bewusst am Alltag. Emotionen entstehen selten isoliert. Gespräche entwickeln sich. Situationen verändern sich. Der Kontext liefert Hinweise durch Ort, Handlung und die Reaktionen anderer Personen.

Ein Beispiel macht das Prinzip deutlich: Eine weinende Person wirkt auf den ersten Blick traurig. Steht sie jedoch vor einem Traualtar, verändert sich die Bedeutung der Tränen. Das Gehirn nutzt in solchen Momenten den Kontext, um mehrdeutige Signale richtig einzuordnen.

Die Auswertung zeigte zwei klare Muster. Die Mehrheit der Teilnehmer passte ihre Einschätzung flexibel an. War der Gesichtsausdruck eindeutig, gewann er an Gewicht. War er unklar, rückte der Kontext stärker in den Fokus. Das Gehirn sortierte Informationen danach, wie verlässlich sie erschienen.

Kognitive Abkürzungen kosten Genauigkeit

Etwa 30 Prozent der Teilnehmer gingen anders vor. Sie behandelten alle Hinweise gleich. Gesicht, Umgebung und Handlung flossen ohne Gewichtung in die Bewertung ein. Diese vereinfachte Strategie spart geistige Energie, kostet jedoch Präzision. Studienleiter Jefferson Ortega beschreibt den Unterschied so: „Manche Menschen nutzen eine vereinfachte Strategie, weil sie weniger kognitiv fordernd ist.“

Statt Hinweise nach Klarheit zu sortieren, bildet das Gehirn gewissermaßen einen Mittelwert. Die Folge sind häufiger Fehleinschätzungen, besonders in komplexen Situationen.

Emotionen lesen: Was im Gehirn dabei passiert

Die Forscher sprechen von einem statistischen Rechenprinzip. Das Gehirn bewertet Hinweise danach, wie eindeutig oder mehrdeutig sie sind. Fachleute nennen diesen Prozess Bayes’sche Integration. Vereinfacht gesagt entscheidet das Gehirn fortlaufend, welchem Signal es gerade mehr trauen sollte.

Die Studie zeigt, dass dieses Prinzip bei den meisten Menschen greift. Bei einem Teil der Teilnehmer bleibt diese Gewichtung jedoch aus. Stattdessen werden alle Informationen gleich behandelt.

Zusammenhang mit Autismus-Merkmalen

Zusätzlich erfasste das Forschungsteam autistische Merkmale mithilfe des Autism Quotient, kurz AQ. Höhere Werte gingen mit geringerer Genauigkeit beim Einschätzen von Stimmungen einher. Der Zusammenhang blieb stabil, auch nachdem Intelligenz und Empathie berücksichtigt wurden.

Frühere Arbeiten von Ortega hatten bereits Hinweise geliefert, dass Menschen mit autismusnahen Merkmalen Mühe haben, Informationen aus Gesicht und Umfeld flexibel zu verbinden. Die aktuelle Untersuchung knüpft daran an und wirft die Frage auf, welche Verarbeitungsstrategie ihr Gehirn stattdessen nutzt. Ortega formuliert es so: „Unsere Arbeit legt die Grundlage, kontextbasierte Emotionsverarbeitung gezielt zu untersuchen.“

Wichtig ist die Einordnung. Die Studie untersuchte keine klinischen Diagnosen. Sie betrachtete Unterschiede innerhalb der Allgemeinbevölkerung. Auffällige Abweichungen traten bereits im normalen Bereich auf.

Klassische Tests greifen zu kurz

Verglichen mit etablierten Verfahren schnitt der neue Ansatz deutlich besser ab. Der bekannte „Eyes Test“, bei dem nur Augenpartien gezeigt werden, erklärte deutlich weniger Unterschiede. Der Kontext fehlt dort vollständig.

David Whitney, Professor für Psychologie, fasst es so zusammen: „Einige Beobachter integrieren Kontext und Gesichtsausdruck sehr gut. Andere tun sich damit schwer.“

Unterschiede in der Wahrnehmung verstehen

Die Ergebnisse der Studie helfen, Missverständnisse besser einzuordnen. Schwierigkeiten beim Erfassen von Stimmungen bedeuten kein Desinteresse und keine mangelnde Empathie. Häufig steckt eine andere Verarbeitungsstrategie dahinter. Für den Alltag lassen sich drei Punkte festhalten:

  • Stimmungen entstehen aus mehreren Hinweisen gleichzeitig
  • Der Kontext liefert oft mehr Information als einzelne Gesichtszüge
  • Unterschiede in der Wahrnehmung sind verbreitet und messbar

Kurz zusammengefasst:

  • Emotionen lesen gelingt Menschen unterschiedlich gut, weil das Gehirn Hinweise aus Gesicht und Umfeld verschieden gewichtet – nicht wegen fehlender Aufmerksamkeit oder Empathie.
  • Eine Studie der UC Berkeley zeigt: Rund 30 Prozent nutzen eine vereinfachte Strategie und bewerten alle Signale gleich, was häufiger zu Fehlurteilen führt.
  • Der Kontext spielt eine Schlüsselrolle, denn erst das Zusammenspiel von Situation, Handlung und Reaktionen anderer macht Gefühle im Alltag zuverlässig verständlich.

Übrigens: Eine neue Großstudie zeigt, dass Bewusstsein im Gehirn anders entsteht, als viele Modelle es bisher beschrieben haben – und dass vor allem hintere Hirnareale aktiv bleiben, wenn Menschen etwas bewusst wahrnehmen. Welche Folgen das für die Forschung und für die Diagnose von Bewusstseinsstörungen hat, mehr dazu in unserem Artikel.

Bild: © Pexels

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert