Super-Recognizer erkennen die Fälschung – fast alle anderen fallen auf KI-Gesichter rein
KI-Gesichter wirken mittlerweile oft glaubwürdiger als echte Fotos. Tests zeigen: Super-Recognizer entlarven die Fälschungen deutlich öfter als andere.
Echt oder künstlich? Die Porträts zeigen reale Menschen und KI-erzeugte Gesichter nebeneinander – für viele kaum zu unterscheiden, für Super-Recognizer deutlich leichter. © Gray et al. (2025), Royal Society Open Science (CC BY 4.0), DOI:10.1098/rsos.250921
Ein Mensch blickt ruhig in die Kamera. Glatte Haut, symmetrische Züge, ein freundlicher Ausdruck. Nichts wirkt auffällig. Und doch hat diese Person nie existiert. Das Gesicht stammt aus einer KI. Für viele Betrachter fühlt es sich trotzdem vertraut an, oft sogar glaubwürdiger als ein echtes Foto. Dieses Problem ist Alltag – von gefälschten Profilen bis zu digitalen Identitätsprüfungen.
In umfangreichen Tests schnitten die meisten Teilnehmer schlechter ab als gedacht. Sie hielten künstliche Gesichter häufiger für echt als reale. Eine Untersuchung der University of Reading machte jedoch eine auffällige Ausnahme sichtbar.
Warum Super-Recognizer KI-Gesichter anders wahrnehmen
Eine kleine Gruppe fiel aus diesem Muster heraus. Super-Recognizer, Menschen mit außergewöhnlicher Gesichtserkennungsfähigkeit, lagen zwar ebenfalls nicht sicher richtig, aber deutlich näher an der Realität. Ohne Vorbereitung identifizierten sie KI-Gesichter in rund vier von zehn Fällen korrekt. Andere kamen nur auf etwa drei von zehn.
Dieser Unterschied ist relevant. Denn er zeigt, dass Täuschung nicht alle Menschen gleich trifft. Manche nehmen Gesichter anders wahr. Sie achten auf Feinheiten, die vielen entgehen. Nicht bewusst, eher intuitiv. Genau diese Fähigkeit macht Super-Recognizer seit Jahren interessant für Polizei und Sicherheitsbehörden.
Wenn Training den Blick schärft
Der zweite Blick macht den entscheidenden Unterschied. Ein kurzes Training, kaum länger als fünf Minuten, veränderte die Ergebnisse deutlich. Hinweise auf typische Fehler künstlicher Bilder reichten aus. Ungewöhnliche Haarverläufe. Unstimmige Zahnreihen. Kleine Brüche in der Darstellung, die beim schnellen Hinsehen untergehen.
Nach dieser Vorbereitung stieg die Trefferquote spürbar. Super-Recognizer erkannten nun fast zwei Drittel der falschen Gesichter. Auch Menschen ohne besondere Fähigkeiten verbesserten sich. Sie lagen danach knapp über der Zufallsmarke. Der Abstand blieb. Doch der Effekt war klar messbar.

„Unser Trainingsverfahren ist kurz und leicht umzusetzen“, sagt Studienleiterin Dr. Katie Gray. In Kombination mit den natürlichen Fähigkeiten von Super-Recognizern könne es helfen, „reale Probleme wie die Online-Identitätsprüfung besser zu bewältigen“.
Die Technik wird besser – der Mensch bleibt gefordert
Getestet wurden Gesichter aus einer der modernsten KI-Generationen. Frühere Studien arbeiteten mit älteren Systemen. Damals lagen die Trefferquoten höher. Heute sinken sie. Die Täuschung wird überzeugender. Der Fortschritt der Technik verschärft das Problem.
„Computergenerierte Gesichter stellen echte Sicherheitsrisiken dar“, sagt Gray. Sie würden eingesetzt, um falsche Profile anzulegen, Identitätsprüfungen zu umgehen oder Dokumente glaubwürdig erscheinen zu lassen. Besonders heikel ist dabei, dass „Menschen KI-Gesichter oft als realistischer bewerten als echte menschliche Gesichter“.
Diese Einschätzung erklärt, warum bloße Vorsicht im Alltag kaum ausreicht. Wer sich auf sein Bauchgefühl verlässt, liegt häufig daneben. Die KI bedient gezielt Merkmale, die vertraut wirken: durchschnittliche Gesichtszüge, weiche Übergänge, kaum auffällige Eigenheiten. Genau das macht die Täuschung so wirkungsvoll.
Wo Entscheidungen über echte und falsche Gesichter fallen
Plattformen prüfen Identitäten, Banken kontrollieren Dokumente, Ermittler bewerten Bildmaterial. In all diesen Bereichen treffen Menschen täglich Entscheidungen über Echtheit – oft unter Zeitdruck und mit großer Tragweite.
Hier kann eine Kombination helfen: technische Filter, ergänzt durch gezielt geschulte Menschen mit besonderen Fähigkeiten. Auch eine Zusammenarbeit mit automatischen Erkennungssystemen erscheint sinnvoll. Menschen würden dabei nicht ersetzt, sondern gezielt eingesetzt.
Warum jeder anders hinschaut
Offen bleibt, wie lange der Effekt des Trainings anhält und ob er sich nach einigen Tagen verliert oder stabil bleibt. Das soll weiter untersucht werden. Klar ist jedoch schon jetzt, dass bereits ein kurzer Hinweis den Blick verändern kann – und dass manche Menschen ohnehin mehr wahrnehmen als andere.
Super-Recognizer machen damit deutlich, dass Wahrnehmung kein einheitlicher Maßstab ist.
Kurz zusammengefasst:
- KI-Gesichter täuschen die meisten Menschen: In Tests halten viele künstlich erzeugte Porträts häufiger für echt als reale Gesichter, was Risiken für Identitätsprüfungen und Sicherheit schafft.
- Super-Recognizer schneiden besser ab: Menschen mit außergewöhnlicher Gesichtserkennungsfähigkeit erkennen KI-Gesichter deutlich häufiger korrekt als andere, auch ohne Vorbereitung.
- Kurzes Training erhöht die Trefferquote: Schon wenige Minuten mit Hinweisen auf typische KI-Fehler verbessern die Erkennung spürbar, besonders bei Super-Recognizern.
Übrigens: Dieselbe KI, die täuschend echte Gesichter erzeugt, macht auch alte Betrugsmaschen wieder gefährlich glaubwürdig – mit Stimmenklonen, Fake-Jobs und perfekt formulierten Nachrichten. Wie Kriminelle damit Vertrauen missbrauchen und warum Wissen zur wirksamsten Abwehr wird, mehr dazu in unserem Artikel.
Bild: © Gray et al. (2025), Royal Society Open Science (CC BY 4.0), DOI:10.1098/rsos.250921
