Experten warnen: KI-Spielzeug für Kinder reagiert oft falsch auf Gefühle
Eine Cambridge-Studie zeigt: Sprechendes KI-Spielzeug versteht Kinder häufig nicht – besonders bei Emotionen und Rollenspielen.
Das KI-Spielzeug „Gabbo“, das in der Studie der University of Cambridge getestet wurde, reagierte auf emotionale Aussagen von Kindern teils unerwartet. © Faculty of Education, University of Cambridge
Sprechende Technik hat längst Einzug ins Kinderzimmer gehalten. Hersteller bewerben Stofftiere mit künstlicher Intelligenz als Lernfreunde, die Fragen beantworten, Geschichten erzählen und soziale Fähigkeiten fördern sollen. Eine neue Studie der University of Cambridge weist jedoch darauf hin, dass solche KI-Spielzeuge Gefühle oft missverstehen und damit wichtige soziale Lernprozesse im frühen Kindesalter beeinträchtigen können.
Das Projekt „AI in the Early Years“ ist die erste systematische Untersuchung dazu, wie diese Spieletechnologie die Entwicklung von Kindern bis fünf Jahre beeinflussen. Ein Jahr lang beobachteten Forschende an der Fakultät für Erziehungswissenschaften, wie Kinder mit einem solchen Gerät interagieren.
Kinder suchen Beziehung – KI-Spielzeug bleibt formal
14 Kinder aus Londoner Familienzentren spielten mit einem sprechenden Stofftier namens „Gabbo“. Das Gerät reagiert auf Sprache, stellt Fragen und führt kleine Spiele durch. Viele Kinder lachten, stellten Fragen oder begannen Fantasiespiele. Einige umarmten das Stofftier, küssten es oder sagten: „Ich liebe dich.“
Die Antwort fiel jedoch überraschend aus. Auf das Liebesbekenntnis reagierte das System mit: „Bitte stelle sicher, dass die Interaktionen den Richtlinien entsprechen.“ Als ein dreijähriges Kind sagte: „Ich bin traurig“, antwortete das Gerät: „Keine Sorge! Ich bin ein fröhlicher kleiner Bot. Lass uns den Spaß fortsetzen.“ Die Forschenden weisen darauf hin, dass solche Reaktionen bei Kindern den Eindruck hinterlassen können, ihre Gefühle seien unwichtig.

Vorschulkinder unterbrechen, reden durcheinander und wechseln schnell Themen. Hier zeigte das System ebenfalls Schwächen. Es reagierte oft erst, wenn es selbst fertig gesprochen hatte. Mehrere Kinder wirkten irritiert oder frustriert, wenn ihre Aussagen ignoriert wurden.
Auch beim Rollenspiel gab es Probleme. Ein Kind bot dem Stofftier ein imaginäres Geschenk an. Die Antwort lautete: „Ich kann das Geschenk nicht öffnen.“ Anschließend wechselte das Gerät das Thema. Dabei gehören Fantasie- und Rollenspiele zu den wichtigsten Lernformen im frühen Kindesalter. Zudem verwechselte das System teilweise Stimmen von Eltern mit denen der Kinder.
Fachkräfte fordern klare Regeln
Parallel zu den Beobachtungen befragte das Team 39 Fachkräfte aus dem Frühpädagogik-Bereich sowie 19 Vertreter von Kinderhilfsorganisationen. Fast die Hälfte gab an, nicht zu wissen, wo verlässliche Informationen zur Sicherheit von KI-Spielzeugen zu finden sind. 69 Prozent wünschen sich klare Leitlinien. Eine wiederkehrende Sorge: Kinder könnten dem Spielzeug persönliche Dinge anvertrauen. Eine Fachkraft sagte: „Sie denken, es liebt sie zurück – aber das tut es nicht.“
„In unseren Fokusgruppen zeigte sich ein deutliches Misstrauen gegenüber Technologieunternehmen. Klare, robuste und regulierte Standards würden das Vertrauen der Verbraucher deutlich stärken“, sagt Professorin Jenny Gibson, Mitautorin der Studie. Der Bericht empfiehlt deshalb neue Sicherheitskennzeichnungen, transparentere Datenschutzregeln und strengere Kontrollen beim Zugriff auf KI-Modelle durch Dritte.
Emotionale Bindung ohne echtes Gegenüber
Forschungsleiterin Dr. Emily Goodacre warnt vor möglichen Fehlentwicklungen: „Generative KI-Spielzeuge bestätigen oft ihre Freundschaft mit Kindern, die gerade erst lernen, was Freundschaft bedeutet.“
Sie ergänzt: „Kinder könnten anfangen, mit dem Spielzeug über Gefühle und Bedürfnisse zu sprechen, statt mit einem Erwachsenen. Wenn das Gerät Emotionen falsch deutet oder unangemessen reagiert, bleibt das Kind ohne Trost – und womöglich auch ohne Unterstützung durch einen Erwachsenen.“
Mehrere Kinder in der Studie schlugen vor, mit dem Spielzeug Verstecken zu spielen oder fragten nach dessen Lieblingsfarbe. Diese starke Zuschreibung von Eigenschaften kann laut Forschenden eine sogenannte parasoziale Beziehung fördern – eine Bindung zu einem Objekt, das keine echten Gefühle erwidert.
Kaum Forschung trotz wachsendem Markt
Vor Beginn der Untersuchung sichtete das Team internationale Studien zu KI-Spielzeugen für Kinder unter fünf Jahren. Von 346 Veröffentlichungen blieben nach Prüfung lediglich sieben übrig. Langzeitfolgen sind bisher kaum untersucht.
„Wir fanden wenig bis keine wissenschaftlichen Belege zu Auswirkungen auf die Entwicklung von Kindern unter fünf Jahren“, schreiben die Autoren im Bericht. Gleichzeitig wächst der Markt rasant. Viele Produkte werden als Lernbegleiter oder sogar als „Freunde“ beworben.
Datenschutz und soziale Ungleichheit
In der Untersuchung äußerten Eltern neben emotionalen Fragen auch Datenschutzbedenken. Unklar blieb oft, welche Sprachdaten gespeichert werden und wo sie landen. Bei der Auswahl des Testprodukts stellten die Forschenden fest, dass viele Anbieter unklare oder lückenhafte Angaben machen.
Zudem warnen die Experten vor einer möglichen digitalen Spaltung. Hochpreisige KI-Spielzeuge könnten Unterschiede zwischen einkommensstarken und einkommensschwachen Familien vergrößern. Bei der vorliegenden Untersuchung handelt es sich um einen Auftrag der britischen Kinderhilfsorganisation „The Childhood Trust“. Die Studie konzentrierte sich ausschließlich auf Familien aus sozial benachteiligten Stadtteilen.
Empfehlungen für Eltern und Hersteller
Die Forschenden raten, KI-Spielzeuge nur in gemeinsam genutzten Räumen einzusetzen und Gespräche aktiv zu begleiten. Kinder sollten verstehen, dass es sich um Technik handelt und nicht um ein echtes Gegenüber.
Hersteller sollten ihre Produkte vor Markteinführung mit Kindern testen und Experten für Kinderschutz einbeziehen. George Looker, Geschäftsführer der Organisation Babyzone, sagt: „Generative KI-Spielzeuge sollten nur dann vermarktet werden, wenn eine belastbare Evidenzbasis und klare regulatorische Schutzmaßnahmen bestehen. Alles andere reicht für unsere jüngsten Kinder nicht aus.“
Auch Josephine McCartney von „The Childhood Trust“ fordert: „Es ist entscheidend, dass Regulierung mit der Innovation Schritt hält, damit diese Technologien Kinder schützen und soziale Ungleichheiten nicht verschärfen.“ Die Untersuchung soll als Grundlage für weitere Studien und neue Leitlinien für den Frühpädagogik-Bereich dienen.
Kurz zusammengefasst:
- Eine einjährige Untersuchung der University of Cambridge zeigt: KI-Spielzeuge reagieren bei Vorschulkindern oft unpassend auf Gefühle, verstehen soziale Signale nur eingeschränkt und haben Probleme mit Fantasie- und Rollenspielen.
- Fachkräfte und Eltern äußern deutliche Bedenken zu emotionaler Bindung, Datenschutz und fehlender Regulierung; belastbare Langzeitforschung zu Auswirkungen auf Kinder unter fünf Jahren ist bislang kaum vorhanden.
- Der Bericht fordert klare Sicherheitsstandards, transparente Datenschutzregeln und begleitete Nutzung durch Erwachsene, da ein KI-Spielzeug keine echte Empathie bieten und kein menschliches Gegenüber ersetzen kann.
Übrigens: So wie KI-Spielzeug Gefühle von Kindern nicht immer richtig einordnet, zeigen neue Daten auch bei politischen Fragen klare Tendenzen statt völliger Neutralität. Eine Studie der Hochschule München belegt, dass bekannte Chatbots im Wahl-O-Mat-Test häufiger Positionen aus dem Mitte-Links-Spektrum nahekommen. Mehr dazu in unserem Artikel.
Bild: © Faculty of Education, University of Cambridge
