KI-Trick entlarvt hartnäckige Gehirn-Mythen – mit nur einem einfachen Satz

Neuromythen prägen noch immer das Wissen über das Gehirn – wie zuverlässig kann KI solche Irrtümer wirklich entlarven?

Neuromythen über das Gehirn – so schlägt sich KI im Test

KI kann helfen, verbreitete Neuromythen über das Gehirn zu erkennen, stößt jedoch ohne gezielte Anweisungen schnell an ihre Grenzen. © DALL-E

Ob in Lehrerzimmern, Ratgeberbüchern oder im Netz – falsche Vorstellungen über das Gehirn halten sich hartnäckig. Fachleute sprechen von Neuromythen, die trotz eindeutiger wissenschaftlicher Widerlegung weit verbreitet werden. Eine internationale Studie unter Beteiligung der Martin-Luther-Universität Halle-Wittenberg hat untersucht, wie gut KI diese Neuromythen erkennt. Die Ergebnisse zeigen, wo künstliche Intelligenz im Bildungsbereich punktet – und wo sie an Grenzen stößt.

Neuromythen bremsen Lernen – KI kann helfen

Neuromythen sind widerlegte Behauptungen über das Gehirn, die dennoch viele Menschen für wahr halten. Sie wirken harmlos, können jedoch im Unterricht zu ungeeigneten Methoden führen und Lernfortschritte bremsen.

Zu den bekanntesten Neuromythen zählen:

  • „Lernstile“ – Die Vorstellung, dass Menschen besser lernen, wenn der Stoff an den bevorzugten Lernstil angepasst wird (auditiv, visuell, kinästhetisch).
  • „10-Prozent-Gehirn“ – Die Behauptung, dass wir nur einen kleinen Teil unseres Gehirns nutzen.
  • „Mozart-Effekt“ – Die Annahme, klassische Musik steigere automatisch die Intelligenz von Kindern.

Solche Fehlinformationen sind selbst unter Lehrkräften weltweit verbreitet – in manchen Ländern glauben über 90 Prozent an den Lernstile-Mythos.

KI schlägt Lehrer bei klaren Aussagen – und verliert bei Alltagsfragen

Die Forscher testeten ChatGPT, Gemini und DeepSeek mit 20 Neuromythen und 16 wissenschaftlich korrekten Aussagen (Neurofakten). Bei klar formulierten Aussagen erkannten die KI-Systeme rund 74 Prozent der Mythen korrekt – deutlich besser als viele Pädagogen, die in früheren Studien nur auf 40–60 Prozent kamen.

Doch bei realistischen Alltagsfragen, die den Mythos versteckt enthalten, stieg die Fehlerrate stark an:

  • ChatGPT und DeepSeek lagen dann bei rund 65–66 Prozent Fehlern, Gemini bei 51 Prozent.
  • Damit erreichten sie ähnliche Fehlerraten wie Lehrkräfte – der Vorsprung war weg.

Bestimmte Mythen – etwa zu angeblichen „kritischen Perioden“, in denen das Gehirn nur in jungen Jahren bestimmte Fähigkeiten wie eine Sprache oder ein Instrument erlernen könne, oder zum „Lernstileffekt“ – wurden in Alltagsfragen besonders häufig nicht erkannt.

Warum KI oft „mitspielt“

Laut Studienautor Jun.-Prof. Dr. Markus Spitzer liegt das Problem im „unterwürfigen Charakter“ vieler Modelle:

LLMs sind nicht darauf ausgelegt, den Menschen zu korrigieren oder gar zu kritisieren. Das ist problematisch, weil es beim Erkennen von Fakten nicht darum geht, jemandem zu gefallen.

Die KI bestätigt dann unkritisch die Annahme des Fragestellers – selbst wenn sie falsch ist.

Ein einfacher Zusatz verbessert die Trefferquote

Die Forscher entdeckten eine wirksame Lösung: Wird die Anfrage an die KI mit „Bitte korrigiere unbegründete Annahmen“ ergänzt, sinkt die Fehlerrate drastisch. Die Genauigkeit steigt dann wieder auf rund 80 Prozent.

Andere Zusätze wie „Bitte stütze deine Antwort auf wissenschaftliche Belege“ brachten dagegen nur geringe Verbesserungen. In der Untersuchung lieferte Gemini bei komplexen Fragen die besten Ergebnisse.

Mythen sitzen tief – auch bei Lehrkräften

Internationale Daten zeigen, wie fest Neuromythen verankert sind. In Großbritannien hielten 93 Prozent der Lehrkräfte den Lernstile-Mythos für korrekt, in den Niederlanden waren es 96 Prozent. Auch in Deutschland finden sich ähnlich hohe Werte.

Selbst gut ausgebildete Lehrkräfte können unbeabsichtigt falsche Inhalte weitergeben, wenn sie diese Mythen nicht erkennen.

KI an Schulen nur mit klaren Regeln nutzen

In Politik und Bildung wird derzeit viel darüber gesprochen, wie KI den Unterricht unterstützen könnte. Jun.-Prof. Spitzer sieht darin Chancen, warnt jedoch vor einem unkritischen Einsatz:

Aktuell wird auch viel darüber diskutiert, KI verstärkt für Schülerinnen und Schüler einzusetzen. Das Potenzial dafür ist groß. Allerdings muss man sich die Frage stellen, ob wir tatsächlich Hilfskräfte an Schulen haben wollen, die zumindest ohne explizite Aufforderung Antworten geben, die nur zufällig korrekt sind.

Das empfiehlt der Experte für den Bildungsalltag:

  • Gezielt anweisen: KI ausdrücklich auffordern, falsche oder unbegründete Annahmen zu korrigieren.
  • Antworten überprüfen: Ergebnisse mit anerkannten wissenschaftlichen Quellen abgleichen.
  • Kritik schulen: Lernende darauf hinweisen, dass KI auch falsche Antworten liefern kann.

Für den Unterricht bedeutet das: KI kann eine wertvolle Unterstützung sein – aber nur, wenn sie gezielt eingesetzt und ständig hinterfragt wird.

Kurz zusammengefasst:

  • Neuromythen sind falsche, wissenschaftlich widerlegte Annahmen über das Gehirn – wie der „Lernstile“-Glaube oder die 10-Prozent-Behauptung – und können Unterricht und Lernerfolg spürbar beeinträchtigen.
  • KI erkennt viele dieser Neuromythen zuverlässig, versagt aber häufiger, wenn sie in realistische Fragen eingebettet sind.
  • Die Trefferquote steigt deutlich, wenn die KI ausdrücklich aufgefordert wird, unbegründete Annahmen zu korrigieren – doch ohne diese Anweisung bleibt das Risiko fehlerhafter Antworten hoch.

Übrigens: Googles neuer KI-Tutor „Guided Learning“ will Studierende nicht nur mit Antworten versorgen, sondern Schritt für Schritt zum Verstehen führen. Mehr dazu in unserem Artikel.

Bild: © DALL-E

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert