KI gibt Schlaganfall-Patienten ihre Stimme zurück – mit Gedanken sprechen in Echtzeit

Ein Schlaganfall kann die Sprache nehmen. Eine neue KI wandelt Hirnsignale in gesprochene Worte um – in Echtzeit und mit individueller Stimme.

KI verwandelt Gedanken in Sprache nach Schlaganfall

Ein Gedanke reicht – Forscher koppeln den Gehirnchip von Patientin Ann mit dem Sprachcomputer. Was dann passiert, klingt wie ein Wunder. © Noah Berger

Ein einziger Schlaganfall kann alles verändern – vor allem die Fähigkeit, sich mitzuteilen. Wer plötzlich nicht mehr sprechen kann, verliert oft mehr als nur die Sprache. Auch Selbstständigkeit, soziale Kontakte und Lebensfreude stehen auf dem Spiel. Jetzt gibt es neue Hoffnung: Eine KI soll Schlaganfall-Betroffenen helfen, wieder zu sprechen – indem sie Gedanken in Sprache übersetzt, fast in Echtzeit. Forscher der UC Berkeley in Kalifornien haben in ihrer Studie dafür ein System entwickelt, das Gehirnsignale direkt in hörbare Worte umwandelt.

Das sogenannte „Brain-to-Voice“-System funktioniert in Echtzeit. Innerhalb einer Sekunde nach einem Sprechversuch erzeugt der Computer eine hörbare Ausgabe. Möglich macht das ein lernfähiges KI-Modell, das neuronale Signale erkennt und sie in natürliche Sprache übersetzt.

Nach Schlaganfall – KI erzeugt Sprache fast ohne Verzögerung

Das Forschungsteam aus UC Berkeley und UC San Francisco beschreibt die Technik als „nahezu synchron“. Im Vergleich zu früheren Systemen, die bis zu acht Sekunden Verzögerung hatten, ist das ein großer Schritt nach vorn. „Unsere Streaming-Methode bringt dieselbe schnelle Sprachdekodierung wie Alexa oder Siri zu Neuroprothesen“, sagt Gopala Anumanchipalli von der UC Berkeley.

Auch die Verständlichkeit hat sich verbessert. Selbst Wörter, die nicht im Trainingsdatensatz enthalten waren, konnten korrekt erzeugt werden. Die Technologie funktioniert zudem nicht nur bei gesprochener Sprache, sondern auch bei lautlos „gemimten“ Wörtern – also Bewegungen des Mundes ohne Laut.

Stille Sprache erkennen und umsetzen

Herzstück des Systems ist ein neuronales Netz, das Daten aus dem motorischen Kortex verarbeitet. Dieser Hirnbereich steuert die Sprechmuskulatur. Die KI erkennt, welche Wörter eine Person sagen will – noch bevor die Stimme zum Einsatz kommt. Dabei setzt das System genau da an, wo das Gehirn den Befehl zur Artikulation gibt.

Cheol Jun Cho, einer der Hauptautoren, erklärt: „Wir fangen die Signale ein, nachdem entschieden wurde, was gesagt werden soll – also nach dem Gedanken, aber vor der Bewegung.“

KI imitiert sogar die persönliche Stimme

Eine Herausforderung war, dass Patientin Ann – die das System getestet hat – keine hörbare Sprache mehr erzeugen konnte. Um dennoch eine Audioausgabe zu erzeugen, nutzten die Forscher alte Sprachaufnahmen von ihr. Daraus ließ sich ein digitales Abbild ihrer früheren Stimme erstellen.

„Als Ann ihre eigene Stimme hörte, empfand sie ein stärkeres Gefühl von Verkörperung“, berichtet Anumanchipalli. Der Unterschied zur früheren Text-zu-Sprache-Methode war für sie deutlich spürbar.

Echtzeit-Kommunikation bringt neues Lebensgefühl

Die neue Methode ermöglicht kontinuierliches Sprechen. Sobald das Gehirn ein Sprachsignal sendet, beginnt das System mit der Sprachausgabe – ohne Unterbrechungen. „Wir können sehen, dass innerhalb einer Sekunde der erste Laut erzeugt wird“, sagt Anumanchipalli.

Für die Patienten bedeutet das eine große Erleichterung. Sie müssen nicht länger warten, bis das System reagiert. Stattdessen entsteht ein natürlicher Redefluss – fast wie bei einer gesunden Person.

KI trifft auch unbekannte Wörter erstaunlich gut

Im Test versuchte Ann, seltene Begriffe wie „Bravo“ oder „Charlie“ lautlos zu sprechen. Diese Begriffe waren nicht im Trainingsdatensatz enthalten. Dennoch erkannte das System die Muster korrekt. „Unser Modell lernt offenbar tatsächlich die Bausteine von Sprache“, sagt Anumanchipalli.

Auch bei anderen Menschen könnte das System funktionieren – vorausgesetzt, es liegen gute neuronale Signale vor. Die Forscher testeten das Verfahren erfolgreich mit verschiedenen Sensortechniken, darunter auch nicht-invasive Gesichtssensoren.

Emotionen bald auch erkennbar

Noch ist das System in der Entwicklung. Doch die nächsten Schritte sind bereits geplant. Die Forscher wollen künftig auch Emotionen wie Freude oder Wut erkennen – anhand von Tonhöhe oder Lautstärke.

„Das ist ein altbekanntes Problem in der Audiotechnik“, erklärt Kaylo Littlejohn von der UC Berkeley. „Aber wenn wir das schaffen, wären wir echter Sprache sehr nahe.“ Die Technik könnte dann nicht nur Wörter übertragen, sondern auch Stimmungen.

Alltagstauglichkeit ist das nächste Ziel

Die Forscher wollen das System künftig alltagstauglich machen – als medizinisches Hilfsmittel für Patienten. Edward Chang, Neurochirurg an der UCSF, sieht großes Potenzial: „Diese neue Technologie hat enormes Potenzial, die Lebensqualität von Menschen mit schwerer Sprachlähmung zu verbessern.“

Wenn das gelingt, könnten Menschen mit Sprachverlust in Zukunft wieder aktiver am Leben teilnehmen – und sich endlich wieder mitteilen.

Patientin Ann kann dank neuer KI wieder kommunizieren. © Youtube

Kurz zusammengefasst:

  • Eine neue KI-Technologie übersetzt Hirnsignale von Schlaganfall-Patienten direkt in gesprochene Sprache – fast ohne Verzögerung.
  • Das System erkennt auch stumm „gesprochene“ Worte und kann individuelle Stimmen realistisch nachbilden.
  • Ziel ist es, betroffenen Menschen wieder natürliche Kommunikation und mehr Lebensqualität zu ermöglichen.

Übrigens: Auch ein zweiter gelähmter Patient kann dank eines Neuralink-Implantats wieder Geräte allein mit seinen Gedanken steuern. Wie bei der neuen KI für Schlaganfall-Betroffene geht es um eines: verlorene Fähigkeiten mit Technologie zurückzugewinnen – mehr dazu in unserem Artikel.

Bild: © Noah Berger

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert