Allgemeines

Entdeckung, wie das Gehirn die Sprache codiert, kann Behinderten eine Stimme geben


Trotz seines Handicaps wurde Stephen Hawking zu einer der mächtigsten Stimmen der modernen Wissenschaft.

In den letzten Jahrzehnten seines Lebens war der renommierte Astrophysiker auch mit seinem Stuhl und seinem Computer verbunden, die seine Gedanken zu einem Roboterwort machten.

Hawking ist vielleicht das berühmteste Beispiel für Menschen mit eingeschränkter Sprache, aber er ist nicht der einzige Sprecher, der aufgrund einer Muskelparalyse eingeschränkt ist.

Forscher möchten Menschen mit eingeschränkter Sprache helfen, ihre Kommunikation mit einer neuen Gehirnschnittstelle freizuschalten. Diese neue Maschine würde entschlüsseln, was das Gehirn an Zunge, Gaumen, Lippen und Kehlkopf sendet, und alles in Worte fassen.

Erstellen einer Maschine zur Interpretation von "stiller" Sprache

Die innovative Brain Machine Interface (BMI) ist das Ergebnis von Forschungen der Northwestern Medicine und des Weinberg College of Arts and Sciences. Das Team entdeckte, wie das Gehirn die Sprache in einer ähnlichen Funktion steuert wie einen Arm oder ein Bein.

Um das Gehirn zu verfolgen, zeichneten die Forscher Signale von zwei getrennten Teilen des Gehirns auf. Sie entdeckten, dass das Gehirn zwei unterschiedliche Ziele in der Sprache hat - was wir sagen wollen (Sprachlaute) und die individuellen Bewegungen, die unser Körper benötigt, um diese Worte und Gedanken herauszuholen.

Dieses Verständnis war entscheidend für die Schaffung eines neuen BMI-Typs.

"Dies kann uns helfen, bessere Sprachdecoder für BMIs zu entwickeln, was uns unserem Ziel näher bringt, Menschen, die eingesperrt sind, wieder beim Sprechen zu helfen", sagte der Hauptautor Marc Slutzky, außerordentlicher Professor für Neurologie und Physiologie an der Feinberg School der Northwestern University of Medicine und ein Neurologe der Northwestern Medicine.

Wie das Gehirn Wörter in Sprache umwandelt

Die Mechanik hinter Ihren Worten besteht aus Phonemen, die durch koordinierte Bewegungen von Lippen, Zunge und anderen Bereichen erzeugt werden. Wie diese Gesten geplant sind, blieb den Wissenschaftlern bislang ein Rätsel.

"Wir haben angenommen, dass sprachmotorische Bereiche des Gehirns eine ähnliche Organisation haben würden wie motorische Bereiche des Gehirns", sagte Slutzky. "Der präzentrale Kortex würde Bewegungen (Gesten) der Lippen, der Zunge, des Gaumens und des Kehlkopfes darstellen, und die kortikalen Bereiche auf höherer Ebene würden die Phoneme in größerem Maße darstellen."

Laut dem Team haben sie das entdeckt.

"Wir haben zwei Teile des Gehirns untersucht, die zur Sprachproduktion beitragen", sagte Slutzky. "Der präzentrale Kortex stellte Gesten in größerem Maße dar als Phoneme. Der untere frontale Kortex, ein Sprachbereich höherer Ebene, repräsentierte sowohl Phoneme als auch Gesten."

Nächste Schritte zum Entsperren von mehr Sprache

Das Team aus dem Nordwesten zeichnete Gehirnsignale mit Elektroden auf, die an der kortikalen Oberfläche platziert waren. Sie verwendeten Patienten, die sich einer Gehirnoperation unterzogen, um Hirntumoren als ihre Probanden loszuwerden, da sie während der Operation wach sein mussten. Während die Patienten unter dem Messer waren, bat das nordwestliche Team sie, eine Handvoll Wörter von einem Bildschirm zu lesen.

Die Wissenschaftler markierten dann alle Zeiten, zu denen die Patienten Gesten und Phoneme machten. Sie zeichneten die Gehirnsignale aus den kortikalen Bereichen auf, um zu sehen, welche Phoneme und Gesten erzeugt wurden.

Der nächste Schritt für das Team ist die Entwicklung eines Algorithmus, mit dem das Gehirn sowohl Decodierungsgesten als auch diese decodierten Gesten zur Bildung von Wörtern und letztendlich zur Sprache verwenden kann.


Schau das Video: Grundlagen: Alphabet, Wort, Sprache (Juni 2021).