KI soll stummen Patienten die Sprache zurückgeben

31. März 2020, 14:39
  • innovation
  • künstliche intelligenz
image

Forscher haben ein Hirn-zu-Text-System entwickelt, das eine sehr geringe Fehlerquote haben soll. Es gibt bereits auch Kritik.

Die Umwandlung von Hirnsignalen in digitale Befehle ist kein ganz neues Forschungsfeld. Was nun aber Forscher um Joseph Makin von der University of California entwickelt haben, könnte dennoch Hoffnung wecken: Sie hätten ein Hirn-zu-Text-System entwickelt, das mit wenig Training eine sehr hohe Treffergenauigkeit erziele,  berichtet das Wissenschaftsmagazin 'wissenschaft.de'.
Vier Probanden nahmen am Versuch von Makin teil. Sie hatten ein Netz aus Elektroden in die Grosshirnrinde implantiert bekommen, das ursprünglich die Herde von epileptischen Anfällen lokalisieren sollte. Mit dessen Hilfe konnten die Forscher aber auch Hirnsignale ableiten, während die Teilnehmer englische Sätze laut vorlasen.
Mit diesen Daten trainierten die Wissenschaftler schliesslich zwei neuronale Netzwerke. Das erste durchsuchte die aufgezeichneten Signale nach wiederkehrenden Mustern, die mit Wörtern zusammenhängen könnten. Das zweite Netzwerk nutzte die Daten des ersten, um aus bereinigten Signalen wieder Wörter zu generieren, so 'wissenschaft.de'.
Die Resultate lassen sich offenbar sehen: Schon nach wenigen Trainingsdurchgängen sei die Fehlerquote relativ gering: Wenn ein Satz mindestens 15 Mal wiederholt wurde, sank die Wortfehlerrate demnach unter 25 Prozent. Bei noch häufigerer Wiederholung sei die Fehlerrate bei einem Probanden sogar auf noch 3 Prozent im Schnitt gesenkt worden, so die Forscher gegenüber 'The Guardian'.
Das System kann zudem generelle Muster lernen. So erkannte laut dem Bericht ein an Proband "A" trainiertes Netzwerk, viel schneller charakteristische Hirnsignale auch von Proband "B". Damit könnte man ein generalisiertes Sprachmodell trainieren, das dann schneller adaptiert wäre.

"Diese Leute könnten einfach 'OK Google' benutzen"

Die Forscher hoffen nun, dass sie Patienten, die einen Sprachverlust erlitten haben, die Sprache zurückgeben oder sie zumindest unterstützen könnten. Das Experiment wurde allerdings mit Probanden durchgeführt, die Sätze laut ausgesprochen haben. Zudem beschränkte es sich auf einen Wortschatz von 250 Wörtern.
Wenn man versuche, über die 50 verwendeten Sätze hinauszugehen, werde die Dekodierung viel schlechter, sagte Makin gegenüber 'The Guardian' und ergänzte: "Wir sind noch nicht so weit, aber wir glauben, dass dies die Grundlage für eine Sprachprothese sein könnte".
Etwas kritischer äusserte sich derweil Christian Herff, ein Experte auf diesem Gebiet von der Universität Maastricht. Er zeigte sich zwar beeindruckt von der Leistung, sagte aber, es handle sich um keine Übersetzung von Gedanken, sondern von Hirnaktivität, die beim Sprechen involviert sei. "Diese Leute könnten auch einfach 'OK Google' benutzen", so Herff.

Loading

Mehr zum Thema

image

100 Millionen Dollar für zwei Schweizer Krypto-Startups

Zwei Firmen mit offiziellem Sitz in Zug konnten je 50 Millionen sammeln. Eine verspricht "grüne" Blockchain-Infrastruktur, die andere umfassende Möglichkeiten für Krypto-Investments.

publiziert am 23.9.2022
image

Verstärkung für ETH kommt aus Kopenhagen

Die Hochschule beruft einen neuen Professor im Departement Mathematik, der auf Statistik und Machine Learning spezialisiert ist. Ein anderer KI-Spezialist verlässt die Uni.

publiziert am 23.9.2022
image

Drohnenschwarm erledigt Bauarbeiten und Reparaturen

In Zukunft sollen Drohnen wie Bienen zusammenarbeiten können, um Bauten zu errichten. Wie ihre tierischen Vorbilder würden sich die Fluggeräte die Arbeit teilen.

publiziert am 22.9.2022
image

Zühlke ist neuer Partner des LowCodeLabs

Zühlke und das Lab der OST machen gemeinsame Sache: Im Bereich Low Code gehen die beiden eine strategische Partnerschaft ein, um Lehre, Forschung und Wirtschaft zu verknüpfen.

publiziert am 20.9.2022