Neurowissenschaftlicher Durchbruch: KI übersetzt Gedankendenken

Das Brain-Computer Interface der Columbia University ist auf dem neuesten Stand der Technik.

orla/istockphoto

Quelle: orla / istockphoto

Zuerst gab es die Tastatur, dann Touch und Voice, um Computer und Apps zu steuern. Was kommt als nächstes? Forscher am Mortimer B. Zuckerman Mind Brain Behavior Institute An der Columbia University in New York City wurde mit der Erfindung einer Brain-Computer-Schnittstelle (BCI) eine “wissenschaftliche Premiere” angekündigt, die menschliche Gedanken mit höherer Klarheit und Präzision als bisherige Lösungen in Sprache umsetzt. Das Forschungsteam unter der Leitung von Dr. Nima Mesgarani veröffentlichte ihre Ergebnisse am 29. Januar 2019 in Scientific Reports , einer Zeitschrift für Naturforschung .

Eine Gehirn-Computer-Schnittstelle ist eine bidirektionale Kommunikationsstrecke zwischen einem Gehirn und einem Computer. Viele BCI-Forschungsprojekte konzentrieren sich auf neuroprothetische Anwendungen für diejenigen, die Bewegung, Sehen, Hören oder Sprache verloren oder beeinträchtigt haben, wie zum Beispiel solche, die durch Schlaganfall, Rückenmarksverletzungen, Amyotrophe Lateralsklerose (ALS), Aphasie (Gehirnschwäche) beeinträchtigt werden (Schädigung), Cochlea-Schaden und Locked-In-Syndrom.

Bis zu diesem Meilenstein durchbrach das Verfahren zur Dekodierung von Gehirnsignalen einfachere Rechenmodelle, die auf linearer Regression beruhten, um visuelle Repräsentationen von Tonfrequenzen (Spektrogrammen) zu analysieren, die zu unverständlicher Sprache führten. Mesgarani und sein Forschungsteam kombinierten die neuesten innovativen Technologien in der Sprachsynthese mit KI-Deep-Learning, um die Verständlichkeit rekonstruierter Sprache zu verbessern, mit deutlich verbesserten Ergebnissen.

Mesgarani arbeitete mit dem Neurochirurgen Ashesh Dinesh Mehta, MD, am Northwell Health Physician Partners Neuroscience Institute zusammen, um die Gehirnaktivitäten von pharmakoresistenten Patienten mit fokaler Epilepsie zu messen, die sich für die Studie bereits einer Hirnoperation unterzogen haben.

Die invasive Elektrokortikographie (ECoG) wurde verwendet, um die neuronale Aktivität von fünf Studienteilnehmern zu messen, die sich alle als normal hörbar erwiesen hatten, während sie hörten, dass vier Sprecher eine halbe Stunde lang Kurzgeschichten mit Kurzgeschichten hörten. Die aufgezeichneten neuronalen Muster wurden als Dateneingabe verwendet, um einen Vocoder zu trainieren, einen Audioprozessor, der menschliche Stimme analysiert und synthetisiert.

Nach dem Training des Vocoders nahmen die Forscher Hirnsignale der gleichen Teilnehmer auf, während sie den Lautsprechern zwischen null und neun zuhörten. Diese aufgezeichneten Gehirnsignale wurden über den Vocoder eingegeben, der wiederum synthetisierte Sprache erzeugte. Als Nächstes verwendeten die Forscher künstliche neuronale Netze, um die vom Vocoder erzeugte Sprache zu verfeinern, und ließen dann elf Probanden hören, die normal hörten.

Die Forscher entdeckten, dass die Verwendung eines tiefen neuronalen Netzwerks (DNN) mit nichtlinearer Regression die Verständlichkeit um 67 Prozent gegenüber der Basismethode verbessert, bei der die lineare Regression zur Rekonstruktion des auditorischen Spektrogramms verwendet wird. Diese Teilnehmer konnten die mit der DNN-Vocoder-Kombination erzeugten Klänge mit einer Genauigkeit von 75 Prozent verstehen und wiederholen. Den Forschern zufolge “führen die Ergebnisse von Studien, die den überlegenen Vorteil tiefer Lernmodelle gegenüber anderen Techniken zeigen, insbesondere wenn die Menge an Trainingsdaten groß ist” und “die Erhöhung der Menge an Trainingsdaten zu einer besseren Rekonstruktionsgenauigkeit”.

Die Forscher entdeckten ein „allgemeines Rahmenwerk, das für Sprachtechnologieprothetik-Technologien verwendet werden kann, das zu präziser und verständlicher rekonstruierter Sprache aus dem menschlichen Hörkortex führen kann“ Schritt auf die nächste Generation von Mensch-Computer-Interaktionssystemen und natürlichere Kommunikationskanäle für Patienten, die an Lähmungen und Lock-In-Syndromen leiden. “

Der Aufstieg des tiefgreifenden Lernens künstlicher Intelligenz hat einen möglichen wissenschaftlichen Fortschritt in allen Disziplinen – insbesondere in den Bereichen Neurowissenschaften und Biomedizinische Technik – geschaffen. Werden Computergeräte in Zukunft durch menschliches Denken verwaltet?

Copyright © 2019 Cami Rosso Alle Rechte vorbehalten.

Verweise

Akbari, Hassan, Khalighinejad, Bahar, Herrero, Jose L., Mehta, Ashesh D., Mesgarani, Nima. “Auf dem Weg zum Wiederaufbau einer verständlichen Rede aus dem menschlichen Gehörgang.” Wissenschaftliche Berichte . 29. Januar 2019.