In den vergangenen Jahren hat es bei Gehirn-Computer-Schnittstellen große Fortschritte gegeben.

Mithilfe dieser Hirn-Implantate können Menschen, die durch Erkrankungen nicht mehr sprechen können, ihre Stimme zurückgewinnen. Erst im April dieses Jahres hatte ein Forschungsteam zum ersten Mal ein Tool vorgestellt, das Sprache nicht mehr verzögert, sondern in Echtzeit wiedergibt. Jetzt kommt ein weiterer Schritt: Die Testperson konnte nicht nur in Echtzeit sprechen, sie konnte auch Worte betonen, die Satzmelodie ändern, Laute wie "aha" oder "hm" von sich geben und sogar kleine Melodien summen. Das alles führt dazu, dass das Gesprochene ganz natürlich klingt und nicht mehr wie eine Computerstimme.

Die Studie ist im Fachmagazin Nature erschienen. Testperson war ein an ALS erkrankter Mann - die Krankheit schädigt Nerven, die Muskelbewegungen regeln, die wir unter anderem fürs Sprechen brauchen. Dem Mann wurden Elektroden in einen bestimmten Hirnbereich eingepflanzt. Alle zehn Millisekunden liest die mit KI arbeitende Schnittstelle die Signale aus und wertet die Laute und Geräusche aus.