Eine Software erkennt, was wir in ein Mikrofon sprechen und verwandelt das Gesagte in geschriebenen Text.

Diese Art der Spracherkennung funktioniert heute schon ziemlich gut. Forscher am MIT in den USA arbeiten an einem System zur Spracherkennung, für das man gar nicht mehr sprechen muss. Man muss sogar noch nicht mal mehr den Mund bewegen, sondern es reicht, dass man sich vorstellt, was man sagt. Das sorgt für Nervensignale im Gesicht und im Kiefer. Und die werden dann von einer Art Gesichtsmaske mit Sensoren abgetastet und registriert.

Eine lernfähige Software kann dann allein aus diesen Signalen ableiten, was ein Nutzer sagt. So eine "Spracherkennung ohne Sprechen" könnte irgendwann zum Beispiel für das Arbeiten in lauten Umgebungen wie Großraumbüros nützlich sein, sagen die Forscher. Noch ist das Ganze aber weit entfernt von der Praxisreife. Bisher muss das System noch auf jeden Nutzer und jedes einzelne Wort hin zeitaufwendig trainiert werden.