Seit 60 Jahren arbeitet der Mensch daran, Maschinen das Sprechen beizubringen. Aber die menschliche Stimme lässt sich technisch nur schwer reproduzieren. Trotzdem gibt es inzwischen Möglichkeiten, sich ganze Bücher von synthetischen Sprechern vorlesen zu lassen.

Auch wenn es Wissenschaftlern immer besser gelingt, digitale Texte mit Hilfe von Programmen vorlesen zu lassen, der menschliche Zuhörer entlarvt die Stimmen ziemlich schnell als Roboter- oder Computerstimmen. Für Jan Blüher ist die Sprachausgabe trotzdem ein Gewinn. Denn die Computerstimmen ersetzen seine Augen. Sie navigieren ihn über die Touchscreens von Tablets und Smartphones und lesen ihm Websites und Bücher vor.

Lautschrift reicht nicht

Das erste Gerät, das verständlich Sprache hervorgebracht hat, hieß "Syni I" und wurde vom Institut für Akustik und Sprachkommunikation der TU Dresden entwickelt. Damals wurde mit Hilfe von Lochstreifen eine Art Lautschrift codiert. Das allerdings klingt ziemlich hölzern. Denn Lautschrift allein reicht nicht, um Sprache wiederzugeben.

Je nach Satzgefüge und Satzmelodie klingen Wörter ziemlich unterschiedlich. Deshalb bedienen sich moderne Sprachsysteme einer ganzen Datenbank aus Lautschnipseln, die unterschiedlich betont sind. So geht die Stimme zum Beispiel eher nach oben oder nach unten - je nachdem, ob am Satzende ein Punkt oder ein Fragezeichen steht. Das funktioniert bereits ganz gut, schwierig wird es allerdings bei Anglizismen. Denn das System kann nicht selbstständig erkennen, ob ein Wort englisch oder deutsch ausgesprochen wird.