Wenn wir sprechen, bewegt sich nicht nur unser Mund.

Wir legen den Kopf schief oder breiten die Arme aus, um das, was wir sagen, zu unterstreichen. Eine Computerwissenschaftlerin hat zusammen mit Kollegen von der Uni Berkeley einen Algorithmus entwickelt, der nur anhand der Stimme sagen kann, wie jemand Arme und Hände dazu bewegt. Die Forschenden haben mehr als 140 Stunden Videos von zehn Menschen gesammelt - fünf davon waren Fernsehmoderatoren wie John Oliver und Ellen deGeneres, dazu kamen noch eine Nonne und ein Chemielehrer. Mit diesem Material wurde der Algorithmus dann trainiert. Als er später neue Aufnahmen eines Menschen bekam, konnte er mit einer guten Trefferquote seine Gesten ergänzen.

Das Forschungsteam erstellte sogar Videos mit den errechneten Gesten. Sie kommen den echten Videos erschreckend nahe. Im nächsten Schritt soll das Programm gar keine Stimme mehr brauchen, sondern nur noch Transkripte. Dann könnte man damit leichter Animationsfilme produzieren oder Robotern beibringen, wie sie sich möglichst menschlich bewegen.