Im Juli 2019 kam raus: Google lässt die Mitschnitte seines Sprachassistenten von Menschen abhören. Auch die, die versehentlich mitgeschnitten wurden. Jetzt hat das Unternehmen neue Regeln für den Umgang mit den Mitschnitten veröffentlicht.

Egal ob Google, Apple oder Amazon - wer einen Sprachassistenten zu Hause hat, muss damit rechnen, dass das System auch dann mitzeichnet, wenn es gar nicht absichtlich aktiviert wurde. Alle Anbieter ließen bis Juli 2019 diese Mitschnitte auch von Menschen auswerten, die mitunter brisante und intime Informationen enthielten.

Nach der Veröffentlichung dieser Praxis haben Google, Apple und Amazon die gleiche Erklärung abgeliefert: Alles nicht so schlimm, das dient nur der Verbesserung der Spracherkennungssoftware.

Das Problem allerdings: Die Nutzerinnen und Nutzer wurden nicht transparent darüber aufgeklärt, was die Sprachassistenten alles mitschneiden.

Google fragt jetzt, wertet aber weiterhin aus

Jetzt ändert Google die Praxis: Auch Google fragt jetzt nach der Zustimmung, ob die Mitschnitte von Menschen ausgewertet werden dürfen. Nutzerinnen und Nutzer müssen also aktiv zustimmen, indem sie die Option "Voice & Audio Activity" einschalten. Bei den anderen beiden Anbietern ist das schon länger der Fall.

Google sagt aber auch: Das Reinhören in die Mitschnitte sei die einzige Möglichkeit, die Qualität der Spracherkennung zu verbessern, wenn die Software die Worte oder Sätze nicht versteht.

Privatsphäre mit Einschränkungen

Wer Wert auf seine Privatsphäre legt, sollte "Voice & Audio Activity" also besser ausgeschaltet lassen. Auch, weil es noch einen weiteren Kritikpunkt gibt: Die Website "The Register" kritisiert, dass Google nicht transparent macht, wie die Audiodaten von den persönlichen Daten getrennt werden.

Google gibt in einem aktuellen Blogpost zwar an, dass noch einige "security protections" und "privacy filters" eingeführt werden. Unklar bleibt, was die leisten sollen. Außerdem will Google noch eine Option einführen, mit der Nutzerinnen und Nutzer die Genauigkeit für die Erkennung des Signalpassworts anpassen können. Zum Beispiel, wenn der Asisstent dauernd fälschlicherweise angesprungen ist, weil er "Hey Google" verstanden hat. Damit kann man die Schwelle etwas hochsetzen.