Sprachassistenzen wie Siri oder Alexa haben in der Regel Einheitsstimmen.

Computer-Forschende der Pennsylvania State University haben getestet, wie Probanden und Probandinnen auf Assistenz-Stimmen reagieren, die ihren eigenen ähneln sollten. Hunderte Menschen sollten sich entsprechend der eigenen Persönlichkeit und Stimme aus mehreren Varianten eine raussuchen. Tatsächlich aber bekamen alle per Zufallssystem eine zugewiesen. Die Menschen glaubten also nur an die Ähnlichkeit mit sich selbst. Und dann wurden Informationen abgespielt.

Ergebnis ist, dass diese Leute die Sprachassistenzen als sozialer und glaubwürdiger einstuften und den Dienst im Allgemeinen besser bewerteten als die Kontrollgruppe, die sich keine eigene Stimme aussuchen durfte. Die Forschenden erklären das damit, dass Menschen die Tendenz haben, wahrgenommene Ähnlichkeit mit Glaubwürdigkeit gleichsetzen.

Unklar blieb aber, warum die Menschen öfter testweise eingestreute Falschinformationen enttarnten, wenn die Stimme ihnen angeblich ähnelte. Sie erkannten zum Beispiel Lügen über Covid-Impfstoffe häufiger als die Kontrollgruppe.