In China werden Menschen schon per Gesichtserkennung überwacht, die japanische U-Bahn testet sie gerade als Fahrkartenersatz und auch in Deutschland gab es ein Pilotprojekt am Berliner Bahnhof Südkreuz.

Aber die Kritik an der Gesichtserkennung wird immer lauter. Eine Studie aus den USA kommt jetzt zu dem Schluss, dass die Mehrheit der Systeme zur Fahndung nach Verbrechern nicht neutral ist.

Schwarze und Asiaten im Visier

Asiatische Gesichter und die von Schwarzen wurden zehn bis 100 Mal öfter fälschlicherweise mit einer Tat in Zusammenhang gebracht als die von hellhäutigen Menschen. Bei Software, die in den USA entwickelt wurde, gab es die meisten Fehler in der Gesichtserkennung von amerikanischen Ureinwohnerinnen und Ureinwohnern.

Kathrin Sielker, Deutschlandfunk-Nova-Autorin
"Es hat tatsächlich einen Hintergrund, wo der Algorithmus programmiert wurde, weil die Programmiererinnen und Programmierer ja die Software mit Daten füttern. So hatte zum Beispiel Software aus Asien nicht so große Fehlerunterschiede zwischen asiatisch aussehenden Gesichtern und Weißen wie die restliche getestete Software."

Grundsätzlich machten die Systeme bei Fotos von Frauen mehr Fehler als bei Männern. Und ältere Menschen wurden zehn Mal öfter falsch identifiziert als welche im mittleren Alter. Solche falschen Ergebnisse könnten dazu führen, dass Menschen zu Unrecht beschuldigt oder verurteilt werden.

Die Forschenden hatten Zugang zu mehr als 18 Millionen Fotos von mehr als acht Millionen Menschen aus den USA. Die wurden von fast 190 Algorithmen zur Gesichtserkennung ausgewertet. Darunter waren Systeme großer kommerzieller Firmen wie Microsoft.