Social Bots richten in den Sozialen Medien ein ganz schönes Chaos an. Sie sollen Wahlen beeinflussen können, Abstimmungen manipulieren und polarisieren die Userinnen und User. Forschende wollen nun eine Methode entwickelt haben, mit der sie Bots von realen Menschen unterscheiden können. Doch es gibt auch Kritik.

Könnte man einen Social Bot von einem Menschen unterscheiden, wäre alles ganz einfach. Ist es aber nicht. Denn ob ein Account automatisch Sachen weiterverbreitet oder ob es doch eine Person mit sehr viel Zeit ist – das lässt sich nicht ohne Weiteres sagen.

Botometer soll Unterschied erkennen

Im Fachmagazin Frontiers in Physics veröffentlichten zwei Wissenschaftler nun ihre Studie zu Social Bots. Grundlage der Studie ist ihr Tool Botometer, das Bots von Menschen unterscheiden soll, erklärt Deutschlandfunk-Nova-Reporterin Tina Howard.

"Das Botometer untersucht Twitter-Accounts und beurteilt anschließend nach bestimmten Kriterien, ob es sich um einen Bot oder einen Menschen handelt. Handelt es sich sicher um einen Menschen, vergibt es den Wert 0, handelt es sich um einen Bot, dann vergibt es den Wert 1."
Tina Howard, Deutschlandfunk-Nova-Reporterin

Das Botometer bewertet Twitter-Accounts nach bestimmten Kriterien. So vergibt es Werte zwischen 0 (dann Mensch) und 1 (dann Bot). Weil das allein anhand des Twitter-Verhaltens schwer zu identifizieren ist, kommt es auch vor, dass ein Mensch statt einer glatten Null einen Wert wie 0,3 bekommt, sagt Tina Howard. Das bedeutet: Mit großer Wahrscheinlichkeit handelt es sich bei diesem Account um einen Menschen.

Menschliches Verhalten als Grundlage

Der Algorithmus, der hinter dem Botometer steckt, basiert auf der aktuellen Studie der beiden Wissenschaftler. Dort suchten sie nach typisch menschlichem Verhalten – das sich vom automatisierten Verhalten eines Bots unterscheidet, erklärt Tina Howard. Sie verglichen das Verhalten während einer Twitter-Session von Bots und Menschen jeweils über den Zeitraum von einer Stunde und untersuchten, ob sich innerhalb dieser Zeit etwas verändert. Ob beim Menschen zum Beispiel Ermüdungserscheinungen auftreten.

Mensch interagiert mit anderen

Und tatsächlich fanden sie solche Unterschiede. Menschen steigerten zum Beispiel die Interaktion mit anderen. Eine Diskussion entwickelte hier eine gewisse Dynamik, erklärt Tina Howard. Aber: Diese Verhaltensunterschiede waren nicht signifikant. Trotzdem fütterten die Forscher ihren Algorithmus mit den so gewonnen Daten.

"Es gibt sehr viel Kritik an der Studie. Das Botometer als Grundlage ist umstritten, weil Studien schon belegt haben, dass es fehlerhaft arbeitet. Und aus nicht-signifikantem Verhalten einen Algorithmus abzuleiten, ist ebenfalls schwierig."
Tina Howard, Deutschlandfunk-Nova-Reporterin

Dadurch, dass der Algorithmus mit Daten von nicht-signifikanten Verhaltensunterschieden arbeitet, gibt es an der Studie viel Kritik.

Bots sind nicht das Problem

Kritik gibt es aber auch noch von ganz anderer Seite. So meint Datenspezialist Luca Hammer: Nicht die Bots sind das Problem. Sondern die Menschen, die Accounts betreiben, um gezielt Falschmeldungen zu verbreiten. Social Bots werden für Kampagnen verantwortlich gemacht. Doch aus dem Blick fällt, dass es tatsächlich Menschen gibt, die diese Fake News verbreiten wollen, erklärt Tina Howard. Denn am Ende verbreiten Bots Inhalte, die von Menschen erstellt wurden.