Laut einer US-Studie fördert der Youtube-Algorithmus keine extremen Ansichten. Die Studie basiert auf Zuschauenden aus den USA. Ob sich die Erkenntnisse auch auf Deutschland übertragen lassen, ist nicht geklärt. Eine Untersuchung von 2021 deutet aber darauf hin.
Algorithmen verändern sich fortlaufend. Und Menschen suchen sich ihre Informationen zu kontroversen Themen wie dem Klimawandel oder dem russischen Angriffskrieg auf die Ukraine auch in den Sozialen Medien. Die These, dass ein Zusammenhang zwischen Social-Media-Algorithmen und radikalen Meinungen besteht, ist zwar nachvollziehbar – trifft aber offenbar nicht zu: Sie konnte bereits in Ausarbeitungen wie der 2021 veröffentlichten Studie "Examining the consumption of radical content on Youtube" widerlegt werden.
Eine im Fachmagazin Science Advances veröffentlichte Studie bestätigt das jetzt erneut: Dass Algorithmen und die Autoplay-Funktion von Youtube radikale Ansichten von Nutzer*innen aus den USA fördern, sei nicht nachweisbar, heißt es dort. Für die Untersuchung überwachte das Team aus Annie Chen, Brendan Nyhan, Jason Reifler, Ronald E. Robertson und Christo Wilson das Surfverhalten der Proband*innen mithilfe eines Browser-Add-ons.
"Mit einer Browsererweiterung beobachteten die Forschenden die Leute beim Youtube-Gucken. Surfen unterm Mikroskop sozusagen. Nur sechs Prozent der Teilnehmenden schauten sich überhaupt extremistische Inhalte an."
Als extremistische Inhalte stufte das Wissenschaftsteam frauenfeindliche, rassistische oder gewalttätige Videos ein. Demnach hatten die Proband*innen bewusst mindestens einen Kanal abonniert, der solche Inhalte produziert. Demnach leitete sie nicht etwa der Youtube-Algorithmus dorthin, sondern sie interessierten sich bewusst für extremistische Inhalte.
"Die meisten Teilnehmenden hatten bewusst mindestens einen extremistischen Kanal abonniert. Sie wurden nicht vom Algorithmus dorthin gelenkt."
Die Menschen, die solche extremen Videos lange und ausführlich schauten, waren fast immer ohnehin schon Abonnent*innen solcher Kanäle. Leute, denen der Algorithmus die Videos zufällig vorschlug, schalteten demnach nach wenigen Sekunden weg.
Kein "Rabbit-Hole-Effekt"
Deutschlandfunk-Nova-Netzreporterin Martina Schulte glaubt, dass es den oft beschriebenen "Rabbit-Hole-Effekt" – also dass Youtube quasi unschuldige Menschen in immer extremere Inhalte reinzieht – so nicht mehr gibt. Der Grund: Nach heftiger Kritik rund um die letzten US-Präsidentschaftswahlen baute Youtube seinen Algorithmus komplett um.
"Seitdem Youtube seinen Algorithmus 2019 umbaute, geht es dort insgesamt weniger extremistisch zu. Weil fragwürdiger Content weniger promotet wird."
Studienautor Brendan Nyhan beschreibt das beim Atlantic so: "Anstatt dass naive Nutzer plötzlich und unabsichtlich zu hasserfüllten Inhalten geleitet werden, sehen wir Menschen mit einem sehr hohen Maß an Frauenfeindlichkeit oder Rassismus, die gezielt nach diesen Inhalten suchen."
Dass die Forschenden so ein Fazit ziehen konnten, war nur durch die ausgefeilte Spionagemethode beim Browsen möglich. Dank dieser konnte erstmals bewiesen werden, dass Menschen vor allem über Abos und externe Links zu extremistischen Inhalten geleitet werden. Die Forschenden beobachteten die Teilnehmenden quasi "in freier Wildbahn", so unsere Netzreporterin.
Vieles deutet darauf hin, dass die Bedeutung der Algorithmen bei der Verbreitung extremer Inhalte überschätzt wird. Dennoch werfen selbst die Forschenden die Frage auf, wie repräsentativ die Studienteilnehmerinnen und -teilnehmer sind.
Schuldfrei sind die Plattformen trotzdem nicht
Die Forschenden wollen deswegen nicht sagen, dass Plattformen schuldfrei sind bei der Verbreitung extremer Inhalte in der Gesellschaft. Denn Youtube, Facebook, X (ehemals Twitter) und Co. lassen es weiterhin zu, extremistische Kanäle zu abonnieren oder extremistischen Inhalten zu folgen. Ein weiteres Problem ist auch, dass die Plattformen es noch immer (oder wieder) zulassen, extreme oder falsche Informationen hochzuladen.
"Social Media trägt natürlich nach wie vor zur Radikalisierung von Menschen bei. Dass nur ein kleiner Prozentsatz der User extreme Inhalte schaut, bedeutet ja nicht, dass es niemand macht. Ein Prozentsatz von sechs Prozent bei einer gigantischen Basis von zwei Millionen Nutzenden weltweit – das sind immer noch sehr viele Menschen."
Eine Untersuchung der Plattform Correctiv von 2021 zeigt, dass in Deutschland gemeldete Zuschauer*innen von alternativen oder extremistischen Youtube-Kanälen vor allem über externe Links kamen. Und nicht über den Algorithmus.