Seit Fake News und Social Bots in Trumps Präsidentschaftswahlkampf eine entscheidende Rolle spielten, flaut die Diskussion über sie nicht mehr ab. Die Angst ist groß, dass sie auch den Bundeswahlkampf 2017 beeinflussen könnten.

Social-Media-User sollten eine gesunde Skepsis gegenüber allen Posts haben, rät Dennis Horn. Weil jeder auf Facebook oder Twitter Mitteilungen veröffentlichen kann, sollte auch jeder wissen, wie man Quellen prüft, erklärt der Was-mit-Medien-Reporter.

  • Den Nutzer suchen, der als erster die Mitteilung gepostet hat
  • Verwendete Zitate im Netz nachprüfen

Beitragsflut nicht kontrollierbar

  • Problem: Im Schnitt verbringen User ungefähr 42 Minuten pro Tag auf Facebook, ergibt fünf Stunden pro Woche. Der durchschnittliche Facebook-User bekommt pro Tag 300 Beiträge angezeigt. Hinzukommen noch Tweets, Feedreader, Informationen auf Webseiten. All diese Infos nachzurecherchieren, ist für einen Alltags-User unmöglich.
  • Tipp: Alle Inhalte, die einen zweifeln lassen oder zu perfekt sind, besser nicht weiterverbreiten.
Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Noch gibt es keine Tools, mithilfe derer Fake News und Social Bots leichter entlarvt werden könnten. Studenten haben in Princeton bei einem Programmierworkshop eine Software entwickelt, die Fake News erkennen und dem User den Link zur korrekten Meldung anbieten soll, falls es diese gibt. Außerdem soll die Software Fakten eines Posts freilegen und sie mit anderen Artikeln vergleichen. Je mehr Fakten "verifiziert" sind, desto mehr Wahrheitspunkte bekommt der Post. Kommt eine kritische Masse an Wahrheitspunkten nicht zusammen, warnt das System den User.

"Es gibt gerade bei Fake News die Forderung, Facebook soll mehr löschen. Das halte ich für gefährlich, denn dann würden große Konzerne entscheiden, was wahr ist und was falsch. Das ist nicht in jedem Fall so klar zu trennen."
Dennis Horn, Was-mit-Medien-Reporter

Das Botswatch-Tool identifiziert automatisch arbeitende Twitter-Accounts oder Social Bots. Gerade die Social Bots werden für Propaganda missbraucht, erklärt Dennis Horn. Entwickelt wurde Botswatch von einem Team aus Berliner Journalisten und Programmierern.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Es gibt auch Forderungen, wonach Facebook mehr Posts einfach löschen soll. Dennis hält das für problematisch, weil wir dann Facebook die Entscheidung überlassen würden, was wahr und was falsch ist. Besser sei eine Art Meldefunktion, erklärt Dennis. Wenn Nutzer Themen bewerten, entsteht ein Ranking. Zum Beispiel: "25 deiner Freunde melden diesen Inhalt als falsch".

Automatisch Fake News zu erkennen, könnte mit Algorithmen funktionieren, genauso, wie bereits gegen Spam vorgegangen wird.

Checken, checken und nochmals checken

Tatsächlich werden Journalisten in Zukunft viel mehr Faktenchecks machen müssen als bislang - wie beispielsweise auf Mimikama. Die Seite macht nichts anderes, als Falschmeldungen auf Facebook aufzudecken.

Shownotes
Netz-Kontamination
Wie Fake News und Social Bots das Netz vermüllen
vom 13. Dezember 2016
Moderator: 
Ralph Günther
Gesprächspartner: 
Dennis Horn, Was-mit-Medien-Reporter