Nullen und Einsen machen keinen Unterschied zwischen Frau oder Mann, arm oder reich, gesund oder krank. Objektiv oder neutral sind sie aber trotzdem nicht. Algorithmen können höchstens so neutral sein wie jene Menschen, die sie programmieren und jene, die ihre Ergebnisse deuten. Big Data könnten deshalb zu einer neuen Form der Diskriminierung führen, fürchten Kritiker.

Stellt euch vor, euch wird ein Kredit verweigert, weil einige eurer Nachbarn mal ihre Raten nicht bedient haben, ihr bekommt keinen Job, weil ihr eine bestimmte Party-App benutzt habt oder ihr zahlt mehr für eine Pauschalreise, weil ihr über dieses oder jenes Smartphone bucht. Theoretisch alles denkbar, teilweise praktisch sogar der Fall: Eure Daten können zu eurem Nachteil interpretiert werden.

"Big Data ermöglicht eine Individualisierung anhand von bestimmten abstrakten Klassifikationen, wobei die Betroffenen häufig nicht einmal bemerken, dass sie Gegenstand der Klassifizierung sind."
Peter Schaar, Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz

Interpretierbare Daten hinterlassen wir alle haufenweise, das ist heute kaum noch zu vermeiden. Das alles bringt uns Vorteile, aber Mahner warnen eben auch vor möglichen Gefahren durch das Sammeln und Auswerten der gigantischen Datenmengen, die wir im Alltag unweigerlich hinterlassen. Der ehemalige Bundesdatenschutzbeauftragte Peter Schaar, heute Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz, befürchtet eine "gruppenspezifische soziale Benachteiligung" durch die Klassifikation von Menschen durch Massendatenanalyse.

"Alle diese Informationen können zusammengeführt und möglicherweise gegen die Person verwendet werden."
Peter Schaar, ehemaliger Bundesdatenschutzbeauftragter

In Zukunft könnten wir also diskriminiert werden, weil unsere Datenspuren es ermöglichen, uns bestimmten Gruppen zuzuordnen, von denen eben ein bestimmtes Verhalten oder bestimmte Eigenschaften erwartet werden. Schaar verteufelt allerdings nicht Big Data generell, aber er warnt, dass wir es mit einem großen Maß an Intransparenz zu tun haben und besorgt sein sollten. Bei der kritischen Auseinandersetzung mit möglichen Risiken müssen wir den neuen Anforderung, die Big Data mit sich bringt, gerecht werden - denn klassische Ansätze und Insellösungen greifen zu kurz.

"Der Datenschutz wäre überfordert, hier die Lösung zu liefern."
Peter Schaar, Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz

"Diskriminierung mittels Algorithmen? Die gesellschaftlichen Auswirkungen von Big Data" hieß die Veranstaltung, die das Munich Center for Internet Research, ein neues Forschungszentrum der Bayerischen Akademie der Wissenschaften, am 9. Mai 2016 organisiert hat, und bei der Peter Schaar zunächst zum Thema vorgetragen hat, um dann darüber in einer Diskussionsrunde mit der Medienethikerin Jessica Heesen, dem Politikwissenschaftler Simon Hegelich und dem Soziologen Stefan Selke zu diskutieren.

Diskussion: Diskriminierung mittels Algorithmen?
Ein Ausschnitt der Diskussion ist in der Hörsaal-Folge zu hören, hier gibt es die Diskussion noch mal in voller Länge:

Mehr zum Thema:

Unser Hörsaal zu Big Data und informationelle Selbstbestimmung - mit Markus Morgenroth, vom 22.05.2016

Podcast zur Sendung
  • Hörsaal
  • Moderatorin: Katrin Ohlendorf
  • Vortragender: Peter Schaar, Europäische Akademie für Informationsfreiheit und Datenschutz
  • Diskussionsteilnehmerin: Jessica Heesen, Privatdozentin, Eberhard Karls Universität Tübingen
  • Diskussionsteilnehmer: Simon Hegelich, Hochschule für Politik
  • Diskussionsteilnehmer: Stefan Selke, Hochschule für Angewandte Wissenschaften Furtwangen
  • Diskussionsleiterin: Ursula Münch, Universität der Bundeswehr München