Wir denken Datenschutz individuell: Jede Person verursacht Daten, die in Deutschland geschützt sein sollten. Aber dieser Ansatz greift zu kurz, sagt der Datenethiker Rainer Mühlhoff. Denn: Mithilfe künstlicher Intelligenz wird das Verhalten von Menschen vorhersagbarer und soziale Gruppen werden dadurch anfälliger für kollektive Diskriminierung. Rainer Mühlhoff zieht daraus den Schluss, dass wir Datenschutz kollektiv begreifen – und schützen sollten.

Der Datenethiker Rainer Mühlhoff hält unsere Konstruktion von Datenschutz für veraltet, sie hinke den technologischen Entwicklungen hinterher. Inzwischen könnten und würden mithilfe prädiktiver Datenanalysen Informationen über ganze Personengruppen vorhergesagt.

Schützenswerte sensible Daten: Gesundheitszustand und sexuelle Orientierung

Diese Informationen könnten besonders sensibel und schützenswert sein, beispielsweise Abschätzungen zu unserem Gesundheitszustand oder unserer sexuellen Orientierung betreffen.

"Wir können uns das prädiktive Modell vorstellen wie eine Maschine. Links stecken Sie Daten hinein, die Sie im Überfluss haben, die Facebook-Likes, die Browser-History und rechts kommen dann Abschätzungen sensibler Informationen heraus."
Rainer Mühlhoff, Datenethiker Universität Osnabrück

Trainiert würden diese Vorhersagemodelle mit großen Datensätzen. Wobei eine Person selbst nicht beeinflussen könne, ob eine solche Vorhersage über sie selbst getroffen wird.

Selbst wenn sie sich datensparsam verhält und bestimmte Informationen nicht teilt, könne allein die Tatsache, dass andere bestimmte Informationen preisgeben, dazu führen, dass auch über datensparsame Menschen oder Personengruppen Vorhersagen möglich werden.

"Prädiktive Analytik erlaubt eine neue Art der Verletzung von Privatsphäre."
Rainer Mühlhoff, Datenethiker Universität Osnabrück

Anhand dieser Vorhersagen könnten Personengruppen sozial sortiert und unterschiedlich behandelt werden. Das kann konkret zum Beispiel unterschiedlich teure Angebote bei Versicherungen oder Krediten bedeuten.

Rainer Mühlhoff geht es nicht um die individuelle Kontrolle über die eigenen Daten, sondern um Diskriminierungsfreiheit. Deshalb müsse, fordert er, der Begriff Privatheit erweitert und rechtlich geschützt werden.

Der Datenethiker unterscheidet in der Datenschutz-Debatte drei Gefährdungslagen:

  • Datenschutz-Verletzungen durch Einbruch und Diebstahl
  • Datenschutz-Verletzungen durch Re-Identifikation

Neu hinzu komme jetzt:

  • Datenschutz-Verletzungen durch Vorhersage/Abschätzung

Die beiden ersten Verletzungsmöglichkeiten betreffen demnach Individuen. Die neue Möglichkeit der Vorhersage dagegen diskriminiere potenziell ganze Gruppen.

Rainer Mühlhoffs Definition für prädiktive Privatheit lautet dementsprechend wie folgt: "Die prädiktive Privatheit einer Person oder einer Personengruppe ist verletzt, wenn sensible Informationen ohne ihr Wissen und gegen ihren Willen über sie vorhergesagt werden."

Der Vortrag

Rainer Mühlhoff leitet den Forschungsbereich Ethik der Künstlichen Intelligenz am Institut für Kognitionswissenschaft der Universität Osnabrück.

Seinen Vortrag "Predictive Privacy: Wir wir den Datenschutz verbessern könnten" hat er 10. Juni 2022 auf der Republica in Berlin gehalten.

Das vertiefende Gespräch zum Thema haben wir bereits am 9. Juni 2022 geführt, am Dlf-Stand auf der Republica.