Partyfotos auf Facebook könnten für den nächsten Airbnb-Aufenthalt möglicherweise hinderlich sein. Das Portal hat eine Software entwickelt, die Social-Media-Accounts von Usern checkt, um die herauszufiltern, die während ihres Aufenthalts Ärger machen könnten.

Eine Wohnung vermieten, die innerhalb einer Nacht durch eine Party komplett zerstört wird, das will kein Airbnb-Vermieter. Deshalb setzt das Portal bereits auf das Erkennen von vehaltensauffälligen Gästen durch Künstliche Intelligenz (KI). Ein Patent vom März 2019 gibt einen Einblick, wie das aussehen könnte.

Social-Media-Accounts als Quelle

Die KI sammelt Daten von Facebook-, Instagram- und Twitterposts, um so User einzuschätzen. Sie wertet auch eventuelle Berichterstattung aus, falls es die über Userinnen gibt. Am Ende schätzt die KI aufgrund der gesammelten Daten das Verhalten von Gästen in der Zukunft ein. Dafür verwendet die KI ein Scoring-System: Schlechtes Verhalten wird negativ bewertet.

Mögliches schlechtes Verhalten aus Sicht von Airbnb:

  • Wenn Personen in Verbindung mit Drogen, Alkohol, Pornographie oder Prostitution gebracht werden
  • Personen durch Hate-Speech in Kommentaren auffallen

Vermutlich sind das Kategorien, nach denen User von Airbnb eher negativ bewertet werden. Viele Partyfotos auf Facebook könnten ebenfalls zu Minuspunkten führen, aber so genau lässt sich Aibnb nicht in die Karten schauen.

"Tiefgreifende Einschätzungen"

Die KI soll laut Patent auch bestimmte Persönlichkeitsmerkmale identifizieren und auch für die Bewertung des Scoring-Systems heranziehen - darunter Narzissmus, psychopathisches Verhalten oder antisoziale Tendenzen. Das sind "tiefgreifende Einschätzungen", sagt Deutschlandfunk-Nova-Reporter Timo Nicolas.

"Am Ende soll die KI auf Basis dieser gesammelten Informationen abschätzen können, wie du dich in Zukunft als Gast verhältst."
Timo Nicolas, Deutschlandfunk-Nova-Reporter

Matthias Spielkamp von Algorithm Wacht sieht das problematisch. Klar wolle Airbnb vertrauenswürdige Gäste. Der Algorithmus sei aber noch nicht genau genug, um wirklich richtige Entscheidungen treffen zu können, sagt Matthias Spielkamp

"Die große Gefahr ist, dass ganz viele Leute eine Einschätzung bekommen, die sie daran hindern wird, Wohnungen zu mieten, obwohl sie überhaupt nichts tun würden, was einen Schaden herbeiführt."
Matthias Spielkamp, Algorithm-Wacht

So besteht die Gefahr, dass es viele "falsch-positive" Gäste geben könnte, die nur vermeintlich etwas "Falsches" in der Vergangenheit getan hätten. Dass eine KI aber etwas erkennen soll, dass selbst Psychologen in einem Face-to-Face-Gespräch nur schwer erörtern können, hält Matthias Spielkamp für "ziemlich windig".

Genaue KI-Technik von Airbnb ist nicht bekannt

Ob Airbnb tatsächlich genau dieses Patent schon benutzt, ist nicht ganz klar. Auf eine Anfrage hat das Unternehmen nicht reagiert. Doch dass die Firma bereits eine Risikobewertung durchführt, kann auf der Homepage nachgelesen werden. Mithilfe von "Predictive Analytics und Machine Learning" würden jetzt schon verdächtige Buchungen überprüft.

"Das klingt nach einer Technologie, die zumindest ähnlich ist wie jene, die im Patent beschrieben wird."
Timo Nicolas, Deutschlandfunk-Nova-Reporter

Denn: Unter Predictive Analytics versteht man ein Analyseverfahren, das Vorhersagen trifft. Und Machine Learning ist eine Form von Künstlicher Intelligenz.