Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Diese Künstliche Intelligenz spioniert potenzielle Babysitter aus

von WIRED Staff, Ben Hartlmaier
Die Firma Predictim will es besorgten Eltern ermöglichen, potenzielle Babysitter anhand derer Social-Media-Auftritte mit Künstlicher Intelligenz einzuschätzen. Dafür durchleuchtet der Algorithmus quasi das gesamte Online-Leben der Zielpersonen. Der Babysitter muss allerdings seine Zustimmung zum Background-Check geben.

Eigentlich möchte man als Eltern seine Kinder nicht fremden Menschen anvertrauen, doch manchmal ergeben sich Situationen, wo weder vertrauenswürdige Nachbarn noch Familienmitglieder auf den Nachwuchs aufpassen können. Dann müssen Eltern auf bezahlte Babysitter zurückgreifen, denen Sie womöglich noch nie zuvor begegnet sind. Da stellt sich die Frage, ob der potenzielle Babysitter auch vertrauenswürdig ist. Für dieses Problem hat die Firma Predictim aus Berkeley in Kalifornien eine ziemlich radikale Lösung parat.

Gegen Bezahlung von mindestens 25 US-Dollar analysiert das Unternehmen den digitalen Fußabdruck der Anwärter und Anwärterinnen und errechnet daraus einen individuellen Risikowert. Praktisch heißt das: In drei Minuten durchkämmt ein Algorithmus per Textanalyse und Gesichtserkennung die gesamte Historie einer Person auf Facebook, Instagram, Twitter und ähnlichen Seiten. Am Ende wird an die Eltern eine Bewertung geschickt, mit deren Hilfe sie darüber entscheiden können, ob sie einen Babysitter anheuern oder nicht.

In vier Kategorien gibt Predictim der Zielperson Noten von 1 für ein niedriges bis hin zu 5 für ein hohes Risiko. Der Wert für die Kategorie „Mobbing / Belästigung“ fußt dabei hauptsächlich auf Postings, in denen die Babysitter andere Personen im Netz angegriffen oder kritisiert haben. In der Kategorie „Respektlosigkeit / Schlechte Einstellung“ wird hauptsächlich die Verwendung von unangemessener Sprache analysiert.

Der Wert für „Anzüglichkeit“ wird per Bildanalyse ermittelt — wer auf seinen Social-Media-Accounts zu viel Haut zeigt, bekommt hier eine negative Bewertung. In der vierten Kategorie „Drogenmissbrauch“ sucht der Bilderkennungsalgorithmus vor allem nach Fotos, die die Zielperson mit illegalen Substanzen in Verbindung bringen. Tesla-CEO Elon Musk bekäme hier voraussichtlich einen hohen Riskikowert angerechnet. Zigaretten und Alkohol fließen allerdings nicht negativ in die Bewertung mit ein.

Die gesamte Analyse ist nicht nur ein recht massiver Eingriff in die Privatsphäre potenzieller Babysitter, sondern erinnert in seiner Auslegung von sozialen Normen auch an das Social Credit Scoring System, für das China derzeit im Rest der Welt heftig kritisiert wird. Zwar müssen Jobanwärter zustimmen, bevor sie gescreent werden, schreibt die Seite Yell Robot - aber: Babysitter, die sich weigern, Name, E-Mail-Adresse und Zugriff auf ihre Social-Media-Profile herauszugeben, werden automatisch darauf hingewiesen, dass sie abgelehnt sind, bis sie das Screening zulassen. Problematisch ist zudem, dass auch längst vergangene Jugendsünden in die Bewertung einfließen können. Die Möglichkeit eines positiven Lebenswandels kennt der Algorithmus offenbar nicht.

GQ Empfiehlt