Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Microsofts neuer Chatbot wird leider von Rassisten missbraucht

von GQ
Microsoft hat eine neue Künstliche Intelligenz kreiert, die schlauer wird, je mehr man mit ihr redet. Der Chatbot namens Tay soll verstehen lernen, wie junge Menschen sich online unterhalten. Leider lief die Kommunikation schnell aus dem Ruder.

„AI fam from the internet that's got zero chill!“ So beschreiben Microsoft und Bing ihren neuen Chatbot Tay. Ziel der Forscher ist es, mithilfe der Künstlichen Intelligenz Sprachverständnis-Experimente durchzuführen. Der Bot soll lernen, wie sich Menschen in der Wirklichkeit unterhalten.

Als Bot für Twitter sowie die Messaging-Plattformen Kik und GroupMe übernimmt Tay die Rolle eines sogenannten Millenials. Das zeigen zum Beispiel der Gebrauch von Emojis und das Vokabular. Die KI sei auf 18- bis 24-Jährige in den USA abgestimmt, sagt Microsoft.

Tay hat auf den ersten Blick wenig praktischen Nutzen für die User, beherrscht allerdings drei verschiedene Kommunikationsmethoden: Laut seiner Website tay.ai kann sich der Bot via Text unterhalten, Spiele spielen (etwa die Bedeutung einer Reihe von Emoji erraten) und Fotos kommentieren, die ihm zugeschickt wurden.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Bis zum Donnerstagvormittag hat Tay mehr als 96.000 Twitter-Follower gewonnen und mehr als 22.000 Tweets verschickt – Fragen, Statements und Beschimpfungen. Immer wieder bittet der Bot Twitterer um private Unterhaltungen via Direktnachricht. „Tay is designed to engage and entertain people where they connect with each other online through casual and playful conversation“, heißt es auf seiner Website.

Tay funktioniert anhand von öffentlich verfügbaren Daten und Input von Microsoft-Mitarbeitern und Comedians. „Öffentliche Daten, die anonymisiert wurden, sind Tays primäre Informationsquelle“, so Microsoft. „Sie wurden modelliert, bereinigt und von dem Team gefiltert, das Tay entwickelt.“

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Neben aller Komik hat die Forschung mit der KI einen ernsten Hintergrund. Maschinen beizubringen, auf natürliche menschliche Weise zu kommunizieren, ist eine der zentralen Herausforderungen bei der Entwicklung lernender Algorithmen.

Auf ähnliche Weise hat Google etwa kürzlich seine Inbox-App weiterentwickelt, damit sie automatisch auf E-Mails antworten kann. Für die „Smart Reply“-Funktion schlägt Googles KI jeweils drei verschiedene Antwortmöglichkeiten vor. Ähnlich wie Tay wird die Software laut Google besser, je mehr Smart Replies man benutzt.

Dieser Artikel erschien zuerst bei WIRED UK.

UPDATE 24.04.16, 15:00 Uhr: Wie Business Insider berichtet, hat sich Tay von Twitterern zu rassistischen und frauenfeindlichen Äußerungen hinreißen lassen. Böswillige User hätten den Chatbot mit ihren Fragen unter anderem dazu gebracht haben, „rassistische Beschimpfungen, auszustoßen, White-Supremacy-Propaganda zu verteidigen und sogar offen zum Völkermord aufzurufen“, auch die Spieleentwicklerin Zoe Quinn sei beleidigt worden. Aktuell sind auf dem Profil der KI nur noch drei ältere Tweets sichtbar, Microsoft habe Tay offline genommen, um die schlimmsten Nachrichten zu löschen, heißt es. Auch hier muss noch einmal darauf hingewiesen werden, dass die Äußerungen des Chatbots in erster Linie das Produkt der Äußerungen jener Menschen sind, die ihn anschreiben. 

GQ Empfiehlt