/Tech

Was Bot-Kämpfe auf Wikipedia mit selbstfahrenden Autos zu tun haben

Domenika Ahlrichs 01.03.2017

Auf Wikipedia liefern sich Bots zum Teil jahrelange Kämpfe: Der eine ändert etwas, der andere ändert es sofort zurück. Taha Yasseri, hat dieses Bot-Verhalten untersucht. Im WIRED-Gespräch erklärt er, warum die deutschsprachige Online-Enzyklopädie davon noch relativ verschont bleibt und was das alles über den generellen Einsatz von KI aussagt.

Es ist nicht so, dass Editierkämpfe in der Wikipedia etwas völlig Neues wären. Bei Auseinandersetzungen zwischen Artikelautoren der Online-Enzyklopädie geht es um Unterschiede in politischen Einschätzungen, um Nuancen bei der Bewertung von Ereignissen. Irgendwann müssen beide Seiten dann zum Kompromiss kommen. Menschen können sowas.

Viele Änderungen an Artikeln werden mittlerweile jedoch von Bots übernommen. Im Jahr 2014 wurden bereits 15 Prozent aller Einträge der gesamten Wikipedia von Software editiert. Und die kann keine Kompromisse, sie sind nicht Teil ihres Programms. Wozu das führt, das hat Taha Yasseri, Forscher im Bereich Computational Social Science am Oxford Internet Institute, in einer Studie untersucht.

Wenn ein Bot einen Artikel ändere und ein anderer diese Änderung wieder rückgängig mache, sagt Yasseri im Gespräch mit WIRED, dann habe keiner von beiden die kognitive Fähigkeit, aus diesem Kreis auszubrechen. „Die Kämpfe zwischen Bosts sind sehr viel andauernder als die zwischen Menschen. Manchmal geht das jahrelang.“ Und das seien verschwendete Ressourcen, die anders eingesetzt werden könnten.

Je nach Umgebung verhalten die Bots sich unterschiedlich effektiv

Taha Yasseri

Für ihre Untersuchung sahen sich Yasseri und sein Team Wikipedia-Seiten in 13 verschiedenen Sprachen an und zeichneten auf, wann Bots die Änderungen anderer Bots rückgängig machten. Die Antwort: ständig. Xpbot und Darknessbot etwa bekämpfen sich am andauerndsten: Mehr als 3600 Artikel in den Jahren 2009 und 2010 waren ihr Kampfschauplatz.

In manchen Sprachversionen der Wikipedia führen Bots schon mehr als die Hälfte der Editiervorgänge durch. Was das bedeutet, sei bisher viel zu wenig untersucht, sagt Yasseri. Seine nach eigenen Worten erste große Studie zum Thema ist Teil des EU-finanzierten Projekts HUMANE – human-machine networks.

Taha Yasseri

Die deutschsprachige Wikipedia sei die einzige, in der Bot-Kriege auf Wikipedia keine nennenswerte Rolle spielten, sagt Yasseri. „Sie ist sehr gut reguliert und organisiert.“ Menschen kontrollierten hier Änderungen an Einträgen stärker und bemerkten potenzielle Editierkonflikte häufiger als anderswo. Im untersuchten Zeitraum von einem Jahrzehnt habe es deswegen nur zwei Dutzend nennenswerte Bot-Konflikte gegeben. Bots agierten über verschiedene Sprachversionen hinweg, seien also überall die gleichen, doch „je nach Umgebung verhalten sie sich unterschiedlich effektiv“, so Yasseri.

Wie eine Künstliche Intelligenz sich in der realen Welt verhält, hängt laut Yasseri von drei Faktoren ab: „Dem KI-Design, der Umgebung, den Menschen, die sie nutzen. Unter Laborbedingungen kann man das Design testen und verbessern. Aber man kann die beiden anderen Elemente nicht wirklich mit einbringen, geschweige denn kontrollieren. Dadurch gibt es immer wieder Überraschungen.“

Als Beispiel nennt der Forscher selbstfahrende Autos: „Was oft übersehen wird: Selbstfahrende Autos werden in unterschiedlichen Kulturen und Umgebungen fahren, auf der deutschen Autobahn genauso wie auf italienischen Straßen. Die Verkehrsordnungen sind jeweils anders, die Gesetze, die Fahrkultur.“

Unterschiede wie diese müsse man immer mitbedenken, wenn es um den Einsatz Künstlicher Intelligenzen gehe. Oft würden sie aber viel zu wenig beachtet oder es sei zu schwierig, sich ihnen anzupassen. „Selbst menschliche Fahrer können sich nur schwer an die jeweiligen Unterschiede im Umgang mit Autos einfühlen, ein selbstfahrendes Auto kann das schon gar nicht“, sagt Yasseri. „Übertragen auf die Wikipedia, lässt sich sagen, dass die Versionen der einzelnen Länder sich in der Art unterscheiden, wie sie reguliert sind – und darin, welche Redigierkultur in der jeweiligen Sprachcommunity herrscht. Deshalb verhalten sich dann auch die Bots unterschiedlich.“

Editier-Bots sind simple Programme, darauf ausgerichtet, einen ganz bestimmten Auftrag zu erfüllen. Der Auftrag jedes Bots wird von den Eigentümern definiert und implementiert. Meistens ist das ein erfahrener Wikipedia-Editor. Nach einer kurzen Trainingsphase und einem Test werden sie flächendeckend eingesetzt. Das sieht dann so aus, dass sie sich durch Wikipedia-Artikel bewegen, indem sie Links nachgehen und vordefinierte Änderungen umsetzen. Bots operieren sprach-unabhängig und nutzen das System von Hyperlinks zwischen den verschiedenen Versionen eines Artikels. „So wie die Bots jetzt gestaltet sind, merken sie nicht, dass sie einander ständig in die Quere kommen und überschreiben“, sagt Yasseri. Er wirbt deswegen für eine Weiterentwicklung: Bots müssten eine Art Erinnerungsvermögen erhalten. „Sie wüssten dann, dass sie einen Eintrag bereits geändert haben oder dass er bereits von jemandem geändert wurde. Auf diese Weise können die Bots Konflikte bereits selbst erkennen.“

Wir müssen die Kultur und das soziale Leben der Bots verstehen

Taha Yasseri

Yasseris Plan B: Deutlich mehr Menschen als bisher müssten die Bot-Aktionen überprüfen und im Zweifel einschreiten. Und mehr Forschung sei nötig: „Weil Bots zunehmend Aufgaben übernehmen und immer ausgeklügelter werden, müssen wir stärker versuchen, ihre Kultur und ihr soziales Leben zu verstehen.“ Das betreffe nicht nur die Frage, wie solche Programme entworfen werden (Yasseri und seine Kollegen kritisieren etwa, dass im Fall von Wikipedia Bots von Einzelnen geschaffen werden, ohne dass es formale Absprachen für die Koordination gibt), sondern auch die, wie deren Verhalten überwacht werden könne.

Während Editier-Konflikte zwischen Menschen oft mit einer persönlichen Agenda zu tun haben, ist es bei Bots rein technische Sturheit. „Es ist zwar nicht immer ganz klar wer hinter den jeweiligen Bots steckt“, sagt Yasseri. „Aber die Konflikte sind kein Ausdruck einer persönlichen Auseinandersetzung der Eigentümer. Wir haben keinerlei Hinweis darauf gefunden.“ Er gehe sogar davon aus, „dass sich die Eigentümer nicht einmal der Auseinandersetzungen bewusst sind, in die ihre Bots verwickelt sind“. Die kleinen Assistenten seien lediglich in Nuancen unterschiedlich programmiert, sodass sie im Normalfall parallel existieren und agieren könnten. Beim direkten Aufeinandertreffen aber eben nicht so sehr.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden