Wikipedias neue KI erkennt schlechte Artikel-Bearbeitungen

WIRED Staff 02.12.2015 Lesezeit 2 Min

Im Kampf gegen Spam und Vandalismus-Einträge setzt Wikipedia nun zumindest teilweise auf künstliche Intelligenz. Der neue Objective Revision Evaluation Service (ORES) durchkämmt aktuelle Bearbeitungen, hebt Verdächtiges hervor und überlässt es den menschlichen Wikipedia-Autoren, über eine Löschung beziehungsweise das Zurücksetzen auf eine frühere Artikelversion zu entscheiden.

Wikipedias neuer Web-Service hat bereits eine eigene Wikimedia-Seite, auf der das Funktionsprinzip und die Notwendigkeit hinter dem Projekt erklärt werden. Dort heißt es zum Beispiel: „Offene Wissensprojekte maximieren die Produktivität und Qualität, indem sie die Bearbeitung offen lassen, aber gleichzeitig eine gute Qualitätskontrolle durchführen. Das funktioniert zum Beispiel bei den großen Wikis, die durch Werkzeuge zur Qualitätskontrolle unterstützt werden (z.B. die englische und deutsche Wikipedia). Für die kleinen Wikis bleibt das aber eine schwere Last. ORES ist als allgemeiner Service zur Qualitätskontrolle und Kuration für sämtliche Wikis geplant“

In welchen Wikis ORES in welcher Form angewandt wird, lässt sich auf der Seite dem dort abgebildeten „Support table“ entnehmen. Die Entwickler des Systems haben ORES darauf trainiert, zwischen „menschlichen“ Versehen und wirklich destruktiven Bearbeitungen zu unterscheiden. Dementsprechend kann das Team die KI dazu verwenden, die Bearbeitungen zu kategorisieren.

In der Wikipedia kann prinzipiell jeder mitmachen. Zwar müssen die Beiträge von Neulingen in der deutschen Version zunächst noch durch sogenannte „aktive Sichter“, also erfahrene Nutzer mit entsprechenden Rechten, freigeschaltet werden, doch es kommt immer wieder vor, dass Spam oder irreführende Informationen auf das Portal gelangen. Eine künstliche Intelligenz macht als Unterstützung der menschlichen Sichter also durchaus Sinn. Wie gut das Ganze in der Praxis funktioniert, wird sich aber natürlich erst noch herausstellen.