Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Google will Künstliche Intelligenz nur noch für das Gute nutzen

von WIRED Staff
Über Monate haben Mitarbeiter bei Google gegen ein Militärprojekt protestiert. Eine Künstliche Intelligenz sollte dabei Drohnen-Aufnahmen auswerten. Nun hat Google das Projekt beendet und Prinzipien für die Nutzung von Künstlicher Intelligenz aufgestellt.

Die Google-Prinzipien klingen wie eine weiter gefasste Mischung aus Isaac Asimovs Robotergesetzen und dem inzwischen abgelegten „Don't be evil“-Motto. Deren Formulierung ist zwar vielfach etwas vage, stößt aber generell in die richtige Richtung, wenn es um die Ängste vieler Menschen in Bezug auf lernfähige Maschinen geht. Denn sie sollen dafür sorgen, dass von Google entwickelte Künstliche Intelligenzen nicht für Kriege oder Überwachung missbraucht werden.

Geht es nach Google solle Künstliche Intelligenz: positive soziale Auswirkungen haben; sie soll ungerechte Vorurteile vermeiden; sie soll auf Sicherheit hin entwickelt und getestet werden; sie muss Menschen gegenüber Rechenschaft ablegen; sie muss die Privatsphäre des Einzelnen achten; sie muss einem hohen Standard gerecht werden; sie muss für Zwecke geschaffen sein, die mit diesen Prinzipien kompatibel sind.

Der Google-Chef Sundar Pichai sagte auch, dass Google demzufolge in Zukunft keine Künstlichen Intelligenzen oder sonst wie intelligente Systeme entwickeln wird, die mehr Schaden als Nutzen bringen würden, international akzeptierte Normen bezüglich Privatsphäre und dem Schutz der Person, internationales Recht oder Menschenrechte verletzen. „Wir glauben, diese Prinzipien sind das richtige Fundament für unsere Firma und die Zukunft der Entwicklung von Künstlicher Intelligenz“, sagt Pichai.

Der Auslöser für den jetzigen Vorstoß war ein firmeninterner Streit. Über Monate hinweg hatten Tausende Google-Mitarbeiter die Beteiligung des Technologiegiganten an Project Maven kritisiert und mit einem offenen Brief versucht, diese zu stoppen. Einige Entwickler hatten das Unternehmen sogar aus Protest verlassen.

Google stellte in Rahmen des US-Militärprojektes die Technologie zur Verfügung, um Video- und Bildaufnahmen von Drohnen zu analysieren. Die so gewonnenen Erkenntnisse wären auch für die gezielte Tötung von Terrorverdächtigen genutzt worden. Der Vertrag wurde zwischenzeitlich beendet. Dennoch wolle Google weiterhin mit dem US-Verteidigungsministerium zusammenarbeiten, wenn die entsprechenden Projekte den eben beschlossenen Normen gerecht würden.

GQ Empfiehlt
Google Home verbreitet Verschwörungstheorien

Google Home verbreitet Verschwörungstheorien

von Elisabeth Oberndorfer