Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Regeln gegen den Aufstand der Roboter

von Michael Förtsch
Künstliche Intelligenzen können nicht nur unser Leben verbessern, sondern uns vielleicht auch gefährlich werden. KI-Forscher und Silicon-Valley-Größen haben deswegen nun Regeln aufgestellt, die den Aufstand der Maschinen verhindern sollen.

Seit Jahren warnen einzelne Experten immer wieder, dass wir bei der Entwicklung von Künstlichen Intelligenzen vorsichtig sein sollten. Zu schnell könnten deren Fähigkeiten wachsen und die Maschinen so unserer Kontrolle entfliehen, wie Skynet in der Terminator-Reihe, so die Befürchtung. Eine Organisation, die derartige Dystopien verhindern will, ist das Future of Life Institute aus Boston, USA. Hinter diesem stehen unter anderem Skype-Erfinder Jaan Tallinn, der Informatiker Stuart J. Russell, Schauspieler Morgan Freeman und der Astrophysiker Stephen Hawking. Auf einer Konferenz, bei der die Organisation die Möglichkeiten und Probleme der KI-Entwicklung debattierte, legte sie nun auch 23 Regeln fest, die die „Robokalypse“ verhindern sollen.

Unter den knapp 1000 Teilnehmern der 2017 Asilomar Conference waren unter anderem DeepMind-Gründer Demis Hassabis, Tesla-, SpaceX- und OpenAI-Gründer Elon Musk sowie die IBM- und Facebook-KI-Entwickler Francesca Rossi und Yann LeCun. Ebenso dabei: Google-Vordenker Ray Kurzweil und der Philosoph Nick Bostrom. Als Inspiration für die von ihnen miterdachten Asilomar AI Principles dienten die bekannten Robotergesetze des Science-Fiction-Autors Isaac Assimov. Wobei die Regeln aber eher als ethische und moralische Leitlinien für die Entwickler und Nutzer von Künstlichen Intelligenzen gedacht sind als für die KIs selbst. Denn wie genau die Evolution der digitalen Gehirne letztlich verläuft, so der Gedanke, das liegt vor allem bei uns Menschen.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Die Prinzipien adressieren insbesondere drei Themen: die KI-Forschung, Ethik und Werte sowie die möglichen Langzeitfolgen. So legten die Konferenzteilnehmer fest, dass nur KIs entwickelt werden sollen, die „mit Prinzipien wie Menschenwürde, Freiheit und kultureller Vielfalt kompatibel“ sind. Forscher sollen sich stetig und frei über ihre Erkenntnisse austauschen und die moralische Verantwortung für die „Nutzung, den Missbrauch, die Taten und Aktionen“ ihrer Schöpfungen übernehmen. Die gesellschaftlichen und ökonomischen Errungenschaften durch intelligente Systeme sollten gleichermaßen und gerecht allen Menschen zu Gute kommen.

Jeder Mensch muss laut den Asilomar AI Principles das Recht haben, zu überwachen und zu managen, welche Daten KIs über ihn sammeln. Sich selbst verbessernde und replizierende Superintelligenzen dürfen nur unter strengsten Sicherheitsrichtlinien und vollkommener Transparenz geschaffen werden. Aber vor allem dürften denkende Computer nicht zum Gegenstand eines Wettrüstens werden, warnen die Experten. Dazu sollen die Entscheidungen einer artifiziellen Intelligenz stetig durch Menschen revidierbar sein. Insbesondere falls die Maschinen irgendwann in der Gesetzgebung und Rechtsprechung Einzug halten.

Die 23 Regeln lassen durchaus Interpretationsspielraum zu, geben auch Forschungsziele vor. Unter anderem soll Künstlichen Intelligenzen ermöglicht werden, zu artikulieren und erklären, warum und aus welchen Gründen sie eine für uns „falsch“ erscheinende Entscheidungen getroffen haben. Insgesamt wurden die Prinzipien schon von mehr als 2000 Forschern, Robotik-Wissenschaftlern und Tech-Größen unterzeichnet. Darunter auch Forscher vom Max-Planck-Institut für Intelligente Systeme und der Universität der Bundeswehr München. Die Autoren möchten verstanden wissen, dass das Regelwerk „in keinster Weise vollständig“ ist, sondern eher ein Ansatzpunkt für Diskussionen darüber, „wie das Potential der Künstlichen Intelligenz in den kommenden Jahren genutzt werden kann, um unser aller Leben zu verbessern.“

GQ Empfiehlt
Wie das Pentagon von Games profitieren will

Wie das Pentagon von Games profitieren will

von Nicholas Thompson

Die neue WIRED ist da!

Die neue WIRED ist da!

von WIRED Editorial