Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Gerät KI außer Kontrolle? Wenn ja, sind wir selber schuld

von Karsten Lemm
Beim IFA+ Summit in Berlin suchen Experten wie Schachgroßmeister Garry Kasparov nach der Natur der Künstlichen Intelligenz. Auch wenn die Meinungen zur Geschwindigkeit des Fortschritts auseinandergehen – in einem sind sich alle einig: Der Mensch bestimmt, wie die Maschinen sich weiterentwickeln. Und sollte ihnen klare Grenzen setzen.

Ach ja, 1985: Damals war die Welt noch in Ordnung. Garry Kasparov kam nach Hamburg und spielte gleichzeitig 32 Partien Schach. Seine Gegner: die Besten der Besten – unter den Schachcomputern ihrer Zeit. Der Champion aus der Sowjetunion gewann problemlos alle Partien, wie erwartet. „Niemand war überrascht, schließlich waren Computer dumm“, erzählt Kasparov am Sonntag in seiner Eröffnungsrede zum IFA+ Summit, einem zweitägigen Kongress rund um Zukunftstechnologien am Rande der Internationalen Funkausstellung in Berlin. „Das war ein goldenes Zeitalter“, setzt Kasparov verschmitzt hinzu: „Die Maschinen waren schwach, mein Haar noch sehr stark.“

Zwölf Jahre später unterlag der Schachgroßmeister dem IBM-Superrechner „Big Blue“ – ein Ereignis, das als Wegscheide in der Entwicklung Künstlicher Intelligenz gilt. Deshalb richten sich am Sonntag viele Augen fragend auf Kasparov, den Mann, der von der Maschine geschlagen wurde: Müssen wir Angst haben, dass es uns allen bald ähnlich geht? Ausgestochen, übertrumpft und mattgesetzt von Rechenhirnen, die eigentlich nur Einsen und Nullen kennen, aber es dennoch immer besser schaffen, Texte zu entziffern, Erkrankungen zu diagnostizieren oder Autos zu lenken?

Für Kasparov, heute Autor, Berater und Visiting Fellow an der Uni Oxford, gibt es keinen Zweifel, dass Maschinen immer mehr Aufgaben übernehmen werden, die ein klares Muster zeigen, und der Mensch sie dort ergänzt, wo sie noch Defizite zeigen. „Keine Maschine wird je perfekt sein“, erklärt Kasparov. „Die Rolle des Menschen wird sein, herauszufinden, wo wir mit unserem Intellekt und unserer Intuition die Schwächen der Maschinen ausgleichen können.“

Schwächen gibt es – bei allen Fortschritten – noch reichlich. KI-Systeme mögen dank Mustererkennung in der Lage zu sein, Facebook-Freunde automatisch zu identifizieren, aber oft genügen schon Sonnenbrille oder Baseball-Kappe, um die Trefferquote dramatisch zu senken. Und so schwierig es ist, Computern mit einem IQ zu versehen – noch komplexer wird es, ihnen emotionale Intelligenz beizubringen. Die aber brauchen Maschinen, wenn sie sich mit Menschen verstehen sollen, argumentiert Elisabeth André, Computerwissenschaftlerin an der Universität Augsburg. „Um in einem Team zu arbeiten, muss man viele Fähigkeiten mitbringen.“ Eine der wichtigsten: verstehen, wie andere sich fühlen.

Menschen lesen das unter anderem an der Stimmlage und der Mimik ab: Wir klingen gestresst oder entspannt, runzeln die Stirn, lachen, weinen. Was solche Signale bedeuten, müssen Informatiker ihren Maschinen mühsam beibringen. André und ihre Kollegen haben dazu Software entwickelt, die Frequenzen auswertet und Bilder analysiert, immer auf der Suche nach klaren Zeichen für subtile Körpersignale, die sich häufig in Grauzonen bewegen und nur schwer in Formeln zu fassen sind. „Eine knifflige Aufgabe“, erklärt die Forscherin bei ihrem Vortrag. „Bei Empathie geht es ja nicht nur um das Erkennen von Gesichtsausdrücken, sondern um viel mehr.“

Während etliche KI-Wissenschaftler über solchen Herausforderungen brüten, Computer Schritt für Schritt ein Stück intelligenter zu machen, träumen radikale Futuristen lieber von einer Zukunft, in der sich alle Probleme praktisch von allein lösen.

Verkaufen KIs bald selbstgemalte Bilder per Blockchain?

Dem Blockchain-Pionier Trent McConaghy schwebt eine Künstliche Intelligenz vor, die Bilder malt und sie mithilfe von Kryptowährung eigenständig unters Volk bringt. Würden sich genügend Käufer finden, „könnten wir schon bald den ersten KI-Millionär sehen“, spekuliert McConaghy, unter anderem Mitgründer von OceanProtocol und BigChainDB.

Überhaupt ließen sich nach Vorstellungen des in Berlin lebenden Kanadiers weite Teile der Wirtschaft auf die Blockchain verlegen. Eines Tages, glaubt er, könnten Flotten selbstfahrender Taxen und LKW autonom Geld verdienen, ganz ohne menschliche Besitzer im Hintergrund. Die Gewinne, die dabei entstünden, könnten anschließend als Grundeinkommen an Menschen verteilt werden, schlägt McConaghy vor.

Ähnlich utopisch ist die Welt, die der britische Autor und Wirtschaftsforscher Robin Hanson vor dem staunenden Publikum ausbreitet: Statt Intelligenz mühsam in Algorithmen nachzubilden, schlägt Hanson vor, das Gehirn als Emulation auf Rechenmaschinen zu übertragen. Diese EMs würden zwar nur als Computersimulation existieren, sich in der Kunstwelt aber weiter verhalten wie Menschen – ganz ähnlich, wie sich das die Macher des Films The Matrix schon vor 20 Jahren ausgemalt hatten.

„EMs wären wie Menschen“, sagt Hanson, „aber eher wie der typische Nobelpreisträger oder Schach-Champion.“ Deshalb würden die Mitglieder des elitären KI-Zirkels immer nach Optimierung streben und so schnell so viel Wert genieren, dass Menschen sehr früh, sehr reich in Rente gehen könnten. Wie der Weg in diese Zukunft aussehen könnte, skizziert Hanson nur grob und räumt auch ein, dass es noch Jahrhunderte dauern könnte, bis die nötige Technologie existiert.

Wenn künstliche Gehirne töten

Weit konkreter sind die Probleme, die sich schon jetzt aus dem Einsatz selbstfahrender Autos und – mehr noch – autonomer Waffensysteme ergeben. Für solche Anwendungen müssen Entwicklern ihren Algorithmen beibringen, ohne Menschenhilfe Entscheidungen zu treffen, die unter Umständen Menschenleben kosten können. Verursacht ein Fahrzeug auf Autopilot einen Unfall, ist das zumindest keine Absicht. Killer-Drohnen und andere autonome Waffensysteme dienen dagegen ausschließlich militärischen Zwecken; mehr als 2000 KI-Forscher verlangen ein Verbot solcher Systeme.

„Maschinen sollten niemals über Leben und Tod von Menschen entscheiden“, fordert auch Yale-Professor Wendell Wallach, der sich seit vielen Jahren mit Ethik und Moral im Zusammenhang mit Künstlicher Intelligenz beschäftigt. Autonome Waffen etwa könnten unverlangt eigene Ziele definieren, die ihre Entwickler nicht vorhergesehen hätten, fürchtet Wallach. „Wir wären wahnsinnig, wenn wir uns auf diesen Pfad begeben würden.“

Die größte Sorge vieler KI-Forscher gilt dabei dem sogenannten Black-Box-Problem: Der große Vorteil selbstlernender Systeme ist, dass sie ohne feste Regeln auskommen, weil sie ihr Wissen aus gigantischen Datenmengen gewinnen. Zugleich können die Entwickler in vielen Fällen aber nur schwer erklären, wie die Ergebnisse entstehen, weil die Systeme nach dem Prinzip von neuronalen Netzen arbeiten, bei denen sich Knotenpunkte gegenseitig verstärken oder abschwächen, ähnlich wie Neuronen im menschlichen Gehirn.

So macht sich die Augsburger Informatikerin Elisabeth André dann auch wenig Sorgen über eine künstliche Superintelligenz, die eines Tages die Menschheit bedrohen könnte – wohl aber darüber, „dass wir an den Punkt gelangen, an dem wir die Entscheidungen der Maschinen nicht mehr verstehen“. Wichtig sei deshalb, dass immer der Mensch die Kontrolle behalte, selbst wenn Roboter und Algorithmen immer mehr Aufgaben übernehmen.

Das deckt sich mit den Ansichten von Garry Kasparov, der Maschinen generell die Fähigkeit abspricht, böse zu sein: „Es sind Menschen mit üblen Absichten, die Maschinen für ihre Zwecke nutzen“, sagt der frühere Schachweltmeister. Selbst wenn Maschinen technisch in der Lage sein mögen, eigenständig Entscheidungen zu fällen – „es liegt an uns, ihnen die Richtung vorzugeben“. Mag sein, dass das am Ende die größte Aufgabe sein wird, die für den Menschen in einer Welt der Maschinen noch übrig bleibt.

GQ Empfiehlt
Die Gadget-Highlights der IFA 2017

Die Gadget-Highlights der IFA 2017

von Dominik Schönleben