Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

60 Jahre KI: „Menschliche Intelligenz ist der künstlichen noch weit überlegen“

von Karsten Lemm
Roboter, Siri, Google-Autos: Künstliche Intelligenz ist heute überall. Doch was ist der nächste Schritt? Ersetzen schlaue Maschinen zunehmend den Menschen, könnten sie uns sogar gefährlich werden? WIRED hat mit Wolfgang Wahlster, dem Leiter des DFKI, über 60 Jahre Künstliche Intelligenz und unsere Zukunft mit denkenden Maschinen gesprochen.

Eine Zusammenkunft im Städtchen Hanover in New Hampshire gilt als die Geburtsstunde der Künstlichen Intelligenz: Dort traf sich im Juli 1956 eine kleine Gruppe von Wissenschaftlern am Dartmouth College, um gemeinsam zu erforschen, wie aus Rechenmaschinen, die stumpf Einsen und Nullen verarbeiten, mitdenkende Systeme entstehen könnten, die ihre Umwelt begreifen und flexibel auf sie reagieren. In ihrem Vorschlag für die Konferenz prägten die Organisatoren, darunter Marvin Minsky und John McCarthy, den Begriff „Artificial Intelligence“ – Künstliche Intelligenz.

Was folgte, war ein jahrzehntelanges Auf und Ab der Hoffnungen und Enttäuschungen. Hatte Minsky anfangs noch optimistisch verkündet, das Problem der Künstlichen Intelligenz (KI) werde „innerhalb einer Generation im Wesentlichen gelöst“ sein, stellten Forscher bald fest, dass die menschliche Welt viel zu komplex für schlichte Rechenhirne war. Selbst Moore's Law half anfangs wenig: Obwohl Computer immer schneller und leistungsfähiger wurden, taten sie sich weiter schwer damit, Sprachkommandos zu verstehen, Gegenstände zu erkennen oder Sprachen zu übersetzen.

Der Durchbruch kam erst vor wenigen Jahren: Das Internet liefert plötzlich genügend Daten, um Maschinen in vielen Bereichen eigenständiges Lernen zu erlauben. Statt mühsam die Welt in Regeln zu fassen, programmieren die Entwickler ihre KIs darauf, sich das Unbekannte selbst zu erschließen – durch Ausprobieren und Erfahrungen sammeln, ähnlich wie ein kleines Kind. Dieser Ansatz, Deep Learning genannt, bringt selbstfahrende Autos ebenso voran wie die automatische Übersetzerfunktion in Skype, Sprachassistenten im Handy oder die immer persönlicher werdende Google-Suche. „Viele merken es gar nicht“, sagt Wolfgang Wahlster, Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), „aber auf diese Weise ist Künstliche Intelligenz heute in unserem Alltag angekommen.“

So schnell jagt ein technischer Durchbruch den nächsten, dass viele schon Angst bekommen: Nehmen Roboter uns bald die Jobs weg? Könnten die Systeme eines Tages übermächtig werden und beschließen, den Menschen auszuschalten? Oder liegt die größere Gefahr darin, scheinbar schlauen Maschinen vorschnell zu vertrauen – etwa dem Autopiloten im selbstfahrenden Auto? WIRED hat sich mit Wahlster, der einer der angesehensten deutschen Experten auf dem Gebiet der KI ist, zum 60. Jubiläum der Forschungsdisziplin zur Bestandsaufnahme getroffen: Was ist Mythos bei Thema Künstliche Intelligenz – und was wahrscheinlich morgen schon Realität?

WIRED: Vor kurzem ist ein Tesla-Besitzer ums Leben gekommen, weil er dem Autopiloten zu sehr vertraut hat. Hat das KI-System im Alltag versagt?
Wolfgang Wahlster: Natürliche Situationen sind immer von einer extremen Unsicherheit, Unvollständigkeit und Vagheit der Information geprägt. Als Mensch können wir damit umgehen, wir nehmen ja auch nur selektiv wahr – für KI-Systeme ist dies die Hauptherausforderung. Wenn ein System nicht darauf trainiert ist, Querverkehr zu erkennen, wird es eine solche Situation natürlich falsch einschätzen. Es gibt auch bekannte optische Täuschungen, auf die nicht nur ein Mensch hereinfällt sondern natürlich auch ein KI-System. Allerdings werden sich autonome Fahrzeuge nicht nur auf Kamerasysteme, sondern zusätzlich beispielsweise auch auf viele andere Sensoren wie Radar und Ultraschall stützen können, die durch die menschlichen Sinne eines Fahrers nicht erfasst werden können.

WIRED: Inwieweit kann Deep Learning dabei helfen?
Wahlster: Deep Learning ist derzeit die beste Methode des maschinellen Lernens, wenn man sehr viele Beispiele als Trainingsdaten verwenden kann. Dem Menschen genügt es meist, Dinge nur einige Male zu sehen, um daraus zu lernen. Wenn ein Tennislehrer Ihnen zeigt, wie ein Aufschlag funktioniert, dann muss er das nicht 10.000 Mal vorführen. Anschließend kriegen Sie das zwar nicht gleich perfekt hin, aber Sie wissen schon mal, wie der Ablauf ist. Nachmachen, also Lernen durch Imitieren, das kann schon ein Baby.

WIRED: Schon Babys sind also schlauer?
Wahlster: Bei KI-Systemen besteht noch ein enormer Forschungsbedarf, um auch aus ganz geringen Datenmengen Einsichten zu gewinnen. Hinzu kommt, dass es für viele Extremfälle kaum Trainingsdaten gibt. So haben wir keine Serien von Videoaufnahmen von Autokameras, bei denen Kinder vor ein Auto laufen, ein Baum auf die Straße fällt und eine Brücke vor uns zusammenbricht. Hier müssen wir mit KI-Systemen zunächst künstlich fotorealistische Szenen erzeugen, um die Systeme wie beim Pilotentraining im Simulator für solche Extremsituationen fit zu machen. Ähnlich schwierig ist das Thema soziale Intelligenz. Das sehen wir jedes Jahr beim RoboCup.

WIRED: Der Fußball-Wettbewerb, bei dem Roboter um die Wette kicken...
Wahlster: Die DFKI-Mannschaft B-Human hat gerade zum fünften Mal den Weltmeistertitel in der Liga für NAO-Roboter errungen. Aber was wir anfangs für eine Mühe hatten mit der sozialen Intelligenz! Viele unserer Roboter haben einfach den Ball nicht abgegeben. Jeder wollte selbst ein Tor schießen. Und das ist natürlich gerade beim Fußball als Teamspiel nachteilig. Es ist ein erheblicher Aufwand, den Robotern beispielsweise einen Doppelpass beizubringen – oder so etwas wie die Abseitsfalle, bei der man zusammenwirkt, um die andere Mannschaft auszuspielen.

WIRED: Lässt sich das nicht ganz einfach in Formeln fassen: „Wenn... dann“?
Wahlster: Die Spielregeln sind nicht das Problem. Aber das Soziale dabei ist ja nicht die Regel der Abseitsfalle, sondern: Wann spielen wir gemeinsam auf Abseits, ohne mit jedem einzelnen Spieler lange Absprachen zu treffen? Die Roboter müssen erkennen: Wir sind jetzt in der passenden Situation für eine Abseitsfalle, und obwohl für mich vielleicht kein direkter Vorteil herausspringt, beteilige ich mich daran.

WIRED: Ist es wirklich so wichtig, ob Roboter Fußball spielen können?
Wahlster: Nein, Fußballturniere sind ja nur eine Herausforderung, um die Forschung voranzutreiben. Eines unserer großen Flagship-Projekte dreht sich um die Frage: Wie können Maschinen im Team mit Menschen in der Fabrik zusammenarbeiten?

WIRED: Wie?
Wahlster: Wir kombinieren drei Roboter, zwei Menschen und sogar noch zwei Softbots, also Roboter, die nur aus Software bestehen. Ziel ist es, Aufgaben in der Industrie zu übernehmen, bei denen Mitarbeiter gemeinsam arbeiten, etwa bei der Unterbodenmontage im Automobilbau. Das Fünferteam aus Menschen, das bisher solche Aufgaben erledigt, kennt sich oft seit Langem. Die arbeiten in einer Schicht zusammen und wissen genau: Diesen Schritt beherrscht der Kollege nicht so gut, dann übernehme ich die Aufgabe stattdessen. Die Werker wechseln sich ab, ändern auch ihre Tätigkeiten und passen sich wechselseitig aneinander an. Das ist eine sehr soziale Vorgehensweise.

WIRED: Wenn schon alles so gut klappt, wozu dann Roboter ins Spiel bringen und Ängste schüren, dass sie Jobs vernichten?
Wahlster: In den Nationen, die am meisten Roboter einsetzen, läuft die Wirtschaft am besten und dort ist auch die Arbeitslosigkeit am geringsten. Ich behaupte, je mehr wir digitalisieren, desto besser ist unser Wohlstand gesichert. Für Deutschland als sehr exportstarkes Land ist es absolut erforderlich, radikal auf Digitalisierung zu setzen.

WIRED: Auch wenn das Arbeitsplätze kostet?
Wahlster: Ja, einzelne Arbeitsplätze fallen weg, aber andere entstehen dafür neu. Es gibt genug Arbeit, die dringend erledigt werden müsste. Aber um diese zu finanzieren, brauchen wir eine erfolgreiche Wirtschaft – und die funktioniert nur durch Digitalisierung, wobei die Künstliche Intelligenz die Speerspitze bildet. Und wenn wir diesen Umbruch mit einem gemeinsamen Wertesystem angehen, lässt sich die Herausforderung auch meistern. Wir arbeiten gut mit den Gewerkschaften zusammen, zum Beispiel bei Industrie-4.0-Projekten. Arbeitnehmervertreter stehen unseren kollaborativen Roboter-Systemen oft sehr positiv gegenüber, wenn Sie diese in der Zusammenarbeit praktisch erleben.

WIRED: Warum sollten Arbeiter sich auf Maschinen als Kollegen freuen?
Wahlster: Fabrikarbeit wird abwechslungsreicher und weniger anstrengend.

WIRED: Weil man nicht mehr selbst arbeiten muss?
Wahlster: Beschäftigte sagen uns: „Durch Industrie 4.0 habe ich nicht den alten Charlie-Chaplin-Effekt, zwei, drei Monate immer dasselbe zu machen, sondern wir bekommen eine hochflexible Produktion, es ist spannend, ich kriege immer wieder neue Aufgaben und lerne viel dazu.“ Dazu kommt mehr Flexibilität in den Abläufen.

WIRED: Sie meinen, eine Maschine bestimmt den Ablauf?
Wahlster: In keiner Weise. Ich als Mitarbeiter bin nicht getaktet von der Maschine, sondern ich selbst kann die Maschinen takten. Das geht aber nur mit kollaborativen Robotern. Ein normaler Industrieroboter arbeitet stumpfsinnig sein Programm ab. Die neuen Systeme dagegen stellen sich auf Sie ein: Wenn Sie langsamer werden, dann arbeitet der Roboter auch mal langsamer. Die Gewerkschaft nennt es „gute Arbeit“. Damit ist gemeint, dass die Arbeit kognitiv und sozial den Ansprüchen der Menschen entspricht.

WIRED: Sind die Chancen in der Industrie damit besser als für Rechtsanwälte oder Ärzte, deren Jobs immer öfter von Expertensystemen übernommen werden?
Wahlster: In Berufen, die stark auf angelesenem Faktenwissen basieren, werden Menschen sich sehr bald darauf einstellen müssen, zumindest mit KI-Systemen wie IBMs Watson zusammenzuarbeiten. Und es wird auch in diesen Bereichen  weniger Arbeitsplätze geben.

WIRED: Was bleibt für uns Menschen übrig, wenn Maschinen allwissend werden?
Wahlster: Nach über 30 Jahren intensiver KI-Forschung kann ich sagen: Je mehr ich mich in dieses Gebiet vertieft habe, umso mehr Achtung habe ich vor der menschlichen Intelligenz mit ihrer Gesamtleistung im Alltag bekommen. Das liegt nicht allein an der kognitiven Intelligenz, sondern jeder Mensch hat genetisch und biologisch als soziales Lebewesen so viele Fähigkeiten, die wir heute digital nicht nachbilden können, dass man ganz großen Respekt vor der Alltagsintelligenz jedes Menschen – unabhängig von seiner formalen Ausbildung – haben sollte.

WIRED: Wo besitzt der Mensch weiter einen Vorsprung?
Wahlster: Zum einen arbeitet das Gehirn viel effizienter in der Auslastung seiner begrenzten Hardware als der beste Supercomputer und verbraucht viel weniger Energie. Auch die Simulation von Alltagsintelligenz, dem Common Sense des Menschen in unerwarteten Situationen, ist noch eine riesige Baustelle in der KI-Forschung.

WIRED: Haben moderne Systeme wie die selbstfahrenden Google-Autos nicht viele dieser Herausforderungen inzwischen gemeistert?
Wahlster: Nein. Nehmen wir als Beispiel den Four-Way-Stop: Bei solchen Vierwegekreuzungen geht es ja nach der Regel, wer zuerst ankommt, hat Vorfahrt. Wenn Autos simultan eintreffen, gilt zwar rechts vor links, aber der Blickkontakt und die eigene Einschätzung der anderen Verkehrsteilnehmer ist weiter wichtig, weil man oft nicht genau weiß, ob der andere auch der Meinung ist, dass ich Vorfahrt habe.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++

WIRED: Wir vielleicht nicht, aber das Google Car misst doch alles auf jeden Millimeter und die Tausendstel Sekunde genau.
Wahlster: Ja, aber es besitzt noch keine ausreichende sozial-emotionale Intelligenz: Wenn da ein aggressiv ausschauender Fahrer mit großer Geräuschkulisse in seinem riesigen Geländewagen an den Four-Way Stop kommt und Sie eigentlich der Meinung sind, dass Sie als Erster an der Kreuzung ankamen, dann lassen Sie dem – als intelligenter Mensch – trotzdem die Vorfahrt, um ihr Risiko zu minimieren. Etwas Vergleichbares kann bisher noch kein selbstfahrendes Auto zu bieten.

WIRED: Um Unfälle zu vermeiden, sind die Google-Autos auf so viel Defensive programmiert, dass sie sich eher wegen ihrer Zurückhaltung Ärger einhandeln.
Wahlster: Das ist auf Dauer keine Lösung. Ich bin kürzlich mit einem selbstfahrenden Testfahrzeug eines deutschen Herstellers schon mit 170 km/h auf der Autobahn gefahren und möchte weiterhin auch individuelle Mobilität mit hoher Geschwindigkeit nutzen. Bei gemischtem Verkehr von hochautomatisierten Fahrzeugen und fahrergesteuerten Autos besteht eine große Herausforderung für die KI-Systeme darin, die Pläne und Intentionen der anderen Fahrer möglichst rasch und zuverlässig vorherzusagen, um das eigene Handeln darauf einzustellen. Darin arbeiten wir am DFKI mit deutschen Autoherstellern zusammen.

WIRED: Können Sie sich vorstellen, dass Maschinen eines Tages etwas empfinden?
Wahlster: Nein. Da habe ich auch eine ganz harte Linie: Computer sind keine biologischen Wesen, sie haben unter anderem kein Hormonsystem, und das können und wollen wir auch nicht implementieren. Denn selbst wenn man das simulieren könnte – wir wollen ja keinen Homunkulus bauen, sondern Systeme, die den Menschen ergänzen und ihm als Assistenten nützen.

WIRED: Viele befürchten, dass KI-Systeme in absehbarer Zeit so mächtig werden, dass wir sie nicht mehr kontrollieren können. Dazu gehören auch Menschen wie Elon Musk und Stephen Hawking, denen man kaum vorwerfen kann, technikfeindlich zu sein.
Wahlster: Die Sorge vor einer Superintelligenz halte ich auf der Basis des heutigen Forschungsstandes für völlig unbegründet. Es gibt bei jeder technologischen Revolution Skeptiker die behaupten, diese Technologie könne außer Kontrolle geraten. Natürlich muss man sich mit diesen Ängsten als KI-Forscher auseinandersetzen, weil sie zu Akzeptanzproblemen einer sehr nützlichen Technologie führen können. Heutige digitale Computer sind ja ausschließlich über Ihre Programme und Speicherinhalte gesteuert, und selbst wenn sich diese durch Lernen selbst ändern, können wir sie als Menschen vollständig inspizieren und zur Not stoppen.

WIRED: Dennoch könnte man meinen, wir sind nach 60 Jahren Künstlicher Intelligenz an dem Punkt, dass Computer beinahe so schlau sind wie Menschen oder sogar schlauer.
Wahlster: Nein, auf keinen Fall. Künstliche Intelligenz ist zwar besser als natürliche Dummheit, aber die menschliche Intelligenz ist doch bei weitem überlegen. Was stimmt: Wir haben nach 60 Jahren KI-Forschung spektakuläre Systeme entwickelt, bei denen wir ganz gezielt den Menschen unterstützen, ihn an manchen Stellen sogar übertrumpfen – aber nicht in allen seinen Fähigkeiten. Davon sind wir meilenweit entfernt.

WIRED: Wie sieht in Ihren Augen die Zukunft der KI aus?
Wahlster: Ich bin vielleicht unverbesserlicher Optimist, aber ich sehe es sehr positiv. Die Künstliche Intelligenz muss immer im Dienste des Menschen stehen. Nur mit Künstlicher Intelligenz werden sich auf Dauer unser Wohlstand sichern und wichtige Zukunftsprobleme der Mobilität, der Energieversorgung, der Demographie und der Sicherheit lösen lassen. Nicht der Mensch passt sich der Maschine an, sondern die Maschine dem Menschen. 

GQ Empfiehlt
Wen sollten autonome Autos opfern?

Wen sollten autonome Autos opfern?

von Chris Köver