Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Auch 2029 wird es keine Künstliche Intelligenz geben, die diesen Namen verdient

von Florian Gallwitz
Prognosen über die technische Zukunft im Allgemeinen sind immer ein riskantes Unterfangen. Prognosen über die Entwicklung der sogenannten Künstlichen Intelligenz (KI) im Besonderen spielen dabei sogar in einer ganz eigenen Liga. Denn ihre Geschichte ist eine Geschichte von grotesk überzogenen Erwartungen. Ein WIRED2029-Gastbeitrag von Florian Gallwitz, Professor für Medieninformatik an der Technischen Hochschule Nürnberg.

Wenn ich gefragt werde, wie und wohin sich KI im Jahr 2029 entwickelt haben wird, muss ich daran denken, wie es sich anfühlt, mit dem Auto einen unbefestigten Bergpass auf Korsika zu überqueren. Die im Tal verstreut liegenden, bereits üppig von Vegetation durchsetzten Autowracks mahnen vor einer zu optimistischen Herangehensweise. Diese Wracks stehen für die Erwartungen an die Ergebnisse der KI-Forschung – die Fahrer wären die großen Denker ihrer Zeit auf diesem Gebiet. Beispielhaft seien hier die Einschätzungen von zwei Teilnehmern des berühmten Dartmouth-Workshops genannt, auf dem im Sommer 1956 der Begriff Künstliche Intelligenz geprägt wurde, der bis heute so viel Verwirrung stiftet.

Schon im Jahr 1965 schrieb der spätere Wirtschaftsnobelpreisträger Herbert Simon, dass Maschinen in 20 Jahren (also 1985) in der Lage sein würden, jede Arbeit auszuführen, zu der Menschen fähig sind. Marvin Minsky, eine der prägendsten Figuren der Forschungsrichtung Künstliche Intelligenz, war noch optimistischer. Er erklärte im Jahr 1970 gegenüber dem Magazin Life, dass die Entwicklung einer Maschine mit der durchschnittlichen Intelligenz eines Menschen nur drei bis acht Jahre bevorstünde. Er attestierte einer solchen Maschine unter anderem die Fähigkeiten, Shakespeare zu lesen und die beweglichen Teile eines Autos zu schmieren. Dem gleichen Artikel ist auch zu entnehmen, dass viele seiner Forscherkollegen diese Prognose für etwas zu optimistisch hielten: „Geben Sie uns 15 Jahre.“

Die Bundesregierung setzt bei KI auf gescheiterte Ansätze

Heute, 48 Jahre später, ist eine Künstliche Intelligenz in diesem Sinne – oder auch nur ein vielversprechender Weg in diese Richtung – noch nicht einmal in Ansätzen zu erkennen. Die in den 70er Jahren populären Versuche, menschliche Intelligenz auf symbolisch-logischer Ebene zu reproduzieren, zum Beispiel durch Verwendung spezieller Programmiersprachen wie Lisp oder Prolog oder durch sogenannte Expertensysteme, haben an den Unschärfen der realen Welt längst krachend Schiffbruch erlitten. Allein die kürzlich veröffentlichte „Strategie Künstliche Intelligenz der Bundesregierung“ (PDF) setzt verblüffender Weise immer noch auf einen Methodenmix, der diese historisch gescheiterten Ansätze an prominenter Stelle beinhaltet.

Aber warum reden wir eigentlich überhaupt wieder über „KI“, und warum benötigt Deutschland im Jahr 2018 nach Überzeugung der Bundesregierung sogar eine KI-Strategie? Hintergrund sind in erster Linie deutliche Fortschritte bei der Simulation der menschlichen Wahrnehmung, die auch ganz ohne das Vorhandensein künstlicher „Intelligenz“ weitreichende Auswirkungen auf die Gesellschaft der Zukunft haben werden.

Die für solcherlei Fragestellungen zuständige Fachrichtung der Informatik hat sich unter der Bezeichnung Mustererkennung etabliert und hat sich jahrzehntelang weitgehend unabhängig von der klassischen KI-Forschung mit konkreten Fragestellungen wie Spracherkennung, also der Umwandlung von Sprachsignalen in Text, der Erkennung von Objekten in Bildern oder der Interpretation von medizinischen Sensordaten befasst. Was die Spracherkennung angeht, war bereits seit Ende der 70er Jahre klar, dass die Variabilität und Mehrdeutigkeit gesprochener Sprache nur mittels maschineller Lernverfahren in den Griff zu bekommen sein würde. Anstatt mit Symbolen wird hierbei vorwiegend mit Wahrscheinlichkeiten, kontinuierlichen Zahlenvektoren, Abständen und Gewichtungen hantiert. Bei der Objekterkennung setzte sich diese Erkenntnis erst deutlich später durch.

Ein maschinelles Lernverfahren, dessen Anfänge auf die 40er und 50er Jahre zurückgehen, und das in stark vereinfachter Form die Funktionsweise biologischer Neuronen simuliert, sind künstliche neuronale Netze. Sie erfuhren bei der Suche nach menschenähnlicher Künstlicher Intelligenz in den 60er Jahren kurzzeitig eine gewisse Aufmerksamkeit. Nach Einschätzung des KI-Vordenkers Minsky waren sie jedoch nicht erfolgversprechend und gerieten deshalb in der nominellen KI-Forschung bald wieder in Vergessenheit. Man verschrieb sich dort stattdessen noch über das Ende des 20. Jahrhunderts hinaus nun ganz den symbolisch-logischen, regel- und wissensbasierten Ansätzen.

Neuronale Netze sind nur ein Lernverfahren unter vielen

In der Mustererkennung spielten künstliche Neuronale Netze dagegen schon seit Ende der 80er Jahre wieder eine wichtige Rolle. Sie wurden z.B. erfolgreich für die Erkennung von handschriftlichen Ziffern, für die Spracherkennung oder für die Erkennung von Emotionen aus Sprachsignalen eingesetzt, blieben aber im Werkzeugkasten der Mustererkennung neben Gaußschen Mischverteilungen und Support Vector Machines zunächst nur ein maschinelles Lernverfahren unter vielen.

Die Fortschritte der Mustererkennung führten seit den 90er und 2000er Jahren zu konkreten Produkten und Anwendungen mit zunehmender Verbreitung, wie etwa Diktier-Spracherkennung für PCs oder Fotokameras, die Gesichter in Bildern erkennen und so eine optimierte Steuerung von Belichtung und Schärfe ermöglichen. Jahr für Jahr ergaben sich moderate Verbesserungen der Erkennungsgenauigkeit solcher Verfahren. Niemand wäre in dieser Zeit auf die Idee gekommen, solcherlei Anwendungen als „KI“ zu bezeichnen.

Um das Jahr 2012 herum kam es zu sprunghaften Verbesserungen in vielen Bereichen der Mustererkennung, zunächst bei der Objekterkennung und kurz darauf auch bei der Spracherkennung. Verantwortlich hierfür waren künstliche neuronale Netze, die deutlich mehr Schichten von Rechenknoten („Neuronen“) hatten als die in den Jahrzehnten zuvor verwendeten, also „tiefer“ waren als bisherige Netze. Bekannt werden sollte diese neue Welle von künstlichen neuronalen Netzen deshalb unter der etwas missverständlichen Bezeichnung Deep Learning. Ermöglicht wurden diese Netze vor allem durch die stark gewachsene Leistungsfähigkeit der Hardware, insbesondere durch die effiziente Parallelisierbarkeit des Trainingsvorgangs auf Grafikkarten. Gegenüber den späten 80er Jahren hatte sich hierdurch eine Beschleunigung des Trainings um etwa den Faktor eine Million ergeben.

Heute dominieren Deep-Learning-Verfahren in allen Bereichen der Mustererkennung, in denen sehr große Datenmengen zum Training der Systeme zur Verfügung stehen. Auch in geschlossenen Spiel-Welten wie dem Schach- und dem Go-Spiel oder bei der Bewältigung von Video-Spielen zeigen diese Verfahren erstaunliche Fähigkeiten. Durch geschickte Kombination mustererkennender und generativ eingesetzter neuronaler Netze lassen sich auch Bilder und Videos auf verblüffend realistische Weise manipulieren.

Trotz der in den letzten Jahren weltweit enorm gestiegenen Forschungsanstrengungen in diesem Bereich scheint die Rate an wirklich neuen, überraschenden Erkenntnissen und Ergebnissen aktuell schon wieder abzunehmen. Wie in der Zeit vor den sprunghaften Verbesserungen vor etwa sechs Jahren kann man eine gewisse Konsolidierung bei den Erkennungsraten feststellen. Spektakuläre Erfolgsmeldungen gibt es vor allem dort, wo Deep-Learning-Verfahren auf Mustererkennungs-Anwendungen angesetzt werden, die bislang menschlichen Experten vorbehalten waren. Ein typisches Beispiel hierfür ist die Unterscheidung von gutartigen und bösartigen Hautveränderungen anhand eines Fotos.

Sogar ein Taschenrechner ist laut Definition eine KI

Durch unglückliche Umstände ist der alte, angestaubte und nie sinnvoll definierte Begriff Künstliche Intelligenz aus den Trümmern der (symbolischen) KI-Forschung geborgen worden und heute für viele zu einem Synonym für Deep Learning geworden. Schlimmer noch: Auch andere nützliche aber überaus schlichte maschinelle Lernverfahren aus der Frühzeit der Informatik, wie etwa der k-Means-Algorithmus aus den 50er Jahren, werden heute schamlos als Künstliche Intelligenz angepriesen. Selbst ein handelsüblicher Taschenrechner genügt nach einer verbreiteten Definition den Anforderungen an eine sogenannte „schwache Künstliche Intelligenz“. Ähnlich sinnvoll erschiene es mir, Papierflugzeuge, Silvesterraketen und Tennisbälle mit großer Ernsthaftigkeit unter der Sammelbezeichnung „schwache interstellare Raumfahrt“ zusammenzufassen.

Die wechselvolle Geschichte des Begriffs Künstliche Intelligenz, die sich vielleicht vor einigen Monaten in den Ergebnissen der Google-Recherche eines Ministeriumspraktikanten widergespiegelt haben könnte, mag auf Umwegen zu manchen der Absonderlichkeiten beigetragen haben, die sich in der aktuellen KI-Strategie der Bundesregierung finden. Zu diesen gehört auch, dass der Begriff Deep Learning in dem 47-seitigen Dokument nicht ein einziges Mal Erwähnung findet.

Aber was bedeutet all dies nun für die zukünftige Entwicklung?

  • Neuronale Netze sind gekommen, um zu bleiben. Sie werden das Feld der Mustererkennung und des maschinellen Lernens auch im Jahr 2029 weiterhin dominieren. Die Art und Weise, wie es gelungen ist, mit diesem Ansatz nach 60 Jahren Anlauf das biologische Vorbild Mensch etwa bei der Gesichtserkennung nicht nur einzuholen, sondern sogar deutlich zu übertreffen, macht ihr enormes Potential deutlich.
  • Der große zeitliche Abstand zwischen den wirklich bahnbrechenden Innovationen in diesem Bereich lässt es unwahrscheinlich erscheinen, dass in den nächsten zehn Jahren erneut etwas vollkommen Unerwartetes passiert. Wir werden also vorwiegend inkrementelle Verbesserungen der Deep-Learning-Verfahren sehen. Der Bedarf an anwendungsspezifischen Trainingsdaten wird gegenüber dem heutigen Stand deutlich reduziert und neue Anwendungsgebiete werden erschlossen. Es wird darüber hinaus Versuche geben, Deep-Learning-Verfahren über die Wahrnehmung und Mustererkennung hinaus auch für weitere Teilaspekte der Intelligenz wie Abstraktion, Analogiebildung und Schlussfolgerungen zu trainieren.
  • Es wird auch im Jahr 2029 keine Maschine geben, die auch nur im Entferntesten die Bezeichnung Künstliche Intelligenz im Sinne des Dartmouth-Workshops verdient hat, die also menschenähnlich denken und schlussfolgern kann, Analogien bildet, einen eigenen Antrieb, Willen oder gar ein Bewusstsein besitzt.
  • Ermüdet von 15 Jahren öffentlicher Diskussion über „Künstliche Intelligenz“ werden Menschen im Jahr 2029 aggressiv und zum Teil sogar handgreiflich auf die Verwendung dieses Begriffes reagieren. Die Medien sind deshalb gezwungen, wieder auf Begriffe auszuweichen, die eine Bedeutung haben. Die Verwendung des unbestimmten Artikels vor dem Begriff KI, wie in „Eine KI hat einen Master-Fingerabdruck entwickelt, der in Smartphones einbricht“ führt seit dem Jahr 2025 sogar zu einer automatischen Sperrung aller Social-Media-Konten.

Alle Artikel des WIRED2029-Specials, die vom 12. bis 19.12.2018 erscheinen werden, findet ihr hier.

Florian Gallwitz

Florian Gallwitz

von GQ

GQ Empfiehlt