Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Superintelligente Computer werden die Welt so schnell nicht beherrschen

von Henning Beck
Selbstlernende Maschinen sind ein Marketing-Trick der IT-Firmen. Echte neuronale Systeme funktionieren anders als sich das die Silicon Valley-Vordenker erhoffen, schreibt unser Gastautor Henning Beck. Der Neurowissenschaftler forscht zum Thema Künstliche Intelligenz und ist überzeugt: Der Mensch bleibt auf absehbare Zeit jeder KI überlegen. (Teil 1 unseres Schwerpunkts zum Thema „Mega-Mensch“)

Als mich neulich mein zweieinhalbjähriger Nachbar besuchte, schaute er aufmerksam an die Decke meiner Wohnung und sagte plötzlich: „Oh, Rauchmelder!“ In diesem Moment schossen mir drei Gedanken durch den Kopf: Erstens, funktioniert das Ding überhaupt noch? Zweitens, habe ich jemals die Batterien gewechselt? Und drittens, was hat der Bursche nur für Eltern? Entschuldigung, haben sie ihn tagaus tagein mit hunderten Bildern von Rauchmeldern, Löschzügen und Brandäxten trainiert, bis er endlich gelernt hatte, was ein Rauchmelder ist? Und ihn erst zu mir geschickt, nachdem er einen Abschlusstest bestanden hatte?

Wohl nicht. Dabei ist diese Form des Lernens genau das, was derzeit von den IT-Firmen gepriesen wird, die Künstliche Intelligenz entwickeln: Wenn eine moderne „Deep Learning“-Bilderkennungs-Software einen bestimmten Gegenstand (zum Beispiel einen Rauchmelder) erkennen soll, füttert man sie zunächst mit Millionen von irgendwelchen Bildern und zusätzlich mit einigen Fotos von Rauchmeldern. Das System ist dabei ähnlich aufgebaut wie die Nervenzellen in einem menschlichen Gehirn verbunden sind: Es besteht aus vielen Knotenpunkten, die ihre Verbindungen untereinander verstärken oder abschwächen können. Nun braucht man das künstliche Netzwerk nur noch mit möglichst vielen Bildern zu trainieren, damit es sich selbstständig anpasst und schließlich mit 98-prozentiger Sicherheit einen Rauchmelder erkennt.

Wenn Musk, Gates und Hawking recht behalten, übertrifft die Entwicklung der KI schon in Kürze das menschliche Gehirn. Wenn sie sich da mal nicht täuschen!

Die Fortschritte dieser Deep-Learning-Technologie sind wirklich erstaunlich. Die Gesichtserkennung übertrifft die menschlichen Fähigkeiten sogar – und Google verpixelt in Street View mittlerweile auch Kuhgesichter. Wenn Elon Musk, Bill Gates und Stephen Hawking recht behalten, wird die Entwicklung dieser Künstlichen Intelligenz schon in Kürze das menschliche Gehirn übertreffen. Wenn sich die IT-Konzerne da mal nicht täuschen! Denn wer glaubt, mit Deep Learning das Denkprinzip des Gehirns geknackt zu haben und schon bald in silico eine Intelligenz zu entwickeln, die uns überflüssig macht, wird sich wundern. Und zwar aus drei Gründen.

Erstens, der Begriff des „neuronalen Netzwerks“ ist ein Marketing-Gag der Computerfirmen. Sie wollen zeigen, wie nah sie dem menschlichen Denken mit ihren Systemen gekommen sind. Doch das sind sie nicht. Und mit den derzeitigen Ansätzen werden sie das auch niemals. Denn ein Gehirn verarbeitet Informationen zwar auch in einem neuronalen Netzwerk – jedoch völlig anders als ein Computer.

Wenn ein Deep-Learning-System ein Objekt erkennen soll, geht es nach einem simplen Prinzip vor: Ein Input (zum Beispiel ein Bild) trifft auf das System. Das System verarbeitet den Input innerhalb des selbstlernenden Netzwerks und liefert schließlich einen Output (zum Beispiel, dass es einen Rauchmelder erkannt hat). Input – Verarbeitung – Output. Doch im Gehirn ist das anders, dort sind Verarbeitung und Output ein und dasselbe. Das klingt kompliziert und lässt sich am ehesten mit einem Orchester vergleichen. Stellen Sie sich vor, Sie schauen auf ein Orchester, während es eine Melodie spielt. Dann versteckt sich diese Melodie im Zustand des Orchesters. Die Melodie ist also nicht irgendwo, sondern gewissermaßen zwischen den Musikern.

Deep Learning dauert lange und muss mit hunderttausenden Bildern trainiert werden. Wenn Menschen das so machen würden, kämen sie geistig nie voran

Genauso ist auch eine Gedankeninformation im Gehirn zwischen den Nervenzellen, wenn sie sich in Ihrer Aktivität synchronisieren. Wenn unser Gehirn einen Input bekommt, verarbeiten die Zellen diesen Reiz – und diese Verarbeitung erleben wir als Gedanken. Ein Gedanke oder eine Information ist daher nicht irgendwo im Gehirn. Es ist die Art und Weise wie sich die Nervenzellen in ihrer Aktivität abstimmen. Zwischen Verarbeitung und Output einer Information besteht kein Unterschied. In einem Orchester gibt es schließlich auch keinen Output-Musikanten, der das musikalische Ergebnis des Orchesters vorträgt.

In einem Deep-Learning-Netzwerk trennt man das hingegen: Der Input wird in einem Netzwerk verarbeitet und anschließend gibt es eine Output-Schicht, die das Ergebnis ausspuckt. Genau deswegen dauert Deep Learning im Vergleich zum menschlichen Lernen lange und muss mit hunderttausenden Bildern trainiert werden. Wenn wir Menschen das so machen würden, kämen wir geistig nie voran.

Denn zweitens gilt: Lernen ist schön und gut, aber nichts Besonderes. Hunde lernen, Delphine lernen, Computer lernen – wir verstehen. Wenn man etwas gelernt hat, kann man es anschließend ver-lernen. Doch einmal verstanden, können wir nicht ent-verstehen. Denn Verstehen bedeutet, dass wir die Art ändern, wie wir eine Information verarbeiten. Und da Verarbeitung und Output im Gehirn ein und dasselbe sind, verstehen wir extrem schnell, manchmal sogar sofort. Etwas, das man in der Neurowissenschaft Fast Mapping nennt.

Es ist wie bei meinem Nachbarn: Er hat den Rauchmelder gleich beim ersten oder zweiten Mal verstanden. Zweijährige begreifen auf diese Weise bis zu zehn neue Wörter pro Tag. Das würde mit einem Deep-Learning-Ansatz nie funktionieren, denn der würde viel zu viel Input benötigen. Auch wissen wir aus Laboruntersuchungen, dass kleine Kinder auf Anhieb das Konzept eines neuen Spielzeugs begreifen können.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Als mich neulich mein zweieinhalbjähriger Nachbar besuchte, schaute er aufmerksam an die Decke meiner Wohnung und sagte plötzlich: „Oh, Rauchmelder!“ In diesem Moment schossen mir drei Gedanken durch den Kopf: Erstens, funktioniert das Ding überhaupt noch? Zweitens, habe ich jemals die Batterien gewechselt? Und drittens, was hat der Bursche nur für Eltern? Entschuldigung, haben sie ihn tagaus tagein mit hunderten Bildern von Rauchmeldern, Löschzügen und Brandäxten trainiert, bis er endlich gelernt hatte, was ein Rauchmelder ist? Und ihn erst zu mir geschickt, nachdem er einen Abschlusstest bestanden hatte?

Wohl nicht. Dabei ist diese Form des Lernens genau das, was derzeit von den IT-Firmen gepriesen wird, die Künstliche Intelligenz entwickeln: Wenn eine moderne „Deep Learning“-Bilderkennungs-Software einen bestimmten Gegenstand (zum Beispiel einen Rauchmelder) erkennen soll, füttert man sie zunächst mit Millionen von irgendwelchen Bildern und zusätzlich mit einigen Fotos von Rauchmeldern. Das System ist dabei ähnlich aufgebaut wie die Nervenzellen in einem menschlichen Gehirn verbunden sind: Es besteht aus vielen Knotenpunkten, die ihre Verbindungen untereinander verstärken oder abschwächen können. Nun braucht man das künstliche Netzwerk nur noch mit möglichst vielen Bildern zu trainieren, damit es sich selbstständig anpasst und schließlich mit 98-prozentiger Sicherheit einen Rauchmelder erkennt.

Wenn Musk, Gates und Hawking recht behalten, übertrifft die Entwicklung der KI schon in Kürze das menschliche Gehirn. Wenn sie sich da mal nicht täuschen!

Die Fortschritte dieser Deep-Learning-Technologie sind wirklich erstaunlich. Die Gesichtserkennung übertrifft die menschlichen Fähigkeiten sogar – und Google verpixelt in Street View mittlerweile auch Kuhgesichter. Wenn Elon Musk, Bill Gates und Stephen Hawking recht behalten, wird die Entwicklung dieser Künstlichen Intelligenz schon in Kürze das menschliche Gehirn übertreffen. Wenn sich die IT-Konzerne da mal nicht täuschen! Denn wer glaubt, mit Deep Learning das Denkprinzip des Gehirns geknackt zu haben und schon bald in silico eine Intelligenz zu entwickeln, die uns überflüssig macht, wird sich wundern. Und zwar aus drei Gründen.

Erstens, der Begriff des „neuronalen Netzwerks“ ist ein Marketing-Gag der Computerfirmen. Sie wollen zeigen, wie nah sie dem menschlichen Denken mit ihren Systemen gekommen sind. Doch das sind sie nicht. Und mit den derzeitigen Ansätzen werden sie das auch niemals. Denn ein Gehirn verarbeitet Informationen zwar auch in einem neuronalen Netzwerk – jedoch völlig anders als ein Computer.

Wenn ein Deep-Learning-System ein Objekt erkennen soll, geht es nach einem simplen Prinzip vor: Ein Input (zum Beispiel ein Bild) trifft auf das System. Das System verarbeitet den Input innerhalb des selbstlernenden Netzwerks und liefert schließlich einen Output (zum Beispiel, dass es einen Rauchmelder erkannt hat). Input – Verarbeitung – Output. Doch im Gehirn ist das anders, dort sind Verarbeitung und Output ein und dasselbe. Das klingt kompliziert und lässt sich am ehesten mit einem Orchester vergleichen. Stellen Sie sich vor, Sie schauen auf ein Orchester, während es eine Melodie spielt. Dann versteckt sich diese Melodie im Zustand des Orchesters. Die Melodie ist also nicht irgendwo, sondern gewissermaßen zwischen den Musikern.

Deep Learning dauert lange und muss mit hunderttausenden Bildern trainiert werden. Wenn Menschen das so machen würden, kämen sie geistig nie voran

Genauso ist auch eine Gedankeninformation im Gehirn zwischen den Nervenzellen, wenn sie sich in Ihrer Aktivität synchronisieren. Wenn unser Gehirn einen Input bekommt, verarbeiten die Zellen diesen Reiz – und diese Verarbeitung erleben wir als Gedanken. Ein Gedanke oder eine Information ist daher nicht irgendwo im Gehirn. Es ist die Art und Weise wie sich die Nervenzellen in ihrer Aktivität abstimmen. Zwischen Verarbeitung und Output einer Information besteht kein Unterschied. In einem Orchester gibt es schließlich auch keinen Output-Musikanten, der das musikalische Ergebnis des Orchesters vorträgt.

In einem Deep-Learning-Netzwerk trennt man das hingegen: Der Input wird in einem Netzwerk verarbeitet und anschließend gibt es eine Output-Schicht, die das Ergebnis ausspuckt. Genau deswegen dauert Deep Learning im Vergleich zum menschlichen Lernen lange und muss mit hunderttausenden Bildern trainiert werden. Wenn wir Menschen das so machen würden, kämen wir geistig nie voran.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Denn zweitens gilt: Lernen ist schön und gut, aber nichts Besonderes. Hunde lernen, Delphine lernen, Computer lernen – wir verstehen. Wenn man etwas gelernt hat, kann man es anschließend ver-lernen. Doch einmal verstanden, können wir nicht ent-verstehen. Denn Verstehen bedeutet, dass wir die Art ändern, wie wir eine Information verarbeiten. Und da Verarbeitung und Output im Gehirn ein und dasselbe sind, verstehen wir extrem schnell, manchmal sogar sofort. Etwas, das man in der Neurowissenschaft Fast Mapping nennt.

Es ist wie bei meinem Nachbarn: Er hat den Rauchmelder gleich beim ersten oder zweiten Mal verstanden. Zweijährige begreifen auf diese Weise bis zu zehn neue Wörter pro Tag. Das würde mit einem Deep-Learning-Ansatz nie funktionieren, denn der würde viel zu viel Input benötigen. Auch wissen wir aus Laboruntersuchungen, dass kleine Kinder auf Anhieb das Konzept eines neuen Spielzeugs begreifen können.

Wenn man sie also einmal intensiv mit einem Auto spielen lässt, dann erkennen sie das Auto später wieder. Und zwar auf Fotos, in Videos, in echt sowie in anderen Formen, Farben und Größen. Wohlgemerkt: Nach einmaligem Kontakt! Dabei geht das Gehirn nicht wie ein Deep-Learning-System vor und korreliert erstmal möglichst viele Daten. Im Gegenteil: Es achtet auf die Unterschiede der Objekte und integriert diese sofort in die Netzwerke, die für das Verständnis zuständig sind. Eine mentale Abkürzung, die wir auch als Erwachsene ständig nutzen.

Wie lange hat es beispielsweise gedauert, bis Sie kapiert hatten, was der Begriff Brexit bedeutet? Einmal in den Nachrichten aufgeschnappt, schon war die Sache klar. Sie haben den Begriff aber nicht gelernt, sondern ihn verstanden, das ist etwas anderes. Denn wenn Sie etwas verstanden haben, dann können Sie neue Sachen damit machen. Wenn Sie wissen, was ein Brexit ist, was könnte dann ein Schwexit sein? Was ein Deuxit oder ein Fraxit? Und besteht noch Hoffnung auf einen Bremain oder gar den Breturn? Noch nie vorher gehört und dennoch verstehen Sie, um was es geht – und das ohne ständiges Üben und Wiederholen wie es ein Deep-Learning-System macht.

Und drittens, Intelligenz (ob künstlich oder nicht) ist nicht genug, um die Welt zu verändern. Deep-Learning-Systeme können innerhalb des trainierten Datensatzes durchaus Probleme auf intelligente Art lösen. Doch diese Intelligenz ist nichts Besonderes. Intelligentes Verhalten bedeutet, dass man schnell und fehlerfrei Rechenregeln befolgen kann, um eine Aufgabe zu lösen. Aber es bedeutet nicht, die Rechenregeln zu ändern. Zu glauben, dass man Computer einfach nur schneller machen müsste, damit sie irgendwann verstehen, was sie tun, ist ein Trugschluss.

Denn nur weil man extrem schnell Antworten gibt, kann man noch lange nicht die richtige Frage dazu stellen. Kein superintelligenter Computer wird deswegen jemals die Welt beherrschen. Denn dafür muss man auch Regeln brechen, man muss verrückt sein und kreativ denken. Computer mögen uns vielleicht im Schach, Go oder Poker schlagen. Doch wir können eine neue Schachfigur erfinden. Oder zwei neue Karten fürs Pokern. Und dann setzen wir uns mit ein paar Freunden zusammen und probieren die Idee aus. Das mag funktionieren oder nicht, aber das wissen wir vorher nicht. Wir testen und riskieren Fehlschläge.

Computer mögen uns vielleicht im Schach, Go oder Poker schlagen. Doch wir können eine neue Schachfigur erfinden

Letztendlich ist es genau diese Fähigkeit, auch mal einen Fehler, einen Irrtum oder Denkschnitzer zuzulassen, die uns von der unkreativen Maschine unterscheidet. Für gute Ideen gibt es nämlich kein Rezept und sie entstehen immer im zwischenmenschlichen Austausch. Schließlich gibt es nur ein Kriterium – wenn jemand anderes sagt „Das ist eine gute Idee!“ Doch genau diese soziale Interaktion, dieses Ausprobieren, dieses Scheitern und wieder besser Scheitern lässt sich noch nicht digitalisieren und deswegen bleiben neue Ideen erst einmal analog.


Was müsste man also tun, um die mentalen Stärken des Gehirns auch für Computer zu nutzen? Zumindest nicht nur auf Deep Learning setzen. Diese Technologie eignet sich vorwiegend dafür, Muster in großen Datenbergen zu erkennen. Das macht das Gehirn auch, aber nicht nur. Denn wir verstehen die Dinge, indem wir auf deren Unterschiede und Kategorien achten. Wer nur korreliert, verliert – den Blick fürs große Ganze und auch viel Zeit. Kein Wunder, dass Computer ständig und ohne Unterbrechung vor sich hinarbeiten müssen. Wir hingegen schweifen ab, schlafen ein oder faulenzen – und aktivieren dann die Nervennetzwerke, die neue Informationen zu Verständniskonzepten ordnen. Denn neue Ideen entwickelt man nur, wenn man auch mal einen Schritt zurücktritt. Vielleicht muss man also auch mal ineffizient sein, um effektiv zu denken – ein neuer Ansatz für die IT-Industrie. Das Gehirn macht es jedenfalls so.

Henning Beck studierte Biochemie in Tübingen und promovierte als Neurowissenschaftler an der dortigen Graduate School of Cellular & Molecular Neuroscience. Er arbeitete an der University of California in Berkeley und ist derzeit am Scene Grammar Lab der Universität Frankfurt tätig. Sein aktuelles Buch heißt: Irren ist nützlich! Warum die Schwächen des Gehirns unsere Stärken sind.

Dieser Artikel ist Teil der WIRED Story Shots – Denkanstöße zu den wichtigsten Fragen der Digitalisierung. Diese Woche: Mega-Mensch – überholen uns die Maschinen, behalten wir die Oberhand oder verschmelzen wir mit ihnen zu höheren Wesen?

Teil 1: Superintelligente Computer werden die Welt so schnell nicht beherrschen
Teil 2: Tech-Darwinismus: Vom Menschen, der zum Gott werden will
Teil 3: Lässt sich der perfekte Mensch bald ausdrucken?
Teil 4: Warum wollen immer mehr Menschen zur Sex-Maschine werden?
Teil 5: Wie gefährlich sind KIs, die unsere schlechten Eigenschaften übernehmen?

GQ Empfiehlt
Die neue WIRED ist da!

Die neue WIRED ist da!

von WIRED Editorial