
Selbstlernende Maschinen sind ein Marketing-Trick der IT-Firmen. Echte neuronale Systeme funktionieren anders als sich das die Silicon Valley-Vordenker erhoffen, schreibt unser Gastautor Henning Beck. Der Neurowissenschaftler forscht zum Thema Künstliche Intelligenz und ist überzeugt: Der Mensch bleibt auf absehbare Zeit jeder KI überlegen. (Teil 1 unseres Schwerpunkts zum Thema „Mega-Mensch“)
Als mich neulich mein zweieinhalbjähriger Nachbar besuchte, schaute er aufmerksam an die Decke meiner Wohnung und sagte plötzlich: „Oh, Rauchmelder!“ In diesem Moment schossen mir drei Gedanken durch den Kopf: Erstens, funktioniert das Ding überhaupt noch? Zweitens, habe ich jemals die Batterien gewechselt? Und drittens, was hat der Bursche nur für Eltern? Entschuldigung, haben sie ihn tagaus tagein mit hunderten Bildern von Rauchmeldern, Löschzügen und Brandäxten trainiert, bis er endlich gelernt hatte, was ein Rauchmelder ist? Und ihn erst zu mir geschickt, nachdem er einen Abschlusstest bestanden hatte?
Wohl nicht. Dabei ist diese Form des Lernens genau das, was derzeit von den IT-Firmen gepriesen wird, die Künstliche Intelligenz entwickeln: Wenn eine moderne „Deep Learning“-Bilderkennungs-Software einen bestimmten Gegenstand (zum Beispiel einen Rauchmelder) erkennen soll, füttert man sie zunächst mit Millionen von irgendwelchen Bildern und zusätzlich mit einigen Fotos von Rauchmeldern. Das System ist dabei ähnlich aufgebaut wie die Nervenzellen in einem menschlichen Gehirn verbunden sind: Es besteht aus vielen Knotenpunkten, die ihre Verbindungen untereinander verstärken oder abschwächen können. Nun braucht man das künstliche Netzwerk nur noch mit möglichst vielen Bildern zu trainieren, damit es sich selbstständig anpasst und schließlich mit 98-prozentiger Sicherheit einen Rauchmelder erkennt.
Wenn Musk, Gates und Hawking recht behalten, übertrifft die Entwicklung der KI schon in Kürze das menschliche Gehirn. Wenn sie sich da mal nicht täuschen!
Die Fortschritte dieser Deep-Learning-Technologie sind wirklich erstaunlich. Die Gesichtserkennung übertrifft die menschlichen Fähigkeiten sogar – und Google verpixelt in Street View mittlerweile auch Kuhgesichter. Wenn Elon Musk, Bill Gates und Stephen Hawking recht behalten, wird die Entwicklung dieser Künstlichen Intelligenz schon in Kürze das menschliche Gehirn übertreffen. Wenn sich die IT-Konzerne da mal nicht täuschen! Denn wer glaubt, mit Deep Learning das Denkprinzip des Gehirns geknackt zu haben und schon bald in silico eine Intelligenz zu entwickeln, die uns überflüssig macht, wird sich wundern. Und zwar aus drei Gründen.
Erstens, der Begriff des „neuronalen Netzwerks“ ist ein Marketing-Gag der Computerfirmen. Sie wollen zeigen, wie nah sie dem menschlichen Denken mit ihren Systemen gekommen sind. Doch das sind sie nicht. Und mit den derzeitigen Ansätzen werden sie das auch niemals. Denn ein Gehirn verarbeitet Informationen zwar auch in einem neuronalen Netzwerk – jedoch völlig anders als ein Computer.
Wenn ein Deep-Learning-System ein Objekt erkennen soll, geht es nach einem simplen Prinzip vor: Ein Input (zum Beispiel ein Bild) trifft auf das System. Das System verarbeitet den Input innerhalb des selbstlernenden Netzwerks und liefert schließlich einen Output (zum Beispiel, dass es einen Rauchmelder erkannt hat). Input – Verarbeitung – Output. Doch im Gehirn ist das anders, dort sind Verarbeitung und Output ein und dasselbe. Das klingt kompliziert und lässt sich am ehesten mit einem Orchester vergleichen. Stellen Sie sich vor, Sie schauen auf ein Orchester, während es eine Melodie spielt. Dann versteckt sich diese Melodie im Zustand des Orchesters. Die Melodie ist also nicht irgendwo, sondern gewissermaßen zwischen den Musikern.
Deep Learning dauert lange und muss mit hunderttausenden Bildern trainiert werden. Wenn Menschen das so machen würden, kämen sie geistig nie voran
Genauso ist auch eine Gedankeninformation im Gehirn zwischen den Nervenzellen, wenn sie sich in Ihrer Aktivität synchronisieren. Wenn unser Gehirn einen Input bekommt, verarbeiten die Zellen diesen Reiz – und diese Verarbeitung erleben wir als Gedanken. Ein Gedanke oder eine Information ist daher nicht irgendwo im Gehirn. Es ist die Art und Weise wie sich die Nervenzellen in ihrer Aktivität abstimmen. Zwischen Verarbeitung und Output einer Information besteht kein Unterschied. In einem Orchester gibt es schließlich auch keinen Output-Musikanten, der das musikalische Ergebnis des Orchesters vorträgt.
In einem Deep-Learning-Netzwerk trennt man das hingegen: Der Input wird in einem Netzwerk verarbeitet und anschließend gibt es eine Output-Schicht, die das Ergebnis ausspuckt. Genau deswegen dauert Deep Learning im Vergleich zum menschlichen Lernen lange und muss mit hunderttausenden Bildern trainiert werden. Wenn wir Menschen das so machen würden, kämen wir geistig nie voran.
Denn zweitens gilt: Lernen ist schön und gut, aber nichts Besonderes. Hunde lernen, Delphine lernen, Computer lernen – wir verstehen. Wenn man etwas gelernt hat, kann man es anschließend ver-lernen. Doch einmal verstanden, können wir nicht ent-verstehen. Denn Verstehen bedeutet, dass wir die Art ändern, wie wir eine Information verarbeiten. Und da Verarbeitung und Output im Gehirn ein und dasselbe sind, verstehen wir extrem schnell, manchmal sogar sofort. Etwas, das man in der Neurowissenschaft Fast Mapping nennt.
Es ist wie bei meinem Nachbarn: Er hat den Rauchmelder gleich beim ersten oder zweiten Mal verstanden. Zweijährige begreifen auf diese Weise bis zu zehn neue Wörter pro Tag. Das würde mit einem Deep-Learning-Ansatz nie funktionieren, denn der würde viel zu viel Input benötigen. Auch wissen wir aus Laboruntersuchungen, dass kleine Kinder auf Anhieb das Konzept eines neuen Spielzeugs begreifen können.
Als mich neulich mein zweieinhalbjähriger Nachbar besuchte, schaute er aufmerksam an die Decke meiner Wohnung und sagte plötzlich: „Oh, Rauchmelder!“ In diesem Moment schossen mir drei Gedanken durch den Kopf: Erstens, funktioniert das Ding überhaupt noch? Zweitens, habe ich jemals die Batterien gewechselt? Und drittens, was hat der Bursche nur für Eltern? Entschuldigung, haben sie ihn tagaus tagein mit hunderten Bildern von Rauchmeldern, Löschzügen und Brandäxten trainiert, bis er endlich gelernt hatte, was ein Rauchmelder ist? Und ihn erst zu mir geschickt, nachdem er einen Abschlusstest bestanden hatte?
Wohl nicht. Dabei ist diese Form des Lernens genau das, was derzeit von den IT-Firmen gepriesen wird, die Künstliche Intelligenz entwickeln: Wenn eine moderne „Deep Learning“-Bilderkennungs-Software einen bestimmten Gegenstand (zum Beispiel einen Rauchmelder) erkennen soll, füttert man sie zunächst mit Millionen von irgendwelchen Bildern und zusätzlich mit einigen Fotos von Rauchmeldern. Das System ist dabei ähnlich aufgebaut wie die Nervenzellen in einem menschlichen Gehirn verbunden sind: Es besteht aus vielen Knotenpunkten, die ihre Verbindungen untereinander verstärken oder abschwächen können. Nun braucht man das künstliche Netzwerk nur noch mit möglichst vielen Bildern zu trainieren, damit es sich selbstständig anpasst und schließlich mit 98-prozentiger Sicherheit einen Rauchmelder erkennt.
Wenn Musk, Gates und Hawking recht behalten, übertrifft die Entwicklung der KI schon in Kürze das menschliche Gehirn. Wenn sie sich da mal nicht täuschen!
Die Fortschritte dieser Deep-Learning-Technologie sind wirklich erstaunlich. Die Gesichtserkennung übertrifft die menschlichen Fähigkeiten sogar – und Google verpixelt in Street View mittlerweile auch Kuhgesichter. Wenn Elon Musk, Bill Gates und Stephen Hawking recht behalten, wird die Entwicklung dieser Künstlichen Intelligenz schon in Kürze das menschliche Gehirn übertreffen. Wenn sich die IT-Konzerne da mal nicht täuschen! Denn wer glaubt, mit Deep Learning das Denkprinzip des Gehirns geknackt zu haben und schon bald in silico eine Intelligenz zu entwickeln, die uns überflüssig macht, wird sich wundern. Und zwar aus drei Gründen.
Erstens, der Begriff des „neuronalen Netzwerks“ ist ein Marketing-Gag der Computerfirmen. Sie wollen zeigen, wie nah sie dem menschlichen Denken mit ihren Systemen gekommen sind. Doch das sind sie nicht. Und mit den derzeitigen Ansätzen werden sie das auch niemals. Denn ein Gehirn verarbeitet Informationen zwar auch in einem neuronalen Netzwerk – jedoch völlig anders als ein Computer.
Wenn ein Deep-Learning-System ein Objekt erkennen soll, geht es nach einem simplen Prinzip vor: Ein Input (zum Beispiel ein Bild) trifft auf das System. Das System verarbeitet den Input innerhalb des selbstlernenden Netzwerks und liefert schließlich einen Output (zum Beispiel, dass es einen Rauchmelder erkannt hat). Input – Verarbeitung – Output. Doch im Gehirn ist das anders, dort sind Verarbeitung und Output ein und dasselbe. Das klingt kompliziert und lässt sich am ehesten mit einem Orchester vergleichen. Stellen Sie sich vor, Sie schauen auf ein Orchester, während es eine Melodie spielt. Dann versteckt sich diese Melodie im Zustand des Orchesters. Die Melodie ist also nicht irgendwo, sondern gewissermaßen zwischen den Musikern.
Deep Learning dauert lange und muss mit hunderttausenden Bildern trainiert werden. Wenn Menschen das so machen würden, kämen sie geistig nie voran
Genauso ist auch eine Gedankeninformation im Gehirn zwischen den Nervenzellen, wenn sie sich in Ihrer Aktivität synchronisieren. Wenn unser Gehirn einen Input bekommt, verarbeiten die Zellen diesen Reiz – und diese Verarbeitung erleben wir als Gedanken. Ein Gedanke oder eine Information ist daher nicht irgendwo im Gehirn. Es ist die Art und Weise wie sich die Nervenzellen in ihrer Aktivität abstimmen. Zwischen Verarbeitung und Output einer Information besteht kein Unterschied. In einem Orchester gibt es schließlich auch keinen Output-Musikanten, der das musikalische Ergebnis des Orchesters vorträgt.
In einem Deep-Learning-Netzwerk trennt man das hingegen: Der Input wird in einem Netzwerk verarbeitet und anschließend gibt es eine Output-Schicht, die das Ergebnis ausspuckt. Genau deswegen dauert Deep Learning im Vergleich zum menschlichen Lernen lange und muss mit hunderttausenden Bildern trainiert werden. Wenn wir Menschen das so machen würden, kämen wir geistig nie voran.
Denn zweitens gilt: Lernen ist schön und gut, aber nichts Besonderes. Hunde lernen, Delphine lernen, Computer lernen – wir verstehen. Wenn man etwas gelernt hat, kann man es anschließend ver-lernen. Doch einmal verstanden, können wir nicht ent-verstehen. Denn Verstehen bedeutet, dass wir die Art ändern, wie wir eine Information verarbeiten. Und da Verarbeitung und Output im Gehirn ein und dasselbe sind, verstehen wir extrem schnell, manchmal sogar sofort. Etwas, das man in der Neurowissenschaft Fast Mapping nennt.
Es ist wie bei meinem Nachbarn: Er hat den Rauchmelder gleich beim ersten oder zweiten Mal verstanden. Zweijährige begreifen auf diese Weise bis zu zehn neue Wörter pro Tag. Das würde mit einem Deep-Learning-Ansatz nie funktionieren, denn der würde viel zu viel Input benötigen. Auch wissen wir aus Laboruntersuchungen, dass kleine Kinder auf Anhieb das Konzept eines neuen Spielzeugs begreifen können.
Wenn man sie also einmal intensiv mit einem Auto spielen lässt, dann erkennen sie das Auto später wieder. Und zwar auf Fotos, in Videos, in echt sowie in anderen Formen, Farben und Größen. Wohlgemerkt: Nach einmaligem Kontakt! Dabei geht das Gehirn nicht wie ein Deep-Learning-System vor und korreliert erstmal möglichst viele Daten. Im Gegenteil: Es achtet auf die Unterschiede der Objekte und integriert diese sofort in die Netzwerke, die für das Verständnis zuständig sind. Eine mentale Abkürzung, die wir auch als Erwachsene ständig nutzen.
Wie lange hat es beispielsweise gedauert, bis Sie kapiert hatten, was der Begriff Brexit bedeutet? Einmal in den Nachrichten aufgeschnappt, schon war die Sache klar. Sie haben den Begriff aber nicht gelernt, sondern ihn verstanden, das ist etwas anderes. Denn wenn Sie etwas verstanden haben, dann können Sie neue Sachen damit machen. Wenn Sie wissen, was ein Brexit ist, was könnte dann ein Schwexit sein? Was ein Deuxit oder ein Fraxit? Und besteht noch Hoffnung auf einen Bremain oder gar den Breturn? Noch nie vorher gehört und dennoch verstehen Sie, um was es geht – und das ohne ständiges Üben und Wiederholen wie es ein Deep-Learning-System macht.