Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Der Hype um KI lässt eine neue Chip-Generation entstehen

von Bernd Skischally
Grips auf Chips: Wenn Künstliche Intelligenz auf Software-Ebene immer besser wird, muss auch die Hardware mitwachsen. Gut, dass Forscher längst an mitlernenden Systemen arbeiten.

Gut, dass Gamer unersättlich sind: Ihr Hunger auf Rechenpower trieb Entwickler von Grafikchips zu immer neuen Höchstleistungen an. Die große Stärke dieser Prozessoren ist das parallele Verarbeiten mehrerer Rechenschritte – genau das, was auch künstliche Intelligenz verlangt. Nun fördert der KI-Boom die Arbeit an Hardware eigens für mitlernende Systeme.

Beim DGX-1 des Grafikchip-­Marktführers Nvidia passt in ein einziges, tischgroßes Gehäuse, was früher ganze Serverräume gefüllt hätte. Durch die Spezialisierung auf Deep Learning laufe das Training neuronaler Netze bis zu 75-mal schneller ab, verspricht Nvidia. Ähnliche Fortschritte soll die Technologie des Startups Nervana bringen, das Intel unlängst gekauft hat.

Ein Neuron beschreiben wir nicht durch eine Gleichung, sondern in Form von elektronischen Elementen

Karlheinz Meier, Projektleiter beim Human Brain Project

An der grundsätzlichen Bauweise der Prozessoren, die alle Eingaben auf Nullen und Einsen reduzieren, halten aber auch solche Systeme fest. Ganz anders der Supercomputer BrainScaleS an der Universität Heidelberg, der als Teil des europäischen Human Brain Project entwickelt wurde: Er basiert auf sogenannten neuromorphen Chips, deren Ziel es ist, Aufbau und Funktion menschlicher Gehirnzellen auf Silizium nachzubilden.

Statt die Verbindungen der Neuronen und Synapsen per Software zu simulieren, „bauen wir ein physikalisches Modell“, sagt Projektleiter Karlheinz Meier. „Ein Neuron beschreiben wir nicht durch eine Gleichung, sondern in Form von elektronischen Elementen.“

Wo etwa die Biologie auf Zelle und Zellmembran setzt, um Informationen zu filtern, nutzen die Computeringenieure Widerstände und Kondensatoren. „In gewisser Weise sind das Analogrechner“, erklärt Meier, denn die künstlichen Neuronen reagieren auch auf Spannungsstärken – ähnlich wie Nervenzellen im Gehirn, die Signale senden, wenn ein bestimmtes Aktionspotenzial erreicht wird.

Das künstliche Gehirn kann in Nanosekunden operieren, tausendmal schneller als die Biologie. Mit vier Millionen Neuronen ist BrainScaleS zwar noch sehr schlicht, doch gerade beim Lernen soll sich die Beschleunigung auszahlen – bei gleichzeitig sinkendem Energieverbrauch. Die neue Chip-Architektur verlangt allerdings auch neue Wege der Programmierung: „Es ist eine ganz andere Art der Informationsverarbeitung“, sagt Meier. „Die müssen wir erst lernen.“

Dieser Artikel stammt aus der Herbstausgabe 2016 des WIRED-Magazins. Weitere Themen: der Web.de-Gründer und seine Suche nach dem ewigen Leben, ein Blockchain-Krimi aus Sachsen, Udacity-Gründer Sebastian Thrun, die Zukunft des Fliegens – und ein Punk, der uns vor der NSA schützen will.

GQ Empfiehlt