Neuromorphic Computing und KI: Neuromorphic Computing-Chips und KI-Hardware

Veröffentlicht von

Der leistungsstärkste, effizienteste Computer, der der Menschheit bekannt ist, ist nicht in den Untiefen von IBM, Google, Facebook oder einer Regierungsbehörde zu finden – und doch hat jeder Zugriff auf diesen Computer. Wie ist das möglich? Es ist möglich, weil es sich beim besten Computer der Welt um das menschliche Gehirn handelt. Das Gehirn verbraucht nur 20 Watt und ist dennoch in der Lage, andere Computernetzwerke zu entwickeln, neue Sprachen zu erschaffen sowie Dinge zu verstehen und zu beeinflussen, die es nicht sehen kann.

Was ist „Neuromorphic Computing”?

Unsere hardwarebasierten Computer und Prozessoren können nicht die gleiche Art von Verarbeitungslasten bewältigen wie das menschliche Gehirn. Das Ziel vieler Programmierer, Hardwarehersteller und Rechenzentren ist es, dies zu ändern. Der Bereich des „Neuromorphic Computing” widmet sich der Kombination von Technologien aus Biologie, Elektrotechnik, Informatik und Mathematik, um künstliche neuronale Systeme zu schaffen, die in der Lage sind, Arbeitslasten ähnlich wie das menschliche Gehirn und Nervensystem zu erfassen und zu verarbeiten.

Neuromorphic Engineering: Die Ursprünge

Der Begriff „Neuromorphic Engineering” wurde ursprünglich in den 1980er Jahren von Carver Mead geprägt, der seit mehr als 40 Jahren Analysesysteme entwickelt, die darauf abzielen, die Sinne und Verarbeitungsmechanismen des menschlichen Körpers zu imitieren, wie z. B. das Berühren, Sehen, Hören und Denken. Neuromorphic Computing ist ein Untergebiet des Neuromorphic Engineering und konzentriert sich hauptsächlich auf den „denkenden” und „verarbeitenden” Bereich dieser menschenähnlichen Systeme. Zwar haben noch nicht sehr viele Menschen tatsächlich von der Neuromorphic Computing-Technologie gehört, doch eine allgemeinere Technologie, die auf diese Systeme und Theorien zurückgreift ist, ist weithin bekannt: die sogenannte künstliche Intelligenz (KI).

Welche Ziele hat künstliche Intelligenz?

Auch wenn es Hunderte von Interpretationen, Teilsätze und Theorien gibt, die definieren, was künstliche Intelligenz eigentlich ist, ist das Ziel aller KI, die Funktionalitäten des menschlichen Verhaltens und Denkens sowie von allgemeinen Aufgaben zu reproduzieren. Natürlich können KI und Neuromorphic Computing in vielerlei Hinsicht synonym verwendet werden, da sie beide versuchen, die menschliche Intelligenz zu replizieren und sogar noch zu übertreffen. Auf gewisse Weise umfasst KI sowohl Neuromorphic Computing als auch Neuromorphic Engineering und schließlich gleichzeitig eine Vielzahl anderer technologischer Facetten ein. Dazu zählen Aufgaben mit hoher Genauigkeit, wie z. B. die Erkennung von Unstimmigkeiten im Herstellungsprozess.

Nach dem derzeitigen Stand der Technik sind Neuromorphic Computing und KI durch die Eigenschaften der Hardware begrenzt, auf der diese System ausgeführt werden. Zwar werden diese Hardware-Technologien durch das Mooresche Gesetz immer weiterentwickelt, doch sie kommen in Bezug auf die Rechenleistung her nicht annähernd an die Fähigkeiten des menschlichen Gehirns heran – von der Energieeffizienz ganz zu schweigen. Obwohl sie weit davon entfernt sind, menschenähnlich zu sein, wurden bei diesen Rechensystemen in den letzten zehn Jahren enorme Fortschritte gemacht und sie werden zweifellos die Ziele des Neuromorphic Computing-Marktes weiter unterstützen.

KI-Hardware: Neuromorphic Computing-Chips

Ein perfekter neuromorpher Chip, der das menschliche Gehirn identisch abbildet, könnte als utopisches Vorhaben wahrgenommen werden, das niemals umgesetzt wird. Da sich das Rechengerüst zwischen Mensch und Maschine jedoch grundlegend unterscheidet (d. h., Silizium ist keine graue Substanz), gibt es viele Lektionen, die Informatiker, die an neuromorpher Technologie arbeiten, vom Gehirn und seiner grundlegende Biologie lernen können. Viele Chip-Architekturen wurden – sowohl aus der Software- als auch aus Hardware-Sicht – stark von den Erkenntnissen des Neuromorphic Computing beeinflusst. Dies führte zu vielen neuen Versionen von Silizium-Architekturen, die darauf ausgelegt sind, neuronale Rechenleistungen zu erreichen. Weiter verbreitete Chip-Technologien wie FPGAs und ASICs wurden durch Neuromorphic Computing-Strategien kontinuierlich optimiert und sogar für KI-Workloads eingesetzt.

Die Grafikverarbeitungseinheit (GPU) wurde ursprünglich für die Verarbeitung von Grafikrechenlasten entwickelt, aber dann aufgrund ihrer parallelen Belastbarkeit schnell für die Entwicklung von KI-Algorithmen der weiter verbreiteten CPU-Technologie vorgezogen. GPUs sind immer leistungsfähiger geworden und werden oft als dedizierte Beschleuniger für neuronale Netzwerke eingesetzt, um KI-Workloads zu bewältigen. NVIDIA, das weithin als Vorreiter bei der Entwicklung modernster GPU-Technologie gilt, hat spezielle Edge-Computing-Geräte wie das NVIDIA Jetson Xavier Developer Kit entwickelt, um KI-Workloads für Geräte wie autonome Roboter und Sicherheitssysteme mit Gesichtserkennung ausführen zu können.

Die Mathematik in KI-Software spielt eine wichtige Rolle bei der Ausführung von KI-Programmen. Ein mathematisches Objekt, das in diesen Prozessen oft verwendet wird, heißt „Tensor”. Stellen Sie sich einen Tensor als eine multidimensionale Matrix vor, die in Abhängigkeit vom KI-Programm skaliert und verändert werden kann. Ohne weiter auf die Theorie hinter der Struktur von KI-Programmen und -Algorithmen einzugehen, sollten Sie wissen, dass die Tensor-Mathematik für die moderne künstliche Intelligenz unerlässlich ist. Sie ist sogar so wichtig, dass Google seine eigene Tensor-Verarbeitungseinheit (Tensor Processing Unit, TPU) entwickelt hat. Dabei handelt es sich um einen Chip, der speziell für die Verarbeitung von Tensor-Mathematik-Lasten entwickelt wurde. Während die TPU-Technologie vor allem in den Rechenzentren eingesetzt wird, hat Google auch Google Coral-Produkte geschaffen, die tensorintensive Programme entwickeln.

Intel Labs, die Forschungsabteilung des bekanntlich CPU-zentrierten Unternehmens, hat den Loihi-Chip entwickelt. Dieser speziell entwickelte neuromorphe Forschungschip zielt darauf ab, eine neuronale Struktur der grauen Substanz in kleinem Umfang zu modellieren und zu simulieren. Der Loihi-Chip enthält fast 130.000 verbundene Silizium-„Neuronen” und soll die Grundlage für die nächste Generation von KI-Hardware bilden. In einem Fall hat Intel Labs ein Gerät namens „Pohoiki Beach” entwickelt, das 64 Loihi-Chips zu einem Netzwerk mit 8 Millionen Neuronen kombiniert. Ein solches Programm für ein neuronales Netzwerk zu entwickeln, das auf diesem Gerät ausgeführt wird, ist sicherlich keine einfache Aufgabe, und Intel Labs optimiert die Programme ständig für den Betrieb. Im Jahr 2020 plant Intel, bis zu 100.000 Loihi-Chips zu einem neuromorphen Computer mit 100 Millionen Neuronen zu kombinieren, der bei seiner Fertigstellung der leistungsfähigste Computer auf dem Markt sein könnte.

Die Zukunft von Neuromorphic Computing

Neuromorphic Computing ist zwar noch ein sehr junges Teilgebiet der Informatik, hat aber sein volles Potenzial noch nicht ausgeschöpft. Neuromorphic Computing verspricht, zumindest eine leistungsfähige Methode zur Entwicklung futuristischer Computerhardware und revolutionärer KI-Software zu sein. Wenn sich die Technologie als der Erfolg erweist, den einige für sich beanspruchen, könnte Neuromorphic Computing die Geheimnisse des Bewusstseins bergen und die letzte Erfindung sein, die jemals von Menschen gemacht wird. Paradoxerweise könnte diese Technologie die Erforschung des menschlichen Gehirns beeinflussen und eine genauere Simulation und Modellierung der weichen grauen Substanz zwischen unseren Ohren ermöglichen, die die Welt, wie wir Sie kennen, erschaffen hat. Es können intelligentere, mit „Menschenverstand” ausgestattete Algorithmen entstehen, die alltägliche Aufgaben effizienter erledigen als die Menschen selbst. Neuromorphic Computing könnte die Antwort auf selbstfahrende Autos und autonome Maschinen sein – das wird jedoch erst die Zukunft zeigen.

 

Neue Beiträge

Leider ergab Ihre Suche kein Ergebnis

Aktuelles über Elektronikkomponenten­

Wir haben unsere Datenschutzbestimmungen aktualisiert. Bitte nehmen Sie sich einen Moment Zeit, diese Änderungen zu überprüfen. Mit einem Klick auf "Ich stimme zu", stimmen Sie den Datenschutz- und Nutzungsbedingungen von Arrow Electronics zu.

Wir verwenden Cookies, um den Anwendernutzen zu vergrößern und unsere Webseite zu optimieren. Mehr über Cookies und wie man sie abschaltet finden Sie hier. Cookies und tracking Technologien können für Marketingzwecke verwendet werden.
Durch Klicken von „RICHTLINIEN AKZEPTIEREN“ stimmen Sie der Verwendung von Cookies auf Ihrem Endgerät und der Verwendung von tracking Technologien zu. Klicken Sie auf „MEHR INFORMATIONEN“ unten für mehr Informationen und Anleitungen wie man Cookies und tracking Technologien abschaltet. Das Akzeptieren von Cookies und tracking Technologien ist zwar freiwillig, das Blockieren kann aber eine korrekte Ausführung unserer Website verhindern, und bestimmte Werbung könnte für Sie weniger relevant sein.
Ihr Datenschutz ist uns wichtig. Lesen Sie mehr über unsere Datenschutzrichtlinien hier.