Kurze Antwort: Neuromorphe Chips ahmen die neuronale Architektur des Gehirns nach, um Informationen mittels elektrischer Impulse anstelle von binären Taktsignalen zu verarbeiten. Bis 2030 wird prognostiziert, dass diese Chips für KI-Workloads eine 1.000-fach bessere Energieeffizienz als herkömmliche CPUs liefern werden – was die Funktionsweise von Computern auf Hardware-Ebene grundlegend verändert.
Die CPU hat eine außergewöhnliche 60-jährige Erfolgsgeschichte hinter sich. Vom 4-Bit Intel 4004 im Jahr 1971 bis zu den heutigen 3-nm-Kolossen mit über 100 Milliarden Transistoren hat die von-Neumann-Architektur jede digitale Revolution angetrieben, die Sie je miterlebt haben. Aber hier ist die unangenehme Wahrheit, die Ingenieure nicht laut genug aussprechen: Der CPU gehen die physikalischen Grenzen aus.
Das Mooresche Gesetz stirbt auf dem Operationstisch. Das Dennard-Skalierung – das Prinzip, das es Chips ermöglichte, schneller zu werden, ohne mehr Strom zu verbrauchen – brach um 2005 zusammen. Heute erzeugt das Verkleinern von Transistoren so viel Wärme, dass der Chip selbst zum Engpass wird. Wir haben es nicht mit einem Softwareproblem oder einem Designphilosophieproblem zu tun. Wir stehen vor einer fundamentalen Wand in der Siliziumphysik.
Die KI-Ambitionen der Welt, autonome Fahrzeuge, Edge Computing und Echtzeit-Sensorfusion erfordern eine Verarbeitung, die gleichzeitig schnell, effizient und massiv parallel ist. Die CPU und sogar die GPU wurden nicht für diese Kombination entwickelt. Etwas anderes schon: Ihr eigenes Gehirn.
Was neuromorphes Computing wirklich ist (und was nicht)
Die meisten Erklärungen zu neuromorphen Chips ertrinken in neurowissenschaftlichem Fachjargon. Bringen wir es auf den Punkt.
Eine herkömmliche CPU arbeitet nach einem Taktsignalmodell: Sie ruft Anweisungen ab, führt sie sequenziell aus und wartet. Selbst Mehrkernprozessoren schieben Daten im Grunde zwischen Speicher und Verarbeitungseinheiten hin und her – ein Designfehler, der als „von-Neumann-Engpass“ bezeichnet wird. Jeder Speicherzugriff kostet Energie und Zeit.
Neuromorphe Chips verlassen dieses Modell vollständig. Stattdessen basieren sie auf spiking neural networks (SNNs), bei denen künstliche Neuronen elektrische Impulse – Spikes – nur dann abfeuern, wenn der Input einen Schwellenwert überschreitet. Genau wie biologische Neuronen.
Dies ist aus drei Gründen wichtig:
- Ereignisgesteuerte Berechnung: Neuronen feuern nur, wenn es etwas zu verarbeiten gibt. Keine Aktivität = nahezu null Stromverbrauch.
- Ko-lokalisierter Speicher und Verarbeitung: Daten wandern nicht zwischen einem Prozessor und dem RAM. Die Berechnung findet dort statt, wo die Daten leben.
- Massive Parallelität standardmäßig: Millionen künstlicher Synapsen feuern gleichzeitig, nicht sequenziell.
Das Ergebnis? Intels Loihi 2-Chip kann bestimmte KI-Inferenzaufgaben mit 1.000-fach weniger Energie ausführen als eine GPU, die dieselbe Arbeitslast bewältigt. IBMs NorthPole-Chip zeigte, dass das Entfernen von Off-Chip-Speicherzugriffen den Energieverbrauch um das 25-fache senken und den Durchsatz verdreifachen kann.
Die Hardware-Akteure, die die Post-CPU-Welt bauen
Dies ist keine spekulative Forschung, die in akademischen Kellern stattfindet. Der industrielle Fahrplan steht bereits fest.
Intel Loihi 2
Intels neuromorpher Chip der zweiten Generation (2021) enthält 1 Million künstliche Neuronen und 120 Millionen Synapsen auf einem einzigen Chip. Er ist für spärliche, ereignisgesteuerte Workloads konzipiert – man denke an Echtzeit-Robotiksteuerung, Geruchserkennung (ja, IBM hat ihn zur Identifizierung chemischer Gerüche eingesetzt) und adaptives Lernen. Intels Hala Point System, das 2024 vorgestellt wurde, skaliert dies auf 1,15 Milliarden Neuronen – und ist damit das größte neuromorphe System der Welt, das die Größe eines kleinen Säugetiergehirns erreicht.
IBM NorthPole
Der Ende 2023 veröffentlichte NorthPole ist im Spiking-Sinne nicht streng „neuromorph“, aber er implementiert das Kernprinzip: kein Off-Chip-Speicher. Alles befindet sich auf dem Chip. Die in Science veröffentlichten Ergebnisse zeigten, dass NorthPole bei Bilderkennungsaufgaben eine 22-fach bessere Energieeffizienz als Nvidias A100 GPU erreichte. So sieht ein vom Gehirn inspiriertes Design in einem kommerziellen Produkt aus.
BrainScaleS & SpiNNaker (EU Human Brain Project)
Das €1 Milliarde teure Human Brain Project der EU hat zwei unterschiedliche neuromorphe Plattformen hervorgebracht. SpiNNaker (Spiking Neural Network Architecture) an der University of Manchester verwendet 1 Million ARM-Kerne, um spiking neuronale Netze in Echtzeit zu simulieren. BrainScaleS in Heidelberg arbeitet schneller als die biologische Zeit – seine Analogschaltungen simulieren neurale Dynamiken 1.000-mal schneller als das tatsächliche Gehirn.
Warum das für KI, Edge Devices und Sie wichtig ist
Der kommerzielle Wendepunkt ist nicht 2030 – er beginnt bereits.
Die Energiekosten von KI werden zu einem zivilisatorischen Problem. Das Training von GPT-4 verbrauchte schätzungsweise 50 GWh Strom. Der tägliche Betrieb von Milliarden von Anfragen verbraucht Strom in einem Tempo, das Rechenzentren zu den am schnellsten wachsenden Energieverbrauchern weltweit macht. Ein neuromorpher Ansatz für die Inferenz könnte diesen Verbrauch um Größenordnungen senken.

