Das profil des erfinders
<Wink>
---------------------------------------------------------
Das Gehirn ist ein sehr aktives Organ und hat einen enormen Sauerstoff- und Energiebedarf. Es macht etwa 2 % der Körpermasse aus, aber dennoch müssen etwa 20 % des Bluts (Herzminutenvolumen) vom Herzen ins Gehirn gepumpt werden. Da das Gehirn nur äußerst geringe Speicherkapazitäten für Sauerstoff und Energie besitzt, führt bereits ein kurzzeitiger Ausfall der Blutversorgung zu Hirnschäden.
Der historische Irrglaube, Genialität müsse am (nach dem Tode entnommenen) Gehirn ablesbar sein, ist so alt wie die Hirnerforschung und wird selbst heute noch gelegentlich fortgeführt. Der Sachbuchautor Michael Hagner lieferte u. a. anhand der Hirnbesonderheiten vieler Persönlichkeiten wie Immanuel Kant, Vladimir Iljitsch Lenin oder Albert Einstein nebenher eine Geschichte der Hirnforschung sowie themenbezogene Einblicke in die Kultur- und Sozialgeschichte der vergangenen drei Jahrhunderte. Nicht wenige Hirnforscher gerieten dabei auch ins Fahrwasser nationalistischen und völkisch-rassistischen Denkens.
Oft werden Vergleiche zwischen der Leistungsfähigkeit eines Computers und der des menschlichen Gehirns angestellt. Seit das Gehirn als Sitz kognitiver Leistung erkannt wurde, wurde es in der Literatur immer mit dem komplexesten verfügbaren technischen Apparat verglichen (Dampfmaschine, Telegraph). So versuchte man auch, aus der Funktionsweise von Computern auf die Funktionsweise des Gehirns zu schließen. Heute dagegen versucht man in der Neuroinformatik, die Funktionsweise des Gehirns teilweise auf Computern nachzubilden bzw. durch diese auf neue Ideen zur "intelligenten" Informationsverarbeitung zu kommen. Als Struktur für Denk- und Wissensproduktion liefert das Gehirn eine Architektur, die sich zur Nachahmung empfiehlt. Künstliche neuronale Netzwerke haben sich bereits bei der Organisation künstlicher Intelligenzprozesse etabliert.
Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während das menschliche Gehirn etwa 1013 bis 1016 analoge Rechenoperationen pro Sekunde schafft und dabei etwa 100 Watt an chemischer Leistung verbraucht, schafft der Supercomputer Blue Gene/L von IBM bis zu 3,6·1014 Gleitkommaoperationen pro Sekunde mit doppelter Genauigkeit, wozu jedoch etwa 1,2 Megawatt Strom benötigt werden. Intels erster Teraflop-Chip Prototyp „Terascale“ mit 80 Cores schafft hingegen etwa 1012 Gleitkommaoperationen mit einfacher Genauigkeit bei 85 Watt (oder 2·1012 Gleitkommaoperationen bei 190 Watt bei 6,26 GHz) – was immer noch dem 10- bis 1000-fachen Strombedarf entspricht. Zwar erreichen moderne 3D-Grafikkarten vergleichbare Werte bei geringerem elektrischen Leitungsbedarf, allerdings sind Grafikchips stärker auf bestimmte Rechenvorgänge spezialisiert.
Hierbei gilt es jedoch zu beachten, dass die hohe Rechenleistung des Gehirns vor allem durch seine vielen hochparallelen Verbindungen (siehe auch: Konnektivität) und nicht durch eine hohe Geschwindigkeit bei den einzelnen Rechenvorgängen (Taktfrequenz) erzielt wird. Zudem treten bei analogen Rechenvorgängen Ungenauigkeiten auf, die bei der digitalen Verarbeitung vermieden werden.
Zusätzlich zur Parallelisierung stellt ein neuronales Netzwerk gleichzeitig sowohl Speicher- als auch Verarbeitungslogik dar, während bei Computern, welche auf der Von-Neumann-Architektur basieren, diese getrennt sind. Dies bewirkt, dass mit jedem Taktzyklus in einem Neuronalen Netzwerk der gesamte Speicher aktualisiert wird, während ein Computer den Inhalt des Speichers schrittweise aktualisieren muss.
Rechenvorgänge, die auf einem Computer effizient ablaufen, sind meist nicht effizient in einem Neuronalen Netzwerk abbildbar und umgekehrt. Aufgrund dieser Ineffizienz von bestehenden Computerarchitekturen für bestimmte Aufgaben wie etwa dem Sehen, versucht man Neuronale Netzwerke wie etwa dasjenige des Neocortex nachzubilden. Eines dieser Modelle ist der hierarchische Temporalspeicher, welcher derzeit in Software abgebildet wird, und der nur aufgrund starker Vereinfachungen in Echtzeit lauffähig ist. Bei der Simulation von Neuronen auf Computern stellt sich nämlich das Problem, dass Computerchips und Neuronen völlig andere Architekturen darstellen und eine Simulation daher extrem rechenaufwendig ist. Blue Gene kann „nur“ etwa 10.000 Neuronen simulieren, das zwar auch nicht in Echtzeit, dafür aber mit einem vollständigen Modell. Aufgrund dessen gibt es Bestrebungen, solche Neuronalen Netzwerke in Hardware zu implementieren. Dieser Vorgang wird als Neuromorphing bezeichnet.