Könnte Ihr Gehirn alle Informationen im Web speichern?

Der Titel klingt unverschämt. Die unterstützenden Daten stammen jedoch aus der Forschung des renommiertesten Salk-Instituts. Andere Forscher hatten enorme Speicherkapazitätsschätzungen für Gehirne gemacht, aber diese neue Schätzung ist 10 mal größer. Die Schätzung liegt in der Größenordnung von Petabyte, genauso wie das gesamte World Wide Web.

Wie kommt jemand auf solche Schätzungen? Was ist die Grundvoraussetzung? Zuerst wird der Speicher hinsichtlich der Anzahl der Informationsbits quantifiziert, die gespeichert und wiederhergestellt werden können. Im Falle des Gehirns stellt sich die Frage, wie viel Information in einer Synapse, der kommunizierenden Verbindung zwischen Neuronen, gespeichert werden kann. Größe und Betriebsstärke einer Synapse sind die Schlüsselvariablen: Stärke kann in Bits gemessen werden und Stärken korrelieren mit der synaptischen Größe von Umbra und Größe. Unter hoher Vergrößerung sehen Synapsen wie ein Bündel Perlen auf einer Schnur aus. Das neugeborene Gehirn, es gibt relativ wenige "Perlen", aber diese wachsen in Anzahl und Größe, während das Baby wächst und Dinge lernt. Leider verschwinden im hohen Alter viele dieser Perlen, wenn das Gehirn nicht sehr aktiv ist.

In der Salk-Studie an Rattengehirnen ermöglichten elektronenmikroskopische Aufnahmen der Gedächtnis-bildenden Struktur, des Hippocampus, die 3D-Rekonstruktion und den Nachweis der Durchmesser von Synapsen, die die synaptischen Zielstrukturen in Neuronen sind. Synaptische Stärke korreliert mit der Speicherkapazität, und die Stärke wird durch die Größe der Synapsen gemessen, die als eine runde Perle erscheinen, die an einem Stiel oder Hals an der stützenden neuronalen Membran befestigt ist. Die Größe der Perle variiert mit der synaptischen Stärke, da die synaptische Stärke durch eine molekulare Maschinerie zur Vermittlung der synaptischen Kommunikation erzeugt wird. Somit ist die Größe der Rückenperle ein Proxy für synaptische Stärke und Speicherkapazität.

Die Forscher fanden heraus, dass ein kleiner Würfel aus Hirngewebe 26 verschiedene Perlengrößen enthielt, die jeweils mit einer ausgeprägten synaptischen Stärke assoziiert waren. Die Autoren geben an, dass dies ungefähr 4,7 Bits an jeder Synapse entspricht. Multiplizieren Sie 4,7 mal die Billionen von Synapsen und Neuronen im Gehirn und Sie erhalten phänomenale Speicherkapazität.

Während ich über die elegante Komplexität dieser Forschungsmethoden staune, denke ich, dass die Interpretationen ein wenig vereinfacht sind. Es gibt einige Vorbehalte, die die Autoren übersehen haben. Zum einen wird angenommen, dass die Anzahl der Speicherbits gleich dem Logarithmus der Anzahl der Kügelchengrößen ist. Das "Bit" ist eine Informationseinheit in der digitalen Kommunikation. Die Informationstheorie besagt, dass ein Bit die Wahrscheinlichkeit einer binären Zufallsvariablen ist, die 0 oder 1 ist, oder mehr, die lose als vorhanden oder nicht vorhanden definiert ist. Man muss einige Freiheiten nehmen, um dieses Konzept auf die Gedächtnisspeicherung im Gehirn anzuwenden, weil das Gehirn kein digitaler Computer ist. Es ist ein analoger biologischer Computer.

Dann gibt es das Problem, dass der Hippocampus nur mit der Bildung von deklarativen und episodischen Erinnerungen befasst ist, nicht mit prozeduralen Erinnerungen wie Tippen oder Klavier spielen. Somit wird die Speicherkapazität, was auch immer es ist, nicht für prozedurale Speicher geschätzt. Zweitens werden deklarative und episodische Erinnerungen nicht im Hippocampus gespeichert, sondern im Gehirn verteilt gespeichert. Da synaptische Messungen nur an Hippocampusgewebe vorgenommen wurden, gibt es keine Daten für den Rest des Gehirns.

Aber es gibt ein größeres Problem. Woher weiß man, wie viele Bits es braucht, um verschiedene Erinnerungen darzustellen? Nicht alle Speicher sind gleich und sicherlich benötigen sie nicht alle die gleiche Anzahl von Speicherbits.

Tatsächlich ist die genaue Anzahl von Informationsbits, die Gehirne speichern können, eher irrelevant. In jeder Hinsicht lehrt die allgemeine Erfahrung, dass niemand seine gesamte Speicherkapazität ausnutzt. Darüber hinaus variiert die Menge an Information, die eine gegebene Person speichert, stark abhängig von Variablen wie Motivation, sich an Dinge zu erinnern, Mnemonik und Bildungsniveau. Die Frage, die beantwortet werden muss, ist die Frage: "Warum erinnern wir uns nicht mehr als wir?" Bücher wie meine Memory Power 101 bieten einige praktische Antworten.

Quelle:

Bartol, Thomas M. et al. (2015). Neurokonnektomische Obergrenze für die Variabilität der synaptischen Plastizität. eLIfe. 30. November. Http://dx.doi.org/10.7554/eLife.10778