Votre cerveau pourrait stocker toutes les informations sur le Web?

Le titre semble scandaleux. Mais les données de soutien proviennent de la recherche à l'Institut Salk le plus prestigieux. D'autres chercheurs ont fait d'énormes estimations de capacité de stockage pour les cerveaux, mais cette nouvelle estimation est 10 fois plus importante. L'estimation est de l'ordre de pétaoctets, autant que l'ensemble du World Wide Web.

Comment quelqu'un propose-t-il de telles estimations? Quelle est la prémisse de base? Premièrement, la mémoire est quantifiée en termes de nombre de bits d'information qui peuvent être stockés et récupérés. Dans le cas du cerveau, la question est de savoir combien d'informations peuvent être stockées dans une synapse, la jonction communicante entre les neurones. La taille et la force opérationnelle d'une synapse sont les variables clés: la force peut être mesurée en bits et les forces sont en corrélation avec l'ombre et la taille de la taille synaptique. Sous fort grossissement, les synapses ressemblent à un groupe de perles sur une chaîne. Le cerveau du nouveau-né, il y a relativement peu de "perles", mais celles-ci augmentent en nombre et en taille à mesure que le bébé grandit et apprend des choses. Malheureusement, dans la vieillesse, beaucoup de ces perles disparaissent à moins que le cerveau reste très actif.

Dans l'étude de Salk sur les cerveaux de rats, des micrographies électroniques de la structure formant la mémoire, l'hippocampe, ont permis la reconstruction 3D et la détection des diamètres des synapses, qui sont les structures synaptiques cibles dans les neurones. La force synaptique est en corrélation avec la capacité de stockage, et la force est mesurée par la taille des synapses, qui apparaissent comme une perle ronde attachée à une tige ou un cou à la membrane neuronale de soutien. La taille de la perle varie avec la force synaptique parce que la force synaptique est créée par plus de machinerie moléculaire pour la médiation de la communication synaptique. Ainsi, la taille du cordon de la colonne vertébrale est un indicateur de la force synaptique et de la capacité de stockage.

Les chercheurs ont découvert qu'un petit cube de tissu cérébral contenait 26 tailles de billes différentes, chacune associée à une force synaptique distincte. Les auteurs déclarent que cela équivaut à environ 4,7 bits d'information à chaque synapse. Multipliez 4,7 fois les billions de synapses et les neurones dans le cerveau et vous obtenez une capacité de stockage phénoménale.

Bien que je m'émerveille de l'élégante complexité de ces méthodes de recherche, je pense que les interprétations sont un peu simplistes. Il y a quelques mises en garde que les auteurs ont oubliées. Pour un, une hypothèse est faite que le nombre de bits de stockage est égal au logarithme du nombre de tailles de perles. Le "bit" est une unité d'information dans les communications numériques. La théorie de l'information soutient qu'un bit est la probabilité d'une variable aléatoire binaire qui est 0 ou 1, ou plus vaguement défini comme présent ou absent. Il faut prendre quelques libertés pour appliquer ce concept au stockage de la mémoire dans le cerveau, car le cerveau n'est pas un ordinateur numérique. C'est un ordinateur biologique analogique.

Ensuite, il y a le problème que l'hippocampe ne traite que de former des souvenirs déclaratifs et épisodiques, et non des souvenirs procéduraux comme la frappe au clavier ou le piano. Ainsi, la capacité de stockage, quelle qu'elle soit, n'est pas estimée pour les mémoires procédurales. Deuxièmement, les souvenirs déclaratifs et épisodiques ne sont pas stockés dans l'hippocampe, mais plutôt stockés de manière distribuée dans tout le cerveau. Puisque les mesures synaptiques ont été faites seulement sur le tissu d'hippocampe, il n'y a aucune donnée pour le reste du cerveau.

Mais il y a un problème plus important. Comment sait-on combien de bits il faut pour représenter différents souvenirs? Toutes les mémoires ne sont pas identiques et sûrement elles ne requièrent pas toutes le même nombre de bits de stockage.

En fait, le nombre exact de bits d'information que les cerveaux peuvent stocker est plutôt hors de propos. À tout point de vue, l'expérience commune enseigne que personne n'utilise toute sa capacité de mémoire. De plus, la quantité d'informations qu'une personne stocke varie profondément en fonction de variables telles que la motivation à se souvenir des choses, l'utilisation des moyens mnémotechniques et le niveau d'éducation. La question à laquelle il faut répondre, étant donné que nous avons de grandes quantités de capacité de stockage inutilisée, est «Pourquoi ne nous souvenons-nous pas plus que nous?» Des livres comme Memory Power 101 fournissent des réponses pratiques.

La source:

Bartol, Thomas M. et al. (2015). Limite supérieure neuroconnectomique de la variabilité de la plasticité synaptique. eLIfe. 30 nov. Http://dx.doi.org/10.7554/eLife.10778