Désormais Vous n’avez aucune excuse pour oublier les boucles d’oreilles, les anniversaires ou la table de multiplication.
Oublier de culpabiliser votre cerveau parce qu’une étude de l’Institut Salk a découvert que nous avons la capacité de mémoire d’un pétaoctet, qui équivaut à 1,000,000,000,000,000 octets, un nombre qui est supérieure à 10 fois la capacité que l’on croyait avoir. Pour mettre ce nombre énorme en perspective, un pétaoctet est suffisant pour que vous puissiez apprendre 4700 millions de livres.
Pour arriver à cette conclusion, le scientifique Terry Sejnowski a mesuré la capacité de stockage qui existe au niveau de chaque Synapse – des connexions électrochimiques entre les neurones qui permettent aux cellules de communiquer et de rendre la pensée possible. La Synapse fonctionne comme ceci : un neurone libère une petite décharge électrique d’une de ses branches appelées axones qu’un autre neurone peut recevoir avec l’une de ses branches appelées dendrite. Entre les neurones, il y a des substances appelées neurotransmetteurs qui aident à ce que les téléchargements d’informations arrivent d’une cellule à l’autre. La nouvelle découverte a eu lieu lorsque l’équipe de Sejnowski a fait une représentation 3D du tissu de l’hippocampe – place centrale de la mémoire – d’une souris. Alors que lorsque les scientifiques ont analysé cette partie du cerveau, ils ont trouvé qu’un neurone peut envoyer deux signaux électriques en même temps à un deuxième neurone ; ils ont mesuré et comparé les deux synapses et ont noté qu’ils n’étaient pas de la même taille, l’un était 8 % plus grand que l’autre. Sur cette base, les chercheurs ont constaté qu’il y a 26 tailles de synapses et elles peuvent changer leurs actions en fonction des réception des signaux – les plus petites le font chaque 1 500 connexions (20 minutes) et les plus importantes, chaque 2-, ce processus s’appelle la plasticité synaptique.
Si l’on considère que la mémoire dépend de la taille des synapses et il y a des millions d’entre eux dans le cerveau, leur différence de taille fait que les scientifiques ont ajusté les formules algorithmiques pour arriver à la conclusion que nous sommes capable de stocker 4,7 bits d’information pour chaque Synapse.
“Nous avons découvert la clé de démêler le principe utilisé par les neurones dans l’hippocampe pour un fonctionnement à faible puissance, mais grande efficacité en terme de calcul”. Sejnowski.
Cette découverte aidera à expliquer l’efficacité surprenante du cerveau.