- Les synapses sont des espaces entre les neurones qui permettent la transmission des informations.
- Elles auraient une capacité de stockage dix fois plus importante que ce qui était imaginé auparavant.
- Des chercheurs ont fait cette découverte en utilisant de nouveaux outils informatiques sur les synapses de rats.
Notre cerveau est plus fort que ce que nous imaginions. Dans la publication spécialisée Neural Computation, des scientifiques de l’institut Salk, aux États-Unis, expliquent avoir découvert que les connexions neuronales sont capables de stocker dix fois plus d’informations que ce qu’ils pensaient jusqu’alors. "Lorsqu’un message traverse le cerveau, il passe de l’extrémité d’un neurone, appelée dendrite, à une autre, expliquent les auteurs. Chaque dendrite est recouverte de minuscules appendices bulbeux, appelés épines dendritiques, et à l'extrémité de chaque épine dendritique se trouve la synapse, un petit espace où les deux cellules se rencontrent et où un signal électrochimique est transmis." Ces synapses sont activées pour envoyer différents messages entre les neurones.
Comment les synapses impactent-elles notre mémoire ?
Grâce à des techniques informatiques, les scientifiques américains ont créé un outil permettant de mesurer la force synaptique, la précision de la plasticité et la quantité de stockage d’informations. "La quantification de ces trois caractéristiques synaptiques peut améliorer la compréhension scientifique de la manière dont les humains apprennent et se souviennent, ainsi que de la manière dont ces processus évoluent au fil du temps ou se détériorent avec l'âge ou la maladie", indiquent les auteurs.
Des capacités de stockage importantes dans les synapses
Ils ont notamment appliqué les concepts de la théorie de l’information, un outil mathématique de compréhension du traitement de l’information. Ils l’ont utilisé sur les paires de synapses d'un hippocampe de rat, une partie du cerveau impliquée dans l'apprentissage et la mémoire, pour déterminer ces trois paramètres. "Nous avons divisé les synapses par force, parmi lesquelles il y avait 24 catégories possibles, puis comparé des paires de synapses pour déterminer avec quelle précision la force de chaque synapse est modulée", développe Mohammad Samavat, auteur principal de l’étude. Ils ont remarqué des similitudes dans la force des différentes synapses, "ce qui signifie que le cerveau est très précis lorsqu'il affaiblit ou renforce les synapses au fil du temps", indique le chercheur.
En parallèle, ils ont mesuré la quantité d’informations contenues dans les différentes catégories. "Chacune des 24 catégories de force synaptique contenait une quantité similaire (entre 4,1 et 4,6 bits) d’informations, concluent-ils. Par rapport aux techniques plus anciennes, cette nouvelle approche utilisant la théorie de l'information est plus approfondie, représentant 10 fois plus de stockage d'informations dans le cerveau qu'on ne le pensait auparavant."
Une technique prometteuse pour l’étude du cerveau
Pour les scientifiques, ce nouvel outil de mesure de la force et la plasticité pourrait être utilisé plus largement. "Cette technique va être d'une aide considérable pour les neuroscientifiques, estime Kristen Harris, professeure à l'Université du Texas à Austin et co-autrice de l'étude. Elle pourrait réellement propulser la recherche sur l'apprentissage et la mémoire, et nous pouvons l'utiliser pour explorer ces processus dans toutes les différentes parties du cerveau humain, du cerveau animal, du cerveau jeune et du cerveau âgé." Elle pourrait notamment être utilisée dans la recherche contre la maladie d’Alzheimer.