Chapitre 1 : Neurosciences computationnelles
Les neurosciences computationnelles, également connues sous le nom de neurosciences théoriques ou neurosciences mathématiques, sont un sous-domaine des neurosciences qui cherche à comprendre les principes fondamentaux qui régissent la croissance, la structure, la physiologie et les capacités cognitives du système nerveux grâce à l'utilisation de modèles mathématiques, de simulations informatiques, d'analyses théoriques et d'abstractions du cerveau. Ce sous-domaine des neurosciences est également connu sous le nom de neurosciences computationnelles. Selon la portée de l'étude et le niveau de granularité auquel les choses biologiques sont étudiées, l'abstraction des modèles en neurosciences computationnelles peut varier.
L'objectif des modèles utilisés en neurosciences théoriques est de capturer les propriétés essentielles du système biologique à différentes échelles spatio-temporelles. Ces échelles vont des courants membranaires et du couplage chimique aux oscillations de réseau, à l'architecture colonnaire et topographique, aux noyaux et aux capacités psychologiques telles que la mémoire, l'apprentissage et le comportement. Ces modèles informatiques fournissent un cadre pour formuler des hypothèses qui se prêtent à des tests directs par le biais de recherches biologiques ou psychologiques.
Eric L. Schwartz est celui qui a inventé le terme « neuroscience computationnelle ». C'est lui qui a organisé une conférence qui s'est tenue en 1985 à Carmel, en Californie, à la demande de la Systems Development Foundation. L'objectif de la conférence était de fournir un résumé de l'état actuel d'un domaine qui, jusqu'alors, était connu sous divers noms, notamment la modélisation neuronale, la théorie du cerveau et les réseaux neuronaux. Les actes de ce symposium de définition ont été publiés sous la forme d'un livre du même nom en 1990 sous le titre Computational Neuroscience. Le programme de doctorat en systèmes computationnels et neuronaux du California Institute of Technology a été le premier programme de formation supérieure jamais créé dans le domaine des neurosciences computationnelles. Il a été créé en 1985.
Il est possible de retracer les premières racines historiques de la discipline jusqu'aux travaux d'individus tels que Louis Lapicque, Hodgkin et Huxley, Hubel et Wiesel et David Marr, entre autres. Dans un ouvrage crucial publié en 1907, Lapicque présente le modèle d'intégration et de feu du neurone.
Environ quarante ans plus tard, Hodgkin et Huxley ont inventé la pince de tension et ont construit le premier modèle biophysique du potentiel d'action. Ces deux réalisations ont été rendues possibles par la découverte du potentiel d'action. Les chercheurs Hubel et Wiesel ont découvert que les neurones du cortex visuel primaire, qui est la première section du cerveau à recevoir des informations provenant de la rétine, ont des champs récepteurs dirigés et sont disposés en colonnes. Les recherches menées par David Marr se sont concentrées sur les interactions qui se produisent entre les neurones. Il a proposé des méthodes informatiques pour analyser comment les groupes fonctionnels de neurones de l'hippocampe et du néocortex communiquent entre eux, ainsi que la façon dont ils stockent, traitent et transmettent des informations. Les travaux de Wilfrid Rall ont été à l'origine du début de la modélisation informatique des neurones et des dendrites biophysiquement réalistes. Son modèle a été le premier modèle multicompartimental à utiliser la théorie des câbles.
L'étude des neurosciences computationnelles peut généralement être divisée en quelques écoles de pensée ou voies d'investigation différentes. La majorité des neuroscientifiques computationnels travaillent en étroite collaboration avec des neuroscientifiques expérimentaux pour analyser de nouvelles données et développer de nouveaux modèles d'événements biologiques.
Même un seul neurone a des propriétés biophysiques complexes et a la capacité d'effectuer des calculs (par exemple,.
Certains modèles sont également capables de suivre des processus métaboliques à des tailles extrêmement petites, telles que des épines ou des fentes synaptiques.
Il existe une grande variété de logiciels disponibles, par exemple GENESIS et NEURON, qui permettent de modéliser des neurones réalistes in silico de manière rapide et organisée.
Blue Brain, un projet fondé par Henry Markram de l'École Polytechnique Fédérale de Lausanne, cherche à créer une simulation d'une colonne corticale biophysiquement précise à l'aide du supercalculateur Blue Gene.
La modélisation de la diversité des caractéristiques biophysiques à l'échelle d'un seul neurone peut fournir des méthodes qui peuvent agir comme les éléments fondamentaux de la dynamique des réseaux.
Le domaine des neurosciences computationnelles cherche à apporter des réponses à un large éventail de préoccupations. Au cours du développement, comment les axones et les dendrites apparaissent-ils ? Comment les axones choisissent-ils où diriger leurs impulsions et comment arriver à leur destination ? La migration des neurones vers leurs emplacements corrects dans les systèmes nerveux central et périphérique soulève la question suivante : comment cela se produit-il ? Comment les synapses se font-elles ? La biologie moléculaire nous apprend que différentes régions du système nerveux émettent différents signaux chimiques, allant des facteurs de croissance aux hormones, qui modifient et influencent la création et le développement de connexions fonctionnelles entre les neurones. Parmi ces signaux chimiques figurent les neurotransmetteurs.
Les recherches théoriques sur la création et la structuration de la connexion synaptique et de la morphologie en sont à leurs balbutiements à ce stade. L'hypothèse du câblage minimum est une théorie qui a récemment reçu beaucoup d'attention. Cette théorie postule que la création d'axones et de dendrites réduit avec succès l'allocation des ressources tout en préservant un stockage maximal d'informations.
Horace Barlow est crédité d'avoir développé certains des premiers modèles sur la façon dont le traitement sensoriel pourrait être compris dans un cadre théorique. Barlow croyait que le traitement des premiers systèmes sensoriels était une forme de codage efficace. Cela signifiait que les neurones encodaient l'information d'une manière qui minimisait le nombre de pointes produites par les neurones. Cette hypothèse est quelque peu similaire à l'hypothèse du câblage minimal qui a été décrite dans la section précédant celle-ci. Depuis lors, des expériences et des études informatiques ont montré un soutien à ce concept, bien qu'à des degrés divers. En ce qui concerne le traitement visuel, par exemple, un codage efficace peut prendre la forme d'un codage spatial efficace, d'un codage couleur, d'un codage temporel/en mouvement, d'un codage stéréo et de nombreuses combinaisons de ces types de codage.
De nombreux modèles différents ont été tentés pour expliquer comment le cerveau régit le mouvement. Cela couvre les théories du traitement dans le cerveau, telles que la fonction que joue le cervelet dans la correction des erreurs, le développement des compétences dans le cortex moteur et les ganglions de la base, ou la régulation du réflexe vestibulo-oculaire. Cela contient également un grand nombre de modèles normatifs, tels que ceux avec une saveur bayésienne ou de contrôle optimal, qui sont construits sur la prémisse que le cerveau est capable de résoudre ses problèmes de manière efficace.
Les postulats de l'apprentissage hebbien sont les principaux fondements conceptuels des théories antérieures de la mémoire. Afin d'aborder les qualités de la forme associative (également connue sous le nom de « contenu adressable ») de la mémoire que l'on observe dans les systèmes biologiques, des modèles biologiquement appropriés tels que le réseau de Hopfield ont été construits. Ces efforts concentrent particulièrement leur attention sur la création de mémoires à moyen et long terme, qui a lieu dans l'hippocampe. Il a été possible, grâce à l'utilisation de modèles de mémoire de travail qui dépendent des théories des oscillations de réseau et de l'activité persistante, de simuler certaines des fonctions du cortex préfrontal en relation avec la mémoire contextuelle. Dans les décennies à venir, il est fort probable que les techniques informatiques apporteront une contribution significative à notre compréhension de la façon dont les synapses fonctionnent et se transforment en réponse à la stimulation environnementale.
Les neurones des organismes vivants sont interconnectés les uns aux autres selon un schéma alambiqué et répétitif. Contrairement à la grande majorité des réseaux de neurones artificiels, ces connexions sont souvent plutôt spécialisées et relativement peu nombreuses. Bien que certaines régions du cerveau, comme le cortex visuel, soient étudiées en profondeur, on ne sait toujours pas comment l'information est transportée à travers des réseaux qui ont un nombre aussi limité de connexions les unes aux autres. En plus de cela, on ne comprend pas quelles sont les fonctions de calcul de ces modèles de connexion particuliers, en supposant qu'ils existent.
Les interactions complexes qui ont lieu entre les neurones dans un réseau relativement petit peuvent souvent être simplifiées à l'aide de modèles tels que le modèle d'Ising. La caractérisation théorique de la mécanique statistique de ces systèmes de base est assez complète. Des découvertes...