PHYSIQUE STATISTIQUE ET NEUROSCIENCES COMPUTATIONNELLES

(c) Publications du CNRS, La Lettre du SPM, 1997.

Nicolas BRUNEL et Jean-Pierre NADAL
Laboratoire de Physique Statistique de l'Ecole Normale Supérieure
Laboratoire associé au C.N.R.S. (URA1306), à l'ENS, et aux universités Paris VI et Paris VII
Ecole Normale Supérieure
24, rue Lhomond - 75231 Paris Cedex 05
email : brunel"at"lps.ens.fr nadal"at"lps.ens.fr
Tel. 01 44 32 32 75 Fax 01 44 32 34 33

Au cours des dernières années, des progrès notables en modélisation du comportement "intelligent" dans les systèmes naturels ou artificiels ont été obtenus. Tout particulièrement, l'étude des "réseaux de neurones" a connu un essor important depuis une dizaine d'années, tant pour les applications à l'informatique et aux sciences de l'ingénieur, que pour la modélisation de la cognition humaine et animale. Dans ce dernier cadre, il s'agit de modéliser les mécanismes à l'oeuvre dans le cerveau, autrement dit de rendre compte de certaines capacités (à apprendre, à s'orienter et se déplacer, etc...) en terme d'algorithmes ou "calculs" effectués par une architecture et une dynamique neuronale. Pour désigner ces calculs qui n'ont a priori rien de numérique, on emploie le terme de computation (mot d'origine latine fort justement repris par la langue anglaise). Les sciences expérimentales sur lesquelles s'appuient ces travaux théoriques sont les neurosciences - en particulier les neurosciences computationnelles qui s'intéressent au lien entre une architecture neuronale et sa fonction cognitive -, et la psychologie expérimentale - en particulier la psycho-physique et la psychologie cognitive.

Réseaux de neurones et physique statistique

Par "réseaux de neurones" on entend généralement des modèles mathématiques plus ou moins complexes des neurones et de leur organisation, destinés soit à la modélisation en neurosiences ou en neuropsychologie, soit à la réalisation de systèmes artificiels s'inspirant du vivant. L'un des objectifs de la modélisation est de rendre compte de phénomènes au niveau psychologique (comme par exemple le caractère associatif de la mémoire humaine), à partir de données neurobiologiques. Or, la physique statistique a pour objet l'étude du passage d'un niveau microscopique, avec un grand nombre d'éléments en interaction, à un niveau macroscopique (celui du comportement collectif). Ceci justifie en grande partie l'intérêt des physiciens pour l'étude des réseaux de neurones : on cherche à rendre compte du comportement collectif (niveau "macroscopique") d'un ensemble de neurones à partir d'un modèle au niveau "microscopique", celui des neurones et de leurs synapses qui transmettent les signaux d'un neurone à un autre. Précisément, le physicien J. J. Hopfield a montré en 1982 une analogie entre un groupe de neurones formels fortement interconnectés, et un ensemble de moments magnétiques ("spins") en interaction. Dans ce cadre on peut comprendre le rappel associatif, tel qu'il se produit dans la mémoire humaine, comme la convergence d'un système dynamique vers un attracteur. Une particularité du réseau de neurones est la faculté d'"apprendre" : les interactions entre neurones, qui quantifient la capacité des synapses à transmettre le signal, sont modifiables en fonction de l'activité du réseau. C'est cet apprentissage qui conduit à la formation d'attracteur représentant (codant) les objets à mémoriser. Le fait qu'un etat de memoire soit un attracteur du systeme permet en particulier de rendre compte de la persistence d'une activité spécifique à un stimulus, bien après que ce stimulus ait disparu. L'analogie physique permet de transposer tout un savoir acquis en physique statistique, et ainsi de rendre compte de plusieurs aspects fondamentaux de cette forme originale de traitement de l'information : possibilité d'avoir un grand nombre d'attracteurs (donc d'objets en mémoire) superposés ; persistance des attracteurs malgré le bruit synaptique ; robustesse vis à vis de lésions ; propriété d'"émergence", c'est-à-dire que l'existence des attracteurs résulte d'un phénomène collectif (nécessité d'avoir un grand nombre de neurones fortement interconnectés). Des études analytiques et numériques du modèle de Hopfield et de ses variantes ont conduit à une compréhension fine des mécanismes d'apprentissage dans de tels réseaux.

Quelques travaux au Département de Physique de l'E.N.S.

Le Département de Physique de l'E.N.S. a contribué de façon importante au développement de ce domaine très particulier qu'est l'étude des réseaux de neurones dans le cadre de la physique statistique. Des thèmes très divers ont été abordés : modélisation de la mémoire à court terme, apprentissage d'une règle par l'exemple, apprentissage constructif (dans lequel le choix du nombre de neurones résulte de l'apprentissage), modélisation des systèmes sensoriels,... Par ailleurs des collaborations existent avec des laboratoires industriels sur l'application des réseaux de neurones à des problèmes d'analyse de données et de traitement du signal. Enfin, il faut signaler d'autres activités au LPS en rapport avec la modélisation des réseaux neuronaux : l'étude de la dynamique de systèmes économiques prenant en compte le comportement "cognitif" des individus, et une activité en psychologie expérimentale. A titre illustratif, nous présentons maintenant un peu plus en détail l'une de nos activités.

Réseaux de neurones et neurophysiologie de la mémoire de travail

Assez récemment, des physiciens ont commencé à étudier des modèles qui s'éloignent de l'analogie avec les systèmes magnétiques, pour prendre un compte le fait que les interactions entre neurones s'effectuent à l'aide de potentiels d'action, c'est à dire d'impulsions extrêmement brèves. Le neurone est alors caractérisé par son potentiel de membrane, se comportant essentiellement comme une capacité chargée par les potentiels d'action qu'il reçoit. Quand cette capacité excède un seuil, le neurone émet à son tour une impulsion. Ces modèles incluent aussi la distinction entre neurones excitateurs (représentant les cellules pyramidales du cortex cérébral) et inhibiteurs (représentant les interneurones). L'étude de réseaux de ce type de neurones, que nous avons entreprise en collaboration avec l'universités de Rome I et l'université hébraique de Jérusalem, exhibe une phénoménologie extrêmement riche. Par exemple, si l'inhibition est suffisamment forte, le système peut se stabiliser dans un état de faible activité dans lequel tous les neurones voient leur potentiel de membrane fluctuer près du seuil et émettre des potentiels d'action sous l'effet de rares fluctuations. Cet état d'`activité spontanée' permet de placer le systeme `aux aguets', en état de réagir très rapidement à des stimuli externes de faible contraste. Il pourrait donc avoir un rôle important dans la rapidité des temps de réaction observés habituellement en neurophysiologie ou en psychophysique. Sur ce type d'état, similaire à un `état fondamental', peuvent venir s'ajouter un certain nombre d'`états excités' équivalents aux attracteurs du modèle de Hopfield. Chacun de ces états correspond à une configuration d'activité du réseau similaire à la configuration existant lors de la présentation d'un stimulus particulier. Ils deviennent des attracteurs du système grâce à l'apprentissage, c'est à dire aux modifications des connections intervenant lors de la présentation du stimulus.

Ces modèles plus réalistes permettent une confrontation fructueuse avec toute une série d'expériences de neurophysiologie effectuées sur des singes, appelées `tâches à réponse différée'. Dans ce type d'expériences le singe doit produire une action qui dépend du stimulus présenté un certain temps auparavant. Elles permettent de localiser, dans un certain nombre d'aires corticales, notemment le cortex préfrontal (PF) et le cortex inférotemporal (IT), des endroits ou des cellules enregistrées exhibent une activité soutenue durant la periode séparant le stimulus et la réponse. On constate que cette activité est bien sélective pour un (ou plusieurs) des stimuli présentés durant l'expérience. Ces données expérimentales sont entièrement consistantes avec les modèles de mémoire associative décrits plus haut. De plus, les modèles conduisent à des prédictions qui seront testées dans des expériences actuellement en cours à Jérusalem. On a ainsi pour la première fois une tentative sérieuse de mise en évidence qu'un phénomène collectif est à l'origine d'une fonction cognitive. Par ailleurs, une collaboration est en cours avec le laboratoire de physiologie de la perception et de l'action au Collège de France, sur le développement de modèles similaires pour la modélisation de l'hippocampe.

Conclusions

Les travaux que nous avons présenté illustrent une tendance importante dans laquelle des physiciens s'intéressent à des problèmes toujours plus variés relatifs aux neurosciences, prenant en compte la neuroanatomie (bulbe olfactif, système visuel, hippocampe,...). Un domaine en plein développement est par exemple l'étude des propriétés dynamiques des réseaux. En particulier la présence de synchronisation entre neurones observée dans des enregistrements électrophysiologiques dans de nombreuses aires corticales, a motivé un grand nombre de travaux : cette synchronisation pourait avoir un rôle cognitif, permettant de `lier' ensemble des assemblées de neurones représentant divers aspects d'un même objet (le `binding problem').

Par ailleurs, au delà de l'analogie fructueuse entre neurones formels et moments magnétiques, et indépendamment de la modélisation en neurosciences, il se trouve que la physique statistique offre un cadre et des outils privilégiés pour l'étude des réseaux de neurones, et, plus généralement, de tout système capable d'apprendre. Sur le plan fondamental, la physique statistique partage avec les statistiques (statistiques bayesiennes) et la théorie de l'information des concepts fondamentaux pour l'étude de l'apprentissage, de l'inférence. De plus, sur le plan technique, des méthodes analytiques développées en physique de la matière condensée pour l'étude de systèmes désordonnés (tels les "verres de spins") se sont révélées particulièrement efficaces pour l'analyse des propriétés de réseaux de neurones. Ainsi on peut caractériser les performances optimales d'une architecture neuronale dans une tâche donnée (mémorisation, codage,...), ce qui donne des bornes et des références aux quelles comparer les propriétés de modèles plus spécifiques.