Modélisation en neurosciences - et ailleurs
Modelling in neuroscience - and elsewhere

Jean-Pierre Nadal

Cours dans le cadre du master Mathématiques Vision Apprentissage (MVA),
Ecole Normale Supérieure Paris-Saclay
Pour toute information sur le Master, voir le site du master MVA,
et en particulier l'emploi du temps 2022-2023 du master, ici.

Course webpage in English here.
Cours donné en français ou en anglais selon les étudiants (et en général, c'est l'anglais qui s'impose).
Informations pratiques et inscriptions, ci-dessous.
Mise à jour de cette page le 15 décembre 2022


Présentation générale

Ce cours est une introduction à la modélisation en neurosciences - ce qu'on appelle les neurosciences computationnelles. Les principaux thèmes abordés sont la mémoire, le codage neuronal, et la prise de décision.

Les liens et interactions entre neurosciences computationnelles, traitement du signal et apprentissage machine sont régulièrement discutés. Le cours ouvre également sur d'autres thèmes - en particulier les systèmes complexes en sciences sociales.

Les outils mobilisés sont issus de la théorie de l'information, de l'inférence bayésienne, des systèmes dynamiques et de la physique statistique.

Sur la forme, le cours porte autant sur les aspects formels (mathématiques), algorithmiques et quantitatifs, que sur les aspects qualitatifs (aspects historiques, apports conceptuels de la modélisation, interprétation de résultats de l'analyse de modèles pour la compréhension de la cognition humaine ou animale).

Plus de détails sur les sujets abordés ci-dessous.


Informations pratiques

Année universitaire 2022-2023

Public visé et inscriptions

Le cours est conçu pour les étudiants du MVA, mais il est également ouvert (dans la limite des places disponibles) aux étudiants d'autres masters, ainsi qu'aux doctorants ou postdoctorants, en mathématiques, informatique/science des données, sciences de l'ingénieur, ou physique.

Etudiants du MVA (avec ou sans validation) : l'inscription se fait via la plateforme eCampus, mais n'hésitez pas à m'envoyer un email pour m'informer de votre intention de suivre le cours, en donnant en 2 ou 3 lignes vos motivations.

Auditeurs externes au MVA (avec ou sans validation) :
Pour assister au cours, me contacter par courriel (jean-pierre.nadal "AT" phys.ens.fr).
Une fois mon accord obtenu pour suivre ce cours, vous disposerez du mot de passe pour vous inscrire auprès du secrétariat du MVA (
instructions ici), ce qui est nécessaire pour avoir accès aux supports de cours et être sur la liste de diffusion propre au cours.

Agenda et localisation

20h de cours (en français ou en anglais selon les étudiants) + examen.

Les cours ont lieu à l'ENS Paris-Saclay (salle 1X59, bâtiment Nord, 1er étage),
des mardis à 9h30 entre le 10 janvier et le 7 mars 2023.

Premier cours le mardi 10 janvier de 9h30 à 11h30 (cours de 2h).
Les mardis suivant, du 17 janvier au 7 mars, cours de 9h30 à 12h45 (cours de 3h avec une pause de 15mn à mi-temps). Pas de cours les 31 janvier et 21 février.

Supports de cours

La présentation générale du Cours est maintenue à jour ici - page publique hébergée par le Département de physique de l'ENS (Paris).
Une bibliographie générale est également disponible
ici.

Cependant, les informations et supports de cours (slides, articles) spécifiques de l'année seront sur le site du cours hébergé par la plateforme eCampus de l'ENS Paris-Saclay, avec accès réservé aux inscrits :
https://ecampus.paris-saclay.fr/course/index.php?categoryid=8662.

Validation

La validation de cette UE rapporte 5 ECTS.

Une présence régulière au cours est indispensable pour être autorisé à valider le cours.

La validation de l'UE demande la rédaction d'un rapport (compte rendu critique d'un article + micro-projet en rapport avec cet article), avec une présentation orale à l'issue de laquelle quelques questions de connaissance et compréhension du cours sont également posées.
Pour le choix d'un article, à titre indicatif, voir les articles qui s(er)ont cités dans les slides ou listés comme supports de cours, et voir les articles choisis pour la validation aux printemps
2020, 2021 et 2022 . Voir aussi les suggestions d'articles faites en 2017, ici (page non mise à jour depuis).

Dates des oraux (2 à 3 séances selon le nombre d'étudiants) : 14 mars, 28 mars, 11 avril.

Voir tous les détails des modalités de la validation ici.

Prérequis

Il n'y a pas de prérequis particuliers. Les concepts et outils nécessaires sont introduits au fur et à mesure des besoins (notamment pour ce qui concerne les outils de la physique statistique et de la théorie de l'information). Une certaine connaissance en neurobiologie, théorie de l'information, systèmes dynamiques ou physique statistique sera utile mais pas nécessaire.

Contact

Pour toute question, me contacter par courriel : jean-pierre.nadal "AT" phys.ens.fr



Thèmes abordés dans le cours

Mémoire à court terme

- "le nombre magique 7 plus ou moins 2" (formule du psychologue Miller, 1956).
Notre mémoire à court terme est juste assez bonne pour retenir momentanément un numéro de téléphone composé de 10 chiffres (ou de 5 paires de chiffre). Peut-on comprendre cette faible capacité de la mémoire à court-terme, et son universalité (capacité indépendante du type d'objets mémorisés (chiffres, lettres, mots,...)

- brisure d'ergodicité :
Comment comprendre que, bien que très bruitée, l'activité neuronale puisse rester assez longtemps spécifique d'un stimulus présenté brièvement ?

Outils et modèles : Physique Statistique / Champs de Markov Aléatoires (Random Markov Fields) ; "réseaux à attracteurs", limite des réseaux de très grande taille ; plasticité Hebbienne ; modèle de Hopfield.
Sujets connexes : physique statistique des systèmes désordonnés (tq. "verres de spins") ; optimisation combinatoire (tq. K-satisfiabilité) ; formation de coalitions (entre pays, entre entreprises), émergence de normes sociales.

Apprentissage supervisé

Dans le cervelet, impliqué dans l'apprentissage et le contrôle moteur, les "cellules de Purkinje" sont considérées comme jouant un rôle majeur dans l'apprentissage de séquences motrices. Celui-ci se traduit par des modifications des propriétés ("poids synaptiques") des synapses contrôlant le passage aux cellules de Purkinje des informations fournies par d'autres aires au cervelet. Des expériences indiquent qu'un nombre important - jusqu'à 80% ! - de ces synapses sont silencieuses, ne transmettant aucun signal. Nous verrons que cette observation se comprend si on suppose que, paradoxalement, l'apprentissage est optimisé.

Outils et modèles : apprentissage statistique, Perceptron.
Sujets connexes : Support Vector Machines (SVM), et, bien sûr, apprentissage profond.

Apprentissage non supervisé et codage neuronal

Juste après la naissance, le système visuel est le siège d'importantes modifications dépendantes des stimuli visuels reçus. Quels principes gouvernent cette "auto-organisation" ? De manière générale, peut-on caractériser la nature de l'adaptation d'un système sensoriel à l'environnement ?

Outils et modèles : apprentissage Hebbien non supervisé ; théorie de l'information : information mutuelle (Shannon) ; "infomax" ; égalisation d'histogramme ; réduction de la redondance (Barlow) ; analyse en composantes principales (ACP), analyse en composantes indépendantes (ICA).
Sujet connexe : statistique des "images naturelles".

Codage par population

Dans les aires sensorielles, on observe souvent des représentations neuronales distribuées, dans lesquelles chaque neurone a une activité spécifique d'une certaine gamme de stimuli. On observe des représentations analogues dans les aires motrices. Chez le rat, par exemple, des cellules codent pour l'orientation de la tête, chacune ayant une réponse maximale pour une valeur particulière de l'orientation ("orientation préférée" de la cellule). En quoi ce type de codage est-il efficace ? Peut-on dire que chaque cellule "code pour son stimulus préféré" (par exemple, l'information sur l'orientation est-elle simplement donnée par l'activité des neurones dont le stimulus préféré est cette orientation) ?

Outils et modèles : théorie de l'information : information mutuelle (Shannon), théorie de l'estimation : information de Fisher ; processus de Poisson (comme modèle de neurone émettant des "spikes").

Sujet connexe : éthologie.
Le paon fait sa cour à la paonne en faisant la roue. Chez certaines espèces d'hirondelles, les mâles ont le plumage rouge au niveau de la gorge, et les femelles préfèrent les mâles ayant le plus beau rouge. Pourquoi ces comportements - et quel rapport avec ce cours ?

Perception catégorielle et Décision perceptuelle

Un signal de parole est un signal continu, une modulation de la pression. Notre système auditif nous le fait percevoir en une séquence d'élements discrets - phonèmes, syllabes, mots. De méme le système visuel nous fait percevoir des objets à partir d'entrées sensorielles continues. Comprendre les mécanismes sous jacents à la perception catégorielle est un thème important en neurosciences et sciences cognitives. De nombreuses expériences de laboratoire mettent en évidence des propriétés génériques de la perception catégorielle lorsque les catégories peuvent étre ambigues (phonèmes proches, chat/chien, etc). Nous verrons comment l'hypothèse de codage efficace permet de rendre compte de ces propriétés.
La perception catégorielle est un exemple simple mais remarquable de prise de décision (décider quelle est la catégorie présente). Beaucoup de travaux concernent cet aspect, notamment via l'analyse des temps de réaction : plus le stimulus est ambigu, plus le temps moyen est grand. Nous verrons comment relier les caractéristiques des temps de décision avec celles du codage neuronal. Enfin nous verrons que certaines propriétés demandent de faire appel à des modèles prenant en compte la dynamique neuronale (réseaux à attracteurs), avec donc davantage de biophysique. Ces modèles permettent de rendre compte du niveau de confiance dans une décision.

Outils et modèles : théorie de l'information, inférence bayesienne. Accumulation d'évidences : marches aléatoires, mouvement brownien. Dynamique neuronale : réseaux à attracteurs.

Catégorisation : réseaux artificiels vs. cerveau humain

Les séances sur l'apprentissage supervisé et sur la perception catégorielle seront l'occasion de discuter les similitudes et différences entre intelligences artificielles et naturelles, et de montrer en quoi les progrès en apprentissage machine permettent d'innover dans l'analyse de l'activité neuronale, et inversement comment neurosciences et sciences cognitives peuvent éclairer sur la nature des représentations construites par les réseaux profonds.


retour en haut de page