_________________________________________________________________________ Journées Thématiques du Pôle Rhône-Alpes de Sciences Cognitives "THEORIE DE L'APPRENTISSAGE ET MODELISATION COGNITIVE" _________________________________________________________________________ Lyon - 5-6 mai 1999 Institut des Sciences Cognitives 67 bd Pinel - 69675 Bron cedex tel. secretariat : 04 37 91 12 14 _________________________________________________________________________ Veuillez trouver ci-dessous le programme detaille de ces journees et les resumes des exposes. Afin d'estimer le plus precisement possible le nombre des participants (en particulier pour les repas), nous vous remercions de bien vouloir vous inscrire (sans frais d'inscription) en envoyant le petit formulaire ci-dessous a : hpaugam"at"isc.cnrs.fr --------- NOM, prenom : Laboratoire / Institution : Adresse : contact mail : Je participerai aux Journees Thematiques du Pole organisees a l'ISC, ainsi qu'aux repas du midi : le me. 5 mai : OUI / NON le je. 6 mai : OUI / NON --------- N'hesitez pas non plus a nous contacter si vous souhaitez obtenir d'autres informations (hpaugam"at"univ-lyon2.fr, Jean-Pierre.Nadal"at"lps.ens.fr, ou bien gordon"at"drfmc.ceng.cea.fr). Les organisateurs : Mirta B. Gordon Jean-Pierre Nadal Hélène Paugam-Moisy ************************************************************************* Mercredi 5 mai, 10 h : ************************************************************************* Manfred OPPER, ``Learning with Gaussian Processes'' Neural Computing Research Group, Aston University, Birmingham, B4 7ET, United Kingdom Dans cet exposé (qui sera donné en anglais), on introduit la famille des régressions effectuées avec des processus gaussiens. Il s'agit de modéliser une fonction d'une ou plusieurs variables en se donnant, dans le cadre bayésien de l'apprentissage, une mesure gaussienne sur l'espace des fonctions admissibles. Cette famille de modèles apparaît naturellement si l'on considère des régressions réalisées par un réseau de neurones à une couche cachée, lorsque le nombre de neurones cachés est très grand. On donne une caractérisation des performances optimales de l'apprentissage avec processus gaussiens à l'aide, d'une part, de bornes exactes, et, d'autre part, de l'application de techniques issues de la Physique des systèmes désordonnés. ************************************************************************* Mercredi 5 mai, 11h : discussion / débat sur cet exposé 11h15 pause café ************************************************************************* Mercredi 5 mai, 11 h 30 : ************************************************************************* Mauro COPELLI, ``Unsupervised learning of binary vectors'' Theoretical physics research group, Limburgs Universitair Centrum B-3590 Diepenbeek, Belgium We present a simple model of unsupervised learning, where N-dimensional data vectors are generated from a distribution with a single symmetry breaking direction B. The task is to find B, given the data and the knowledge that B is a binary vector, that is, B is in {-1,+1}^N. The fact that B has discrete components makes the analytical study of this problem very difficult. Statistical Mechanics techniques are used to describe how well a ``guess'' J approximates B in the asymptotic limit of very large N. Using some Bayesian arguments, we try to obtain the vector J such that its performance is optimal. ************************************************************************* Mercredi 5 mai, 12 h 30 : discussion / débat sur cet exposé Mercredi 5 mai, 13 h : dejeuner ************************************************************************* Mercredi 5 mai, 14 h : ************************************************************************* Stephane CANU, ``Pourquoi les réseaux de neurones du type perceptrons multicouches conviennent-ils à l'apprentissage ?'' P.S.I., Institut National des Sciences Appliquees de Rouen, 76131 Mont-Saint-Aignan, France (Résumé non encore communiqué) ************************************************************************* Mercredi 5 mai, 15h : discussion / débat sur cet exposé 15h15 pause café ************************************************************************* Mercredi 5 mai, 15 h 30 : ************************************************************************* Peter DOMINEY, ``Représentation interne de la structure temporelle et séquentielle dans un réseau récurrent de "leaky integrators".'' Equipe « La cognition séquentielle et le langage », Institut des Sciences Cognitives, 69675 Bron, France Les réseaux récurrents ont fait preuve de leur grande capacité à apprendre les régularités des séquences (ex. Elman, Jordan). La modification des connexions récurrentes par rétropropagation de l'erreur est souvent utilisée, comme méthode d'apprentissage, pour minimiser l'erreur. Afin d'éviter la complexité de calcul de la rétropropagation en temps-réel ou de la rétropropagation à travers le temps, on choisit d'utiliser des connexions fixes dans le réseau récurrent , l'apprentissage étant réalisé dans une mémoire associative qui relie les vecteurs d'état du réseau récurrent aux sorties désirées associées. Nous avons ainsi développé une architecture récurrente qui possède une capacité inhérente à représenter l'ordre séquentiel, aussi bien que la structure temporelle (i.e. la durée des délais) des séquences d'entrées. Nous démontrons que les vecteurs d'état sont corrélés aux régularités temporelles et séquentielles des séquences d'entrée. En se basant sur cette capacité de représentation, on a pu simuler les performances de sujets adultes dans une tâche d'apprentissage de séquences, ainsi que des paradigmes d'acquisition du langage chez les enfants. ************************************************************************* Mercredi 5 mai, 16 h 30 : discussion / débat sur cet exposé puis sur l'ensemble des exposés de la journée. Ebauche d'une synthèse de la journée. *************************************************************************
************************************************************************* Jeudi 6 mai, 10 h : ************************************************************************* Jean-Pierre NADAL*, ``Codage par population dans le cortex : vers une Sophie DENEVE**, théorie de l'observateur idéal.'' * Laboratoire de Physique Statistique, Ecole Normale Supérieure 24, rue Lhomond, 75231 Paris cedex 05, France ** Institut des Sciences Cognitives, 69675 Bron, France De nombreuses expériences de neurophysiologie indiquent qu'une forme très courante de codage neuronal est le « codage par population » : un très grand nombre de neurones sont recrutés pour coder / représenter une variable, par exemple une direction dans l'espace (cortex sensoriel ou moteur). Ces dernières années, de nombreux travaux théoriques ont permis d'analyser l'intérêt potentiel d'un tel codage. Nous examinerons les performances statistiques du codage par population selon le point de vue de la théorie de l'information et de l'inférence bayésienne. Nous montrerons comment une autre population de neurones peut effectuer un «décodage», c'est-à-dire extraire du code neuronal une estimation quasi-optimale du paramètre étudié (par exemple : de la direction). ************************************************************************* Jeudi 6 mai, 11h : discussion / débat sur cet exposé 11h15 pause café ************************************************************************* Jeudi 6 mai, 11 h 30 : exposé commun avec le séminaire du jeudi, de l'ISC ************************************************************************* Bernard VICTORRI, ``La construction dynamique du sens.'' Laboratoire LTM-CNRS, Ecole Normale Supérieure 1, rue Maurice Arnoux, 92120 Montrouge, France L'omniprésence de la polysémie dans les langues force à considérer la compréhension des énoncés comme un processus dynamique, dans lequel le sens de chaque unité linguistique se détermine en même temps que se construit le sens global de l'énoncé. L'approche proposée ici vise à rendre compte de ces mécanismes d'interaction, en associant à chaque unité linguistique un processus de "convocation-évocation", dans le cadre d'une théorie de l'énonciation où l'on considère que chaque énoncé évoque une "scène verbale" qui représente son sens. Des réseaux récurrents ont été mis au point pour modéliser le processus de calcul dynamique du sens. Leur architecture sera présentée brièvement. ************************************************************************* Jeudi 6 mai, 12 h 30 : discussion / débat sur cet exposé Jeudi 6 mai, 13 h : dejeuner ************************************************************************* Jeudi 6 mai, 14 h : Débat élargi à l'ensemble des sujets évoqués lors de ces deux journées : table ronde réunissant les orateurs, possibilité d'exposés libres (courts) de la part des participants. Recherche de thèmes pluridisciplinaires propices a des collaborations. Elaboration d'un texte de synthèse de ces Journées Thématiques. *************************************************************************