Un neurone biologique photographié sur une puce Inventer des machines reproduisant les performances du cerveau humain est un vieux rêve | Aux confins de la biologie et de la physique, lidée de doter des machines de certaines des capacités du cerveau humain quitte aujourdhui le domaine du mythe. Les recherches sur les réseaux de neurones artificiels dont le fonctionnement sinspire de celui des réseaux neuraux naturels aboutissent à des résultats encourageants. | ||
PAR ISABELLE GUYON |
Il est rare que les grandes conquêtes technologiques sinspirent du vivant. La nature nest pourtant pas avare de réalisations qui nous étonnent ou tiennent en échec notre curiosité. Parmi elles, le cerveau occupe évidemment une place de choix. Cette "machine" surprenante est en effet composée de plus de 10 milliards dunités élémentaires, les neurones, reliés entre eux par une multitude de connexions (en moyenne 10 000 par neurone), qui travaillent de façon concertée à lélaboration des tâches les plus complexes.
Lidée de sinspirer du cerveau pour construire une machine intelligente, douée de propriétés cognitives et capable dapprentissage, est un vieux et ambitieux projet humain. Ce projet, sil nest pas encore en passe de se réaliser, sest en tous cas précisé au cours des cinquante dernières années, grâce aux progrès de nos connaissances en neurosciences et à lapport de théories mathématiques et physiques.
Quelques étapes les premières tentatives pour "copier" des fonctions simples du cerveau apparaissent dans les années 60. Elles aboutissent notamment à lélaboration de mécanismes dapprentissage sappliquant à un neurone ou à des petits réseaux de quelques neurones. Les recherches se ralentissent ensuite à cause de la difficulté à concevoir des outils permettant détudier des réseaux de neurones de plus grandes dimensions.
Un changement de perspective intervient dans les années 80, quand plusieurs physiciens, et en particulier le professeur californien John Hopfield, suggèrent détudier le cerveau comme un système complexe pouvant relever des méthodes de la physique statistique. Dans le même temps, les chercheurs peuvent simuler le fonctionnement de modèles de réseaux à plusieurs centaines de neurones grâce à des calculateurs extrêmement puissants.
Ces travaux aboutissent à des résultats encourageants, démontrant, sur le plan théorique, que des réseaux de neurones artificiels seraient à même de réaliser des tâches que des moyens plus conventionnels neffectueraient que difficilement. Enfin, sur le plan industriel, ils suscitent un intérêt croissant ; pour deux raisons.
La première est la limite des ordinateurs existants. Si ces derniers sont extrêmement efficaces pour effectuer à grande vitesse des calculs et, dune manière générale, des tâches mécaniques, ils sont beaucoup moins adaptés que le cerveau pour résoudre certains types de problèmes. Voici quelques exemples de ce quil leur est difficile de faire reconnaître un visage sous différents angles, même si une partie en est masquée ; suivre une conversation au milieu du brouhaha dune réunion de famille ; choisir rapidement un itinéraire touristique permettant de ne pas manquer un seul site intéressant tout en économisant lessence ; prévoir eu sortant sil convient ou non de prendre son parapluie ; réduire un texte en le résumant, etc.
Toutes ces tâches, apparemment si différentes, ont en fait une caractéristique commune il sagit de trouver une "bonne" solution parmi un très grand ensemble de solutions possibles.
Comment, dans de telles conditions, procède le cerveau ?
Il démêle la situation en extrayant les traits saillants et en procédant par analogie avec des exemples typiques connus. Cest ce type de comportement que reproduisent, encore bien imparfaitement, les réseaux de neurones artificiels.
Il se trouve aussi, et cest la seconde raison de lintérêt des industriels, que ces systèmes encore expérimentaux sinscrivent admirablement dans le contexte actuel de mutations technologiques. Aujourdhui, lune des principales orientations en matière de conception dordinateurs est en effet dabandonner progressivement larchitecture classique comportant un processeur central qui effectue les opérations et une mémoire qui contient les instructions du programme , au profit dun nouveau concept celui darchitectures parallèles. Ce type darchitecture comporte un grand nombre de petits processeurs indépendants travaillant simultanément. La structure des réseaux de neurones étant elle-même parallèle, leur fonctionnement présente de nombreux avantages une vitesse de calcul accrue, la résistance aux pannes locales, enfin la régularité de la structure, qui permet des réalisations en électronique intégrée à très grande échelle.
Lapprentissage
La conception de modèles de réseaux capables dapprentissage a pour origine les travaux du neurophysiologiste DO. Hebb (1949).
Partons de cette chose simple et connue de tous que les neurones sont reliés les uns aux autres par des synapses. Hebb fit lhypothèse que la force dune synapse augmente lorsque les neurones quelle relie agissent de la même façon en même temps. A linverse, elle diminue lorsque les neurones ont des activités différentes en même temps. Lintensité de cette force varie donc, en plus ou en moins, selon lactivité simultanée de chacun des neurones interconnectés. Globalement, une forme apprise correspondra à un état du réseau dans lequel certains neurones seront actifs tandis que dautres ne le seront pas.
Cest le même principe qui est appliqué à des neurones artificiels. Ces neurones, tous reliés entre eux, constituent un réseau. Lorsquon présente au réseau une forme à apprendre, les neurones entrent simultanément dans un état dactivité qui provoque une légère modification des forces synaptiques. Il sensuit une "reconfiguration" quantitative de lensemble des synapses certaines devenant "très fortes", dautres saffaiblissant. La forme apprise nest donc pas directement mémorisée à un endroit précis elle correspond à un état énergétique particulier du réseau, une configuration particulière dactivité de chacun des neurones, dans un ensemble très grand de configurations possibles. Cette configuration est favorisée par les valeurs des forces des synapses.
Dans un tel réseau, et à la différence de ce qui se passe dans un ordinateur, aucune instruction de programme nest mémorisée localement à une adresse donnée. Linformation est répartie sur lensemble du réseau, distribuée sur les connexions entre les neurones (les synapses). La notion même de programme nexiste pas. Le réseau sauto-organise à partir dexemples qui lui sont présentés.
Un neurone artificiel de
McCulloch-Pitts Le neurone est défini par ses forces
synaptiques qui ont été calculées pendant
lapprentissage. Il réévalue sans arrêt son état
de la façon suivante;
|
La recherche des informations
Intéressons-nous maintenant à la phase dutilisation et non plus à celle dapprentissage. Ce que nous voulons savoir, cest, une fois lapprentissage acquis, quelle décision prendra le réseau face à une information nouvelle.
Nous lavons vu, dans un réseau de neurones biologiques, un neurone individuel nintervient que pour une faible part dans la décision globale. Entre les neurones récepteurs et les neurones moteurs, de multiples couches de traitement contiennent des neurones non directement reliés à lextérieur. Les bouclages internes assurent une "re-circulation" des informations. Dans la vie courante, nos hésitations avant de prendre une décision définitive témoignent dailleurs de ce processus dynamique mis en jeu dans le fonctionnement de notre cerveau.
Les réseaux de neurones artificiels peuvent reproduire ce comportement. Demandons, par exemple, au réseau de reconnaître une forme apprise à partir dune version voisine de celle-ci, cas illustré sur la figure ci-contre. On présente donc au réseau une nouvelle image constituée dune succession, inconnue pour lui, de points noirs et blancs. A chacun des points de limage correspondra un neurone qui, selon la couleur, sera actif ou inactif. Le réseau dans son ensemble va donc se retrouver dans un état nouveau, instable, et on va le laisser évoluer de lui-même. Chacun des neurones va réévaluer son état en fonction des informations transmises par les autres neurones. Il va ensuite évoluer tout seul détat intermédiaire en état intermédiaire pour se fixer dans un état final (représentant ou non une forme apprise), et dont il ne bougera quavec laction dun autre stimulus cest sa réponse, sa décision.
On désigne ce type de comportement sous le nom de mémoire associative. Le réseau associe un état (une image mentale) à un autre état et il retrouve les informations mémorisées par une suite dassociations.
De façon imagée, on peut comparer lévolution libre du réseau au parcours dune bille sur une surface accidentée (voir figure p. 156). Placée au fond dun trou, la bille reste immobile. Si au contraire la bille démarre sur le flanc dun creux, elle sera attirée vers le fond. Mémoriser des informations revient donc à "creuser des trous" dans cette surface à des emplacements qui représentent ces informations.
RECONNAISSANCE DE CARACTÈRES MANUSCRITS. Les images, fournies par une camera, sont composées de 20 x 30 =600 éléments noirs ou blancs, chacun correspondant à létat dun neurone -1 ou +1. Lapprentissage a consisté à mémoriser les 44 chiffres présentés en haut de la figure, cest-à-dire à "creuser" autant de "trous" à ces endroits adéquats La figure du bas est une représentation imagée dune partie du paysage ainsi constitué; nous y voyons en particulier les trous correspondant au deuxième "1" et au quatrième "4" de lensemble dapprentissage. Lorsquon utilise le réseau pour effectuer une reconnaissance, lévolution de létat du réseau peut être comparée au parcours dune bille dans le paysage. Imaginons par exemple que lon soumette au réseau un chiffre manuscrit inconnu pour lui : sur la figure, il sagit de limage la plus haute sur le bord du trou du "4"; le réseau évolue détat en état vers le fond du trou où il se stabilise. Le réseau a donc pris une décision il a reconnu le quatrième "4" de lensemble dapprentissage à partir dune version déformée de ce prototype. |
Les applications
Les réseaux de neurones dont nous allons parler dans ce qui suit nexistent généralement pas encore en tant que tels il sagit de simulations sur des ordinateurs conventionnels ou sur des machines plus spécialement adaptées à cette tâche. Très peu de véritables réseaux de neurones artificiels ont en fait été réalisés, à lheure actuelle.
Les applications potentielles apparaissent pourtant dores et déjà nombreuses. La faculté dapprentissage "par lexemple" est un atout majeur. Aujourdhui, en dépit dune maîtrise encore toute relative de loutil, les performances affichées par ces réseaux sont parfois comparables à celles de systèmes spécialisés, type système-expert, dont la mise au point est extrêmement longue.
Le réseau qui se souvient dun poème. Dans la première colonne se trouve lun des trois poèmes mémorisés. La deuxième colonne présente un exemple de rappel de ce poème à partir de deux vers qui ne sont pas absolument exacts. Le réseau retrouve le fil du texte après cinq itérations. | |
1 Dame souris trotte, 2 Noire dans le gris du soir, 1 Dame souris trotte, 3 Grise dans le noir. 4 On sonne la cloche : 5 Dormez, les bons prisonnier 4 On sonne la cloche : 6 Faut que vous dormiez. 7 Pas de mauvais rêve : 8 Ne pensez qua vos amours, 7 Pas de mauvais rêve : 9 Les belles toujours ! 10 Le grand clair de lune ! 11 On ronfle ferme à côté. 10 Le grand clair de lune ! 12 En réalité. 13 Un nuage passe, 14 Il fait noir comme en un four, 13 Un nuage passe, 15 Tiens, le petit jour ! 1 Dame souris trotte, 16 Rose dans les rayons bleus, 1 Dame souris trotte, 17 Debout paresseux ! |
|
On sonne la cloche Faut que lu chantes P, pon,mI qubtfvos!clomrs, Pasnde mypsais dhvpU QasAre matv,is qeve : Qeslbellps tosjouks ! Le grand clair de lune ! On ronfle ferme à côté. Le grand clair de lune ! En réalité. Un nuage passe, Il fait noir comme on un four, Un nuage passe, Tiens, le petit jour ! Dame souris trotte, Rose dans les rayons bleus, Dame souris trotte, Debout paresseux ! |
Un premier groupe dapplications met à profit les propriétés de mémoire associative. Elles permettent de faire de la correction derreurs, de la reconnaissance de formes, de la classification, des associations entre deux informations de nature différente, de la mémorisation de séquences, etc.
De toutes, lapplication la plus simple et la plus directe est la correction derreurs. A titre dexemple, nous avons mémorisé dans un réseau complètement connecté de 180 neurones formels (simulé sur ordinateur), une série de 60 titres de journaux scientifiques (chaque lettre étant codée sur 6 bits). Si, au cours de la phase dutilisation, on présente au réseau lun de ces titres mal rédigé, il savère capable en très peu de temps et dopérations de retrouver le titre exact.
Sur le même principe, le laboratoire délectronique de lESPCI (1) a proposé un agenda automatique chaque état mémorisé contient le nom, ladresse et le numéro de téléphone dune personne. La donnée dune partie de ces informations permet de retrouver les autres.
Le réseau complètement connecté peut aussi être utilisé pour faire des associations. Reprenons lexemple des titres douvrages scientifiques. Durant la phase dapprentissage, chacun de ces titres a été associé à son éditeur. Puis, en phase dutilisation, on a demandé au réseau de retrouver le nom de léditeur à partir de la seule présentation dun titre, ce quil a pu faire même si ce titre était incomplet ou déformé. Dune façon très similaire, J.A. Anderson (Brown University) a utilisé les réseaux de neurones pour faire du diagnostic médical.
Beaucoup de problèmes pratiques et de processus biologiques peuvent se formuler en termes de séquences dinformations système de base de données, commande de la locomotion ou de la mastication chez les animaux, séquences musicales
La mémorisation de séquences dans un réseau de neurones formels est facile puisquune séquence nest pas autre chose quune chaîne dassociations. Léquipe de lESPCI a ainsi montré, en simulation, quun réseau de neurones peut apprendre des poèmes sous la forme dune séquence de vers puis les restituer si on lui fournit seulement un ou deux vers même incomplets.
Un autre type de réseau, le réseau à couches, a été utilisé par T. Sejnowski, de lUniversité John Hopkins (Maryland), pour son système de lecture NetTalk. Ici se sont des lettres qui sont associées à leur prononciation. Le réseau comporte une couche de récepteurs dentrée au nombre de 203, répartis en sept groupes de 29 unités, une couche intermédiaire de 80 neurones et une couche de 26 neurones de sortie pour les 26 phonèmes possibles. Le système parcourt un texte en déplaçant une fenêtre de sept caractères, et trouve le phonème correspondant à la prononciation du caractère central, les six autres servant à indiquer le contexte. Après une nuit dapprentissage dun texte de mille mots sur un ordinateur VAX 780, cette étonnante machine atteignait les performances dun enfant débutant qui semblait suivre les règles de prononciation des mots. Un réseau du même type a été utilisé par la même équipe pour apprendre à jouer au Backgammon.
Autres applications: la reconnaissance de formes. Citons tout dabord le réseau de neurones optiques de N. Farhat de lUniversité de Pennsylvanie, qui intervient dans la reconnaissance dimages radar. Des applications en reconnaissance de la parole ont été simulées sur le système Mark III de la firme américaine TRW. Enfin, exemple évoqué plus haut, les réseaux de neurones formels permettent dobtenir dassez bons résultats dans la reconnaissance de caractères manuscrits.
Le mythe de Frankenstein
Cette brève présentation est suffisante pour nous donner quelques idées sur les performances des réseaux de neurones artificiels qui seront construits dans lavenir. Certains, chercheurs et ingénieurs de diverses origines, doutent cependant que de telles performances puissent être atteintes et reprochent fréquemment à ceux qui travaillent sur les réseaux de neurones artificiels de ne pas introduire assez de contraintes a priori dans leurs modèles. Selon les uns, de tels systèmes différeraient considérablement des réseaux biologiques. Selon dautres, un écart dans les performances pourrait se manifester entre la simulation et la réalité des réseaux. Sans plus entrer dans les détails de cette discussion technique, on peut affirmer que lintroduction de contraintes dans les modèles de base simulés sur ordinateurs, a montré que les propriétés fondamentales sont généralement conservées, et, fait amusant, que le type de contraintes technologiques pris en compte coïncide souvent avec des contraintes biologiques. Un exemple de cette constatation est analysé dans lencadré ci-dessus.
Faut-il enfin redouter que les réseaux de neurones artificiels deviennent de puissantes machines intelligentes qui pourraient servir de cerveau à des robots ? Pour couper court à ce genre de dérapage vers la science-fiction, il suffit de rappeler le pas de géant qui reste à franchir entre le produit des recherches actuelles et le système nerveux humain.
Conscients que le cerveau est une "machine" dont la construction a nécessité des milliards dannées, et dont le fonctionnement est encore très difficile à appréhender, les chercheurs qui travaillent sur les réseaux de neurones formels font une sorte de pari : la complexité du cerveau cache quelques principes de base très simples quil sagit de dégager.
AUX LIMITES DE LA PHYSIQUE ET DE LA BIOLOGIE : "LE RÉSEAU AUTODIDACTE" Comment un réseau de neurones artificiels apprend-il à lire ? Les neurones sont les cellules oblongues en avant du réseau : ils sont tous connectés les uns aux autres par lintermédiaire des synapses interconnexions dont les couleurs représentent des forces différentes. Le réseau est ici utilise comme élément dun système de reconnaissance de chiffres manuscrits : limage dun chiffre est acquise et numérisée par une caméra. Elle fournit une suite de valeurs -1 ou +1 chacune étant associe à un élément dimage (-1 si lélément dimage est blanc. ou 1 sil est noir) : cet ensemble de valeurs binaires est transmis au réseaux de neurones qui effectue son. traitement, dont le résultat saffiche sur un écran vidéo. Pendant lapprentissage le réseau de neurones calcule ses forces synaptiques à partir dun ensemble nexemptes des dix chiffres manuscrits bien choisis. Lorsque lapprentissage est termine le réseau effectue la reconnaissance dun chiffre mémorise de la façon suivante : limage numérise dune forme inconnue (cest-à-dire dun chiffre manuscrit ne faisant pas partie de ceux utilisés lors de lapprentissage) est envoyée sur le réseau : à partir de cette initialisation, le réseau évolue rapidement vers un état stable qui représente lun des chiffres de lensemble dapprentissage : il a ainsi retrouvé (reconnu) une information mémorisée à partir dune version déformée de celle-ci. |
(1) École Supérieure de Physique et Chimie industrielles.
LE PROBLÈME DU
VOYAGEUR DE COMMERCE Un autre type dapplications, concerne loptimisation combinatoire. Lexemple modèle qui a été initialement proposé par le professeur J. Hopfield du CalTech et D. Tank des laboratoires Bell est celui du célèbre problème du voyageur de commerce: comment choisir le plus court itinéraire dun voyageur qui doit visiter plusieurs villes ? Le nombre de tournées possibles augmentant exponentiellement avec te nombre de villes, il est impossible de procéder à une recherche exhaustive dès que le nombre de villes dépasse une dizaine. La méthode qui utilise des réseaux de neurones consiste à calculer les coefficients synaptiques de façon à ce que la surface associée à lénergie (qui nous a déjà servi dimage pour comprendre le fonctionnement des réseaux) possède des trous aux endroits correspondant aux meilleures solutions. En initialisant le réseau dans un état quelconque, celui-ci va évoluer spontanément vers lune des meilleures solutions. |
CONFUSION, SATURATION, PALIMPESTE
La capacité de stockage dun réseau de neurones formels se mesure par le nombre maximum dinformations quil est possible de mémoriser tout en conservant de bonnes propriétés de mémoire associative. Selon la règle dapprentissage employée, différents comportements peuvent être observés lorsquon augmente le nombre dinformations présentées. Après avoir dépassé une capacité limite, certains réseaux sembrouillent et oublient tout (état de confusion) dautres refusent dapprendre de nouvelles informations sans pour autant oublier les précédentes. Un comportement plus intéressant est celui de palimpseste (1) : le réseau, qui ne peut mémoriser quun nombre limité dinformations, privilégie les plus récemment apprises au détriment des plus anciennes qui sont progressivement oubliées.
Ces différents comportements, mis en évidence avec des réseaux de neurones artificiels simulés sur ordinateur, dépendent, en particulier, des contraintes introduites dans te modèle (forces synaptiques de signe constant, limitation du nombre de connexions par neurone, précision des valeurs des forces synaptiques, introduction dun bruit dans la transmission des informations...).
Les raisons qui amènent certains chercheurs à introduire de nouvelles contraintes peuvent répondre à deux exigences différentes: celle de rendre le modèle plausible du point de vue biologique, ou bien celle de tenir compte des limitations technologiques, pour que les résultats des simulations sur ordinateurs puissent être utilisés en vue de construire un "véritable" réseau de neurones artificiels (en électronique intégrée ou en opto-électronique par exemple).
Il existe donc des contraintes de type biologique et dautres de type technologique. Mais on constate que, dans de nombreux cas, les préoccupations des uns et des autres se rejoignent. Par exemple, G. Toulouse et J.P. Nadal de ENS ont imposé aux coefficients synaptiques des valeurs minimum et maximum. Les synapses biologiques ont obligatoirement cette contrainte, mais les synapses électroniques ne peuvent pas sen affranchir non plus. Cette étude a montré que, pour certaines valeurs du maximum et du minimum, le réseau avait un comportement de palimpseste.
(1) Palimpseste: au Moyen Âge, manuscrit sur parchemin que lon grattait pour pouvoir écrire dessus de nouveau. En grattant, on neffaçait pas totalement ce qui était préalablement inscrit : les textes tes plus anciens finissaient par disparaître tandis que les plus récents étaient conservés et lisibles. De façon imagée, la "mémoire à court terme" se comporte comme un palimpseste, car les souvenirs on sempilant font progressivement disparaître les plus anciens.
De trés bon tutoriaux sur l'IA en français : https://www.youtube.com/c/MachineLearnia/playlists
Retour Sciences et Physique.