Michel Bret
décembre 2006
Mots clés
Autonomie, auto-organisation, cerveau, émergence, réseaux
neuronaux, résonance.
Résumé
Alors que l’informatique traditionnelle prenait ses modèles dans les sciences dures (mathématique, physique), les recherches actuelles portant sur des modèles connexionnistes (réseaux neuronaux) ou évolutionnistes (algorithmes génétiques) s’inspirent de la biologie. La notion d’émergence, qui apparaît dans les systèmes complexes non linéaires, est au cœur de ces nouvelles préoccupations que j’aborderai du double point de vue artistique et scientifique.
1 Un modèle biologique : Le cerveau
1-1 Le neurone
Le système nerveux, possède un degré de complexité plus grand que les neurones dont il est composé, et certaines de ses propriétés, irréductibles à celles de ses parties, sont dites « émergentes ».
Le cerveau, considéré comme le lieu par excellence de toute émergence, nous servira de modèle [Changeux 1983].
On peut représenter schématiquement le cerveau comme un ensemble de très nombreux neurones (environ cent milliards) massivement interconnectés (un million de milliards de connexions). Chaque neurone est une cellule possédant de nombreuses entrées, les dendrites (jusqu’à vingt mille), et une sortie, son axone, qui est connectée aux dendrites d’autres neurones par le biais de synapses dont le rôle est de moduler l’influx nerveux transitant le long des fibres nerveuses (excitation ou inhibition). La réponse d’un neurone dépend de l’amplitude et de la succession des informations qu’il reçoit en entrée (voir figures 1 et 2).
Figure 1 Figure 2
1-2 Le cerveau
La structure de cet organe est intimement liée à son fonctionnement même et ne peut s’envisager en dehors des échanges qu’il entretient avec le reste du corps et l’environnement dans lequel celui-ci évolue.
Les nerfs issus des récepteurs sensoriels sont connectés au thalamus pour y former des faisceaux neuronaux spécifiques appelés noyaux projetant leurs axones vers le cortex (projection thalamocorticale). Par exemple les neurones de la rétine se projettent sur le noyau géniculé latéral et de là vers l’aire corticale visuelle primaire V1 (Edelman 2004). Mais il y a aussi de nombreuses fibres axonales réciproques retournant du cortex au thalamus (projection corticothalamique), ainsi que de nombreuses connexions du cortex vers lui-même (tractus corticocorticales). Cette structure réentrante serait à l’origine de l’émergence de la conscience (Edelman 2000 page 129), j’y vois aussi une caractéristique essentielle de l’interactivité. Certaines connexions débouchent sur le cortex moteur primaire qui constitue une aire de sortie envoyant des signaux aux muscles via la moelle épinière (voir figure 3).
Alors que le feed-back est une boucle faite de connexions réciproques dans lesquelles des informations spécifiques permettent la correction d’erreurs (homéostasie), la réentrée utilise de multiples voies parallèles dans lesquelles les informations ne sont pas prédéterminées (émergence de propriétés non programmées).
Figure 3
2-1 Neurone artificiel
Un neurone formel (ou artificiel) est une simulation d’un neurone biologique. Il est constitué d’un corps (ou noyau), d’entrées multiples, d’une sortie et d’une fonction de transfert. Le noyau calcule son entrée IN comme la somme pondérée (par les poids synaptiques) de ses entrées , puis sa sortie OUT en lui appliquant la fonction de transfert :
Dans le cas le plus simple la fonction de transfert peut être un seuil :
if (IN >= Seuil)
OUT = 1;
else
OUT = 0;
Afin de simuler la réponse non nécessairement binaire d’un neurone biologique on utilise aussi des fonctions sigmoides qui lissent le créneau (d’autant plus que k est petit).
La figure 4 montre un neurone artificiel de 64 entrées recevant un signal périodique avec un certain retard (ce signal n’atteignant pas toutes les entrées en même temps), les poids synaptiques variant sinusoidalement avec une autre période :
Figure 4
2-1 Les réseaux neuronaux
Les méthodes algorithmiques résolvent un problème par l’écriture d’un programme donnant à l’ordinateur la suite des actions à entreprendre pour trouver la solution en un temps fini. L’inconvénient majeur de telles méthodes est bien évidemment que cette solution, non seulement doive exister, mais encore qu’elle doive être connue, ou tout au moins programmable.
D’autres méthodes, dites connexionnistes, consistent à réaliser un organisme artificiel placé dans un environnement contenant ce problème. Dans certaines conditions cet organisme, s’il est suffisamment complexe, va s’auto-configurer par adaptation, de façon à survivre dans cet environnement, ce qui revient à trouver une solution au problème.
Les réseaux neuronaux constituent une simulation très simplifiée du système nerveux central de certains organismes naturels. Ils sont constitués par un grand nombre de neurones formels interconnectés au moyen de synapses (Atlan 1986) (voir figure 5). L’ensemble des poids synaptiques est stocké dans une matrice carrée (de côte le nombre de neurones) représentant toutes les connexions possibles entre couples de neurones.
Figure 5
Un tel organisme artificiel est muni de récepteurs sensoriels sous la forme de capteurs connectés aux entrées du réseau neuronal, dont les sorties sont connectées à des organes moteurs.
On présente au réseau des configurations d’entrées et on cherche à le faire réagir de façon adaptée au moyen d'apprentissages non programmés, on parlera alors d'auto-organisation, ou d'émergence.
Différents types d’apprentissage sont envisageables selon le mode de connexion retenu :
2-2 Apprentissage supervisé
Dans ce type d’apprentissage on connaît les réponses adaptées à des entrées données. Il existe des structures particulières de réseaux, dites multicouches, pour lesquelles un algorithme, dit algorithme de la rétropropagation de l’erreur [Abdi 1994], permet au réseau de s’auto-configurer en un temps fini afin de satisfaire à tous les couples d’apprentissage (entrée-sortie).
Ce type d’apprentissage est très performant dans tous les problèmes de reconnaissance mais présente certains inconvénients :
D’abord les tâches à accomplir, ainsi que les critères d’efficacité de l’apprentissage, sont définies à l'avance par le concepteur qui est donc maître de la signification du fonctionnement du réseau.
Ensuite il ne modélise pas du tout le fonctionnement du cerveau en ignorant délibérément les connexions réentrantes (en effet dans ce type de réseau seules les connexions d’une couche vers la suivante sont prises en compte), ce qui se traduit par de grandes zones nulles dans la matrice des poids synaptiques (voir figures 6 et 7).
Il s’agit là d’une auto-organisation au sens faible.
Figure 6 : Perceptron Figure 7 : Réseau multicouches
2-3 Apprentissages non supervisés
On ne suppose aucune connaissance à priori, c’est à dire que le réseau est placé seul face au problème sans professeur pour le guider. A condition qu’il y ait des connexions réentrantes, et sous certaines conditions de complexité, la résolution du problème devient une propriété émergente de l’évolution du système.
C’est le cas par exemple pour les apprentissages de type compétitif mis en œuvre dans les réseaux de Kohonen [Kohonen 2001] qui détectent des régularités dans des configurations présentées en entrées et les classifient. La donnée d’une topologie des connexions et d’une distance sur les neurones constitue la mappe de Kohonen. L'apprentissage consiste en une compétition des neurones de la couche de sortie qui élisent un neurone vainqueur, puis un processus de concurrence entre neurones élus affine la recherche.
Dans un réseau bouclé, pour lequel existent des connexions réentrantes, toute boucle possède un « retard » qui en fait un système dynamique non linéaire, régi par des équations différentielles. Il s’agit là d’une auto-organisation au sens fort caractérisée par l'absence de but prédéfini et l'émergence de ce qui sera considéré, après coup, comme un comportement fonctionnel, c'est-à-dire ayant un sens.
La figure 8 montre un tel réseau connectant les cellules d’une rétine à des neurones moteurs agissant sur des muscles. Tous les couples de neurones différents sont connectés, ce qui se traduit par une matrice dont seuls les éléments de la diagonale sont nuls.
Figure 8 : réseau réentrant
3-1 Un exemple d’apprentissage supervisé
Une danseuse virtuelle comprend les parties suivantes (Bret 2000) :
Un squelette articulé rigide.
Un système musculaire dont chaque muscle lie deux éléments du squelette et dont les déformations provoquent les mouvements de celui-ci.
Une peau souple recouvrant les éléments précédents.
Différents organes, des vêtements, des éléments de décor, etc..
Un petit cerveau de quelques centaines de neurones dont la couche d’entrée est connectée aux cellules de la rétine artificielle (image de la webcam) et dont la couche de sortie est connectée au système musculaire (neurones moteurs).
Les couples d’apprentissage sont de la forme (I,F), où I est une image (capturée par une webcam) et F est une position dynamique constituée d’un ensemble de forces appliquées au système musculaire.
La figure 9 montre la saisie d’une image et de la position correspondante.
La figure 10 montre le processus d’apprentissage après 158 essais, l’erreur est de moins de 5%.
Les figure 11 et 12 montrent la créature virtuelle utilisant son réseau configuré pour interpréter des images non apprises.
Figure 9 Figure 10
Figure 11 Figure 12
3-2 Apprentissage non supervisé par résonance
Les images successives de la capture d’une scène réelle par la caméra constituent un flux de données dont on peut analyser les caractéristiques dynamiques. Présenté en entrée d’un réseau complètement connecté (c’est à dire contenant des boucles réentrantes) il donne lieu à un autre flux, celui des sorties calculées par le réseau, dont on peut aussi analyser les caractéristiques dynamiques. Si l’on prend la différence des phases de ces deux flux comme critère (à minimiser) de l’apprentissage, le réseau s’auto-configure, en dehors de toute directive extérieure, de façon à rendre cohérentes les variations des entrées et celles des sorties. La figure 13 montre la saisie d’images successives filmées par la webcam. On remarque, sur le schéma représentant le réseau, les connexions réciproques (de la sortie vers l’entrée). Sur la fugure 14 on peut voir l’apprentissage consistant à rendre cohérentes les variations de ce film avec l’ensemble des sorties calculées. Sur la figure 15 le réseau interpréte des images non apprises.
Figure 13 Figure 14
En parallélisant les trois processus (acquisition des entrées, apprentissage et utilisation de la matrice des poids synaptiques) on obtient un fonctionnement dynamique, l’apprentissage se faisant à la volée, en rendant cohérentes les variations du flux d’entrée (images de la webcam) et celles du flux de sortie (forces appliquées au modèle musculaire) . La figure 16 montre le réseau apprenant en même temps qu’il observe et qu’il exécute les mouvements. On peut voir le flux d’entrée en haut (sous la forme d’images instantanées constituant sa mémoire de travail de quelques secondes), et le flux de sortie, juste en dessous (visualisant les forces). On constate que ces deux flux sont en phase. La courbe des erreurs montre le processus d’adaptation.
Figure 15 Figure 16
Je crois avoir montré l’importance de la notion de réentrance pour ce qui est des phénomènes émergents, ceci à travers deux expérimentations, l’une d’apprentissage supervisé de reconnaissance, et l’autre d’apprentissage non supervisé utilisant la résonance de deux flux d’information. Dans le premier cas on observe une capacité d’improvisation (production de variations non programmées à partir d’un ensemble d’apprentissage) et dans le deuxième cas on parlera d’une créativité artificielle (invention en dehors de toute directive extérieure). La créativité, considérée comme phénomène émergent, peut avoir un double aspect : naturel (dans un cerveau humain) et artificiel (dans un système neuronal réentrant) . Je propose de dépasser le dualisme qui pourrait résulter de l’opposition de ces deux points de vue en parlant d’une créativité élargie émergent des interactions naturel-artificiel.
Bibliographie
Abdi Hervé, Les réseaux neuronaux, Presses Universitaires de Grenoble, 1994
Atlan H., Ben Ezra E., Fogelman-Soulié F.,Pellegrin D. & Weisbuch G., Emergence of Classification Procedures in Automata Networks as a Model for Functional Self-Organization , in Journ. Theoret. Biol., no 120, pp. 371-380, 1986
Bret Michel, Virtual Living Beings, in Virtual Worlds Jean-Claude Heudin (Ed.), Springer 2000.
Changeux Jean Pierre, L’homme neuronal, Fayard 1983
Edelman Gerald M., Plus vaste que le ciel, une nouvelle théorie générale du cerveau, Odile Jacob, 2004.
Edelman Gerald M., Comment la matière devient conscience, Odile Jacob, 2000.
Kohonen T., Self-Organizing Maps , Springer-Verlag 2001
Principe José C., o Neil R., Curt Lefebvre W., Neural and Adaptive Systems, John Wiley & Sons, c. 2000.