Stic-Hebdo |
No 42. 31 janvier 2005
Sommaire : Trois questions à Jean-Louis Giavitto (Lami) | Théories et concepts | Enseignement | La recherche en pratique | Dans les entreprises et les administrations : | Manifestations | Détente
"Tout en fournissant aux autres disciplines ses capacités de modélisation, l'informatique est une science qui a ses objets propres et peut se développer de manière purement interne"
Stic Hebdo : Vos travaux sur les modèles non conventionnels de programmation (*) posent la question des métaphores et des analogies qui inspirent l'informatique. De l'extérieur, il semble que ce sont les mathématiques et la logique qui sont pourvoyeurs d'idée pour l'informatique . Vous défendez l'apport d'un autre champ des mathématiques, comme la topologie, mais vous avez aussi développé des outils inspirés par des notions issues de la critique littéraire. Qu'est-ce qui vous pousse dans de telles directions de recherche ?
Jean-Louis Giavitto: Mes réflexions s'organisent selon deux axes : d'une part les applications de l'informatique et les problèmes qu'elles nous posent, d'autre part la dynamique interne de l'informatique elle-même.
Actuellement, mon laboratoire et moi tentons d'apporter des réponses aux biologistes. Ils viennent nous voir nous disent : "Nous voudrions modéliser cela". Par exemple, dans le domaine de la biologie du développement, ils nous montrent des images, ou un film, des premières phases de l'embryogénèse du zebrafish (un animal assez transparent, donc pour lequel il est relativement facile de voir comment il s'organise en cellules et en tissus). Le film montre un oeuf qui se divise, en gardant le même volume global, et les cellules qui migrent. Bien qu'elles aient toutes le même matériau génétique, le même programme, elles se différencient, selon l'endroit où elles se trouvent dans l'oeuf, et aboutissent ainsi à une structure complexe, stable et robuste, celle de l'embryon.
Pour décrire ce type de processus, il faut inventer de nouveaux concepts, par exemple la notion d' "information de position" étudié par Lewis Wolpert pour expliquer comment une cellule peut être renseignée, savoir si elle est près d'un bord ou du centre. Ces termes sont évidemment très anthropomorphiques, la cellule ne "sait" pas, à proprement parler. Mais elle dispose de différents mécanismes qui lui permettent d'agir de manière différenciée. L'information de position peut lui être fournie par des capteurs chimiques, des signaux mécaniques, ou une mémorisation du temps passé dans le déplacement.
Plus généralement, un des problèmes central de la biologie du développement se pose sous la forme "Comment une forme stable arrive-t-elle à se créer, alors qu'il n'y a pas de chef d'orchestre central pour la construire pas à pas ?".
Evelyne Fox Keller vient de dresser un panorama de ces représentations dans son livre Expliquer la vie. Modèles, métaphores et machines en biologie du développement (Gallimard 2004). Au début du XXe siècle, les explications étaient plutôt physico-chimiques, mécanistes (voir le livre de D'Arcy Thomson On growth and form, Cambridge University Press, London, 1995) : une forme s'impose, s'explique parce que c’est une forme optimale. Cinquante ans plus tard, en 1952, après avoir achevé ses travaux sur la calculabilité et la programmation, Alan Turing (dans un travail réédité dans PT Saunders, ed: Morphogenesis : collected works of AM Turing, North-Holland, 1992), avance l'idée qu'on peut expliquer la création des formes par une diffusion de substances et des réactions entre elles.
Concrètement, je suis convaincu que ce dont ont besoin les biologistes, c'est de langages permettant des représentations suffisamment formelle pour raisonner, simuler, tester, valider, comparer... les systèmes et les processus biologiques complexes qu'il veulent étudier et comprendre. L'informatique s'inscrit naturellement dans ce mouvement de construction : elle a des outils pour spécifier, comparer, combiner, faire fonctionner.
S.H. L'informatique serait-elle essentiellement un outil de construction de représentation au service des autres sciences et activités?
J.L.G. L'informatique fournit des outils de représentation formelle, comme les mathématiques, mais de manière différente. J'ai écrit un éditorial là dessus dans un récent numéro de la revue TSI.
L'informatique diffère des mathématiques d'abord dans sa démarche : elle est synthétique, alors que les mathématiques ne sont pas nécessairement constructives. L'informaticien est un ingénieur qui construit un système et ne se contente pas de décrire ou de se reposer sur la nécessité des choses. Un objet existe pour un informaticien quand on peut le construire, quand on peut le calculer (et le calculable est une notion subtile).
Ensuite, j'adhère tout à fait à une opinion exprimée par Patrick Greussay : les mathématiques s'intéressent
L'informatique intervient entre ces deux ordres de complexité. Un central téléphonique (j'ai commencé ma carrière chez Alcatel) représente aujourd'hui dix millions de lignes de codes (mais pas des centaines de milliards). Et la biologie se situe à un ou deux ordres de grandeurs au-dessus. Les objets du vivant, ce n'est pas deux ou trois variables, ni des centaines de milliards, c'est 10 000 gènes, 50 000 protéines, 100 000 espèces chimiques ... un cerveau contient beaucoup moins d'éléments qu'une mole de gaz.
Ce que l'informaticien sait faire, c'est de structurer de telles masses de données. Pour lui, ce n'est pas un "cimetière de faits" comme le disait René Thom ; c'est un terreau fertile... à condition de ne pas le voir "à plat", de ne pas se laisser décourager par ce "plat de spaghettis", mais d'y mettre des structures, du sens. Par exemple, en biologie, avec la construction de ce qu'on appelles les réseaux de régulation (des graphes représentant l'influence des gènes les uns sur les autres), et en les étudiant par exemple à l'aide de notion comme les "graphes petits mondes " (Watts, D.J. Small worlds : The dynamics of networks between order and randomness. Princeton University Press, 1999).
Structurer, c'est par exemple découper en morceaux, organiser en modules, relativement autonomes les uns par rapport aux autres, mais pas totalement séparés. Simplement, ce qui se passe dans un module est plus significatif, est d'un ordre supérieur aux interactions entre modules. Avec ses structures de contrôle et de données, un langage de programmation est un bon outil pour ce travail.
Ainsi conçue, l'informatique est une science qui a ses objets propres, ses outils, ses techniques et ses problématiques propres, (calculabilité, complexité, concurrence, interaction, etc.). Elle peut se développer de manière purement interne, indépendamment du besoin des applications. Elle peut considérer la demande des utilisateurs comme des signaux qu'elle reçoit et qui la font progresser (de manière souvent surprenante d'ailleurs). On l'a vu avec Internet, né au départ de besoins de défense. On le voit avec les langages de programmation : on les crée en général pour répondre à une utilisation spécifique. Par exemple ML, une version typée de Lisp, a été spécifiquement développé pour exprimer les tactiques de preuve automatique. Par la suite, il a échappé à ce domaine, car les concepts qu'il portait se sont avérés utiles dans d'autres domaines. Là comme ailleurs, les idées sont comme une sorte de fluide invasif, qui déborde de sa niche d'origine (cf. Dan Sperber, La contagion des idées, Odile Jacob 1966) et qui voyage (Isabelle Stengers D'une science à l'autre. Des concepts nomades, Seuil 1987).
Actuellement, je considère la biologie comme un des domaines qui suscitent en informatique de nouvelles représentations intéressantes. Ce n'est pas nouveau du tout : on a parlé très tôt, en même temps que la naissance de l'informatique, de neurone artificiel (McCulloch et Pitts, 1943), d'automates cellulaire (Von Neumann, 1958), de perceptron (Rosenblatt, 1958), etc., mais c'est à nouveau particulièrement vrai aujourd'hui. Et il y a un vrai dialogue, un enrichissement réciproque, bien qu'il soit rarement perçu comme tel par les autres disciplines qui, souvent, ne voient dans l'informatique qu'un... prestataire de services.
S.H. Mais l'informatique, et particulièrement la programmation, avec son écriture textuelle, linéaire et particulièrement absconse (même pour ses auteurs, souvent), peut-elle vraiment prétendre à fournir des représentations à d'autres spécialités ?
J.L.G. La programmation n'est pas forcément linéaire ! Evidemment, si l'on s'arrête aux langages séquentiels, au Pascal au C ou au Basic, cela semble extrêmement linéaire. Mais, depuis longtemps, on a élaboré des langages concurrents et parallèles, et l'on en est aujourd'hui aux modèles multi-agents.
Il ne faut d'ailleurs pas confondre linéaire et textuel. Effectivement, un texte se présente comme une séquence de caractères ou de mots. Mais il est l'instanciation d'une langue, dotée d'une grammaire, qui lui donne des structures non nécessairement linéaires.
En outre, l'informatique propose des langages graphiques, non seulement pour la construction des GUI (où ils sont naturels), mais aussi pour la conception par boites (UML !). Il existe des langages où l'on construit un programme comme un tableau de Mondrian, des outils de programmation graphique. Un langage comme Mathematica prend vraiment en compte les structures des formules mathématiques : un exposant est vraiment un exposant, une fraction a vraiment un dessus et un dessous.
Cela dit, je reconnais que le domaine des outils de programmation vraiment graphiques est encore largement expérimental. Et encore faut-il que les graphiques apportent quelque chose par rapport à la représentation textuelle, qui a d'entrée de jeu un atout important : l'abondance des outils pour la manipuler.
L'informatique a beaucoup à apprendre des travaux sur le raisonnement diagrammatique. Le raisonnement n'est pas forcément de nature logique, articulé à travers des phrases, comme le montre par exemple le petit livre de R.B.Nelson Proofs without words (Mathematical association of America, 1993), où l'on trouve par exemple la classique démonstration géométrique du théorème de Pythagore. Ou du psychiatre Dominique Laplane, qui a étudié des formes d'aphasie, où la perte du langage n'empêche pas le fonctionnement intellectuel et le raisonnement (La pensée outre mots Les Empêcheurs de penser en rond, 1997) .
Mais concluons sur plus beau encore : Guillaume Hutzler du Lami développe avec Bernard Gortais, artiste associé à notre laboratoire, le projet "G dans C avec machine", où l'on dialogue avec la machine par des postures et d'enchaînements de postures du corps basée sur les positions d'ouverture, de fermeture et de flexion, dont le sens varie suivant le rythme, la continuité, la vitesse. Linéaire, l'informatique ? Allons donc !
Propos recueillis par Pierre Berger
(*)On trouvera un état de l'art récent des modèles non conventionnels de programmation dans les actes du colloque UPP'04 (Le Mont Saint-Michel 15-17 septembre 2004).
L'infranet est un réseau "à qualité de service". Cette "initiative" est signalée par Olivier Descamps dans Le monde informatique du 28 janvier.
Ce concept revient souvent aujourd'hui dans les médias, et remet en cause bien des formules traditionnelles.
Selon Guy Hervier (ITR Manager), il montrerait les limites de la loi de Moore. "Face à quelques difficultés dans la poursuite à l’augmentation de la fréquence des horloges, Intel met les bouchées doubles au développement de technologies qui permettent de palier aux limites de la physique. Après avoir annoncé son programme de composants multicoeurs, le numéro Un des microprocesseurs annonce qu’il introduirait dès cette année – et non en 2006 comme prévu initialement – sa technologie de virtualisation Vanderpool. Intel vient d’en publier les premières spécifications.
Dans notre numéro 40, à propos des choix scale up/scale out, il s'opposait à la traditionnelle loi de Grosch.
Pour Jean-Luc Rognon dans Le monde informatique du 28 janvier, "la virtualisation bouscule les plans de reprise d'activité".
Il s'agit ici d'une virtualisation très matérielle : implantation des processeurs sur les chips, des chips dans les lames, des lames dans les baies et des baies sur les sites. On est très loin du virtuel comme opposé au réel, au présenciel (pour les réunions) ou au matériel (pour les jeux et les interfaces).
Au programme :
- 3 février : les plates-formes e-learning
- 10 février : travailler et vivre avec le web (une expérience personnelle)
- 17 février : l'authentification forte
- 10 mars : informatique et urbanisme
- 17 mars : l'extreme programming
- 24 mars : la cérémonie du thé
- 31 mars : l'homme augmenté
- 7 avril : l'urbanisation du système d'information
- 24 avril : la "vexation par les machines" selon Sloterdijk.
Ces réunions sont réservées aux membres du Club et à leurs invités. Si vous n'êtes pas dans ce cas, mais souhaitez y participer, mettez un courriel au président Marc Robichon.
Une expérimentation de la plate-forme de classe virtuelle a été mise en place afin :
Une conférence en ligne : " Comment aborder le rôle de formateur en classe virtuelle synchrone ? " aura lieu le 3 février 2005 de 17h à 18h. Inscriptions à partir du 28 janvier 2005. En savoir plus.
Le numéro 77 de la collection "Principes de la planification de l'éducation", signé par Willem Pelgum et Nancy Law est titré Les TIC et l'éducation dans le monde : tendances, enjeux et perspectives. On peut l'acheter ( 12,20 euros) ou le télécharger. Seule la version anglaise est disponible pour l'instant.
Un extrait de sa présentation : "A l'aube du XXIe siècle, aucun système éducatif national ne peut se permettre d'ignorer l'enjeu que constitue l'élaboration de politiques et de stratégies d'application des TIC à l'éducation. Introduire les TIC dans un système éducatif n'en est pas moins un processus long et complexe qui exige de nombreux changements : style de leadership, structures organisationnelles, infrastructures, programmes scolaires, pratiques et mentalités sont concernés. Le présent ouvrage étudie en détail ces questions". Le document.
Rubrique réalisée avec la collaboration de Jacques BaudéLa Cnil publie une nouvelle norme simplifiée pour la gestion des ressources humaines Le document.
Communiqué par la diffusion Paris 7. Pour vous abonner.
Au salon Solutions Linux (du 1er au 3 février), l'Inria présente Amaya 9.0 "logiciel d’édition de pages Web à la portée de tous". Il permet à la fois, de naviguer sur le Web et de créer ou modifier des pages Web, tout en respectant les standards Web internationaux du W3C. Il est notamment accessible aux personnes handicapées et offre un espace collaboratif.
Distribué gratuitement, Amaya est utilisable sur les plates-formes Linux, Windows et bientôt Mac OS X.
Informations et téléchargement.La migration sera longue, titre Le monde informatique pour son dossier du 28 janvier : "Après avoir fait leurs preuves côté serveur, développement et middleware, les logiciels open source sont parés pour investir le poste de travail en entreprise. Mais, en dépit de leur maturité, les distributions Linux et les principaux logiciels pour postes clients se heurtent à des obstacles qui peuvent relativiser l'intérêt d'une migration". Neuf pages signées notamment par Olivier Rafal, Sandrine Chilotti et Thierry Parisot.
Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.
Le lien pour accéder au programme du colloque LexiPraxi 2005 qui se tiendra au Ministère de la Recherche, rue Descartes, a été changé. Il faut faire http://www.ailf.asso.fr/lp2005.php et non ce qui figurait dans notre numéro 41.
Arrêtez de mettre n'importe quoi sur votre écran et de faire semblant de vous croire à la plage, au fond d'un aquarium ou à la maison avec les enfants... soyez transparents et réalistes !
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.