Association
francophone |
Sommaire : Trois questions à Gilbert Chauvet | L'actualité de la semaine | Théories et concepts | La recherche en pratique | Manifestations | Bibliographie | Détente
"Aujourd'hui, on cherche trop à utiliser l'informatique pour modéliser la biologie sans analyser ses structures profondes, fondées sur les lois de la physique et l'intégration des structures fonctionnelles."
Stic-hebdo : Auteur notamment de "La vie dans la matière, le rôle de l'espace en biologie" (Flammarion 1995), vous êtes vraiment un homme "du transversal"!
Gilbert Chauvet : C'est le moins qu'on puisse dire, je suis passé du dur au mou et du mou au dur... Parti des mathématiques pures, je suis rapidement passé à la physique théorique, puis fait beaucoup de physique, avant de passer à la médecine et à travers elle à la physiologie et à la biologie. Mon approche reste celle d'un physicien qui cherche à expliquer la spécificité des lois de la vie à partir des lois de la nature. Je suis persuadé qu'avec des moyens suffisants, on pourrait faire de la biologie une science dure. Mais les biologistes n'aiment pas les mathématiques car, dès l'enseignement secondaire, on oriente dans d'autres voies ceux qui s'intéressent aux maths.
Pour autant, je ne suis pas un réductionniste, car j'intègre les mécanismes biologiques élémentaires. En physique, pour déterminer une structure, on la casse. On y consacre les budgets astronomiques exigés par les accélérateurs qui le permettent. En biologie, casser un être vivant c'est détruire l'objet même de l'étude. Ou, pour dire les choses autrement, plus un corps physique est complexe, plus il est fragile ; alors que plus un organisme vivant est complexe, plus il est stable et résistant. Mais où est vraiment la différence entre le corps vivant et son cadavre ? Puisque du point de vue thermodynamique, l'être vivant, système biologique, est un système ouvert et que les systèmes physiques peuvent aussi être dans cet état ? La thermodynamique physique n'est donc pas suffisante.
Le mot-clé (que les informaticiens emploient dans d'autres sens que moi), c'est l'intégration. . D'un point de vue formel, la vie se caractérise par ses interactions fonctionnelles, non locales et non symétriques. A la hiérarchie physique, anatomique, (atome, cellule, tissu, organe...) vient s'ajouter la hiérarchisation des fonctions, de la physiologie.
Les lois de la physique nous sont données au niveau infinitésimal, différentiel, dans de très brefs intervalles de temps et d'espace. Je ne sais pas pourquoi, mais c'est ainsi. En revanche, la vie se caractérise pour moi comme une hiérarchie d'interactions fonctionnelles. Ces interactions sont analogues, dans une certaine mesure, aux forces de la physique. Mais la force est symétrique et locale, alors que les interactions fonctionnelles sont non locales et non symétriques. Ce formalisme conduit à des équations différentielles qui, par intégration (au sens traditionnel de l'analyse mathématique), permettent de construire des structures représentées par des graphes très compliqués et hiérarchiques. Elles montrent, par exemple, comment, dans le développement d'un être vivant, apparaissent des noeuds dans ce graphe, tandis que d'autres disparaissent. Elles permettent d'expliquer pourquoi des millions de réactions chimiques peuvent se dérouler de façon temporellement organisée, pourquoi certaines s'arrêtent à un moment donné pour fournir le bon produit qui ira agir sur une autre voie chimique et, de proche en proche, en fonction des contraintes de leur environnement.
Je crois en des principes généraux desquels ont peut déduire bon nombre d'observations (souvent des hypothèses, en biologie). J'ai découvert ce principe d'auto-association stabilisatrice, véritable paradigme qui explique les grandes phases de l'évolution d'un être vivant de l'embryon à la mort, de même que l'évolution des espèces au sens darwinien. Il ne peut se comprendre que dans un cadre théorique adapté, dans une représentation mathématique munie de son formalisme, une théorie de champ.
Un des organes les plus intéressants, de ce point de vue, est le cervelet. C'est lui qui coordonne les mouvements, qui est à la base du mouvement. Nous avons montré, et démontré, quels sont les mécanismes qui permettent au cervelet d'apprendre et de mémoriser des trajectoires. A la base, tout se passe au niveau des différentielles, de la cinétique chimique. En intégrant (mathématiquement), on remonte jusqu'au niveau macroscopique. Là, nous utilisons l'analyse numérique et les outils qui permettent de trouver les bonnes intégrales, en s'appuyant sur l'expérience de tous ceux qui ont travaillé cette spécialité, fourni des critères de convergence, etc. (Les outils du calcul formel seraient peut-être intéressants, mais ils butent sur la complexité des systèmes que nous décrivons, le nombre des équations associées...).
S.H. : Y a-t-il, pour vous, une rupture nette entre le physique et le vivant ? Dans ce cas, où placer les virus, par exemple. Et les virus informatique n'ont-ils pas quelque chose de biologique, puisqu'ils ont cette faculté essentielle du vivant : se reproduire de manière autonome?
G.C. : Je ne crois pas qu'il y ait une différence brutale. La différence apparaît au cours de l'évolution, en particulier ce caractère non local des interactions fonctionnelles, expression mathématique de la hiérarchie observable. Quant aux virus, pourrait-on en fabriquer qui soient capables d'une action déterminée ?
Les sciences de l'ingénierie sont beaucoup plus proches de la biologie que de la physique. Une automobile, comme un être vivant, c'est un ensemble de pièces organisées pour aboutir à des fonctions. Mais le vivant s'est construit au fur et à mesure de l'évolution, selon des principes généraux qu'il faut dégager. Et le vivant s'auto-reproduit, à la différence des machines. Il est vrai que les virus posent des problèmes nouveaux, aussi bien les virus biologiques que les virus informatiques. Mais je n'ai pas encore eu le loisir de m'y consacrer spécifiquement. Il faudrait analyser, répertorier de façon systématique les interactions fonctionnelles et repérer si la non-localité y apparaît. .
S.H. : Qu'attendez-vous des Stic (sciences et technologies de l'information et de la communication) pour le progrès de vos travaux?
G.C. : L'informatique qui m'intéresse est surtout l'analyse numérique. Elle me permet de modéliser mathématiquement la biologie, de résoudre et d'intégrer efficacement les systèmes d'équations différentielles qui sont à la base de la physique, donc de la biologie. Elle me permet aussi de déboucher sur des simulations.
A mon sens, les informaticiens qui s'intéressent aujourd'hui à la biologie s'éloignent trop des mathématiques (ce qui tient notamment à la formation qui est donnée aux jeunes informaticiens). Ce que l'on fait aujourd'hui en bio-informatique est typique : on construit des bases de données pour "décrire" les phénomènes biologiques, au mieux en recherchant les corrélations entre observations, sans en chercher l'explication en profondeur, à partir des mécanismes élémentaires de base. C'est comme si on décrivait les électrons avec des moyens informatiques sans connaître la mécanique quantique. D'autres tentent par exemple une modélisation à base de systèmes multi-agents, faisant correspondre un noeud à chaque structure. Mais cette approche est décevante, parce que les explications physiques ne peuvent se trouver qu'à un niveau plus fin, l'infinitésimal et que, par conséquent, les lois de la matière dont est fait l'être vivant ne peuvent être satisfaites.
Dans les autres équipes de recherche, certaines ont des approches d'ingénieur, qui construisent des boites noires, sans chercher les lois explicatives fondamentales. D'autres chercheurs restent au sein de la physique sans entrer dans l'analyse des fonctions... autant dire qu'ils n'entrent pas vraiment dans la biologie. Cela est très dommage car ils possèdent cette vision déductive qui permet de passer des principes généraux à une explication particulière... mais ils restent des réductionnistes. Enfin, on m'a dit que certains mathématiciens s'intéressaient à la biologie, mais à ma connaissance, ils ne sont pas assez formés à cette discipline, et particulièrement à la physiologie, science des fonctions à tous les niveaux, pour y contribuer vraiment efficacement.
Pour avancer dans la voie que j'ai tracée, il faudrait former des chercheurs qui aient une solide culture en mathématiques, en physique et en biologie. Mais ils n'auraient pas pour autant besoin d'apprendre toutes les mathématiques, toute la physique et toute la physiologie bien sûr. Il faudrait faire une sélection des points fondamentaux et pertinents de ces sciences pour arriver à pousser l'intégration en biologie. Par exemple, en mathématiques, les systèmes dynamiques d'intégration. En physique, certains principes fondamentaux qu'on n'enseigne aujourd'hui qu'aux plus hauts niveaux. Globalement, six ans suffiraient. Une fois ce cursus défini, il faudrait avoir les moyens de recruter des enseignants et d'attirer des étudiants, dans le cadre d'un laboratoire digne de ce nom. Et les spécialistes que nous formerions ainsi, avec cette culture transversale, trouveraient certainement des postes intéressants pour la suite de leur carrière scientifique ou industrielle.
Propos recueillis par Pierre Berger
Interview par Les automates intelligents
La neuvième édition de E-learn Expo, quatrième exposition à Paris, est le reflet des turbulences et des consolidations du marché, comme le montre la fusion de Docent avec Click2learn. Mais la reprise semble là, et la créativité dans l'ingénierie de la formationégalement; à commencer par ce qu'on appelle les "nanopédagogies" : les modules de formation sont de plus en plus courts, et la distinction entre formation et travail même, de moins en moins nette.
Ce salon est l'occasion de faire le point sur les offres des principaux vendeurs, généralistes de l'informatique, comme Oracle ou Peoplesoft, éditeurs de logiciels d'infrastructure, Saba, Docent, Webex, éditeurs de contenus, Thomson Netg, Auralog, Telelangue, et d'assister à des interventions et discussions stimulantes sur les aspects nouveaux de la formation. On notait en particulier la présentation par Macromedia de ses produits Flash et Dreamweaver dans leur application au développement auteur d'applications AICC ( Aviation industry computer-based training committee) et Scorm (Sharable content object reference model), normes supportées par les principaux LMS (Learning management servers).
Andy Sadler (IBM Etats-Unis) a présenté l'apprentissage juste-à-temps, sur le lieu de travail "On Demand". L'école est finie a-t-il dit, et il est besoin d'un apprentissage personnalisé avec soutien sur le lieu de travail, l'environnement d'apprentissage étant complètement intégré au flux de travail, " à la demande".
Selon une récente étude menée par Thomson NETg et le cabinet international de conseil en gestion des ressources humaines, DBM, un employé sur cinq seulement est parfaitement qualifié pour le poste qu'il occupe. Ces résultats mettent en évidence le fait qu'aujourd'hui les entreprises négligent les besoins en formation de leurs collaborateurs. En conséquence, elles réduisent en même temps que leur propre productivité, la motivation et la satisfaction de leurs employés.
Près de 40% des personnes interrogées ont déclaré qu'une formation et une évolution plus motivantes contribueraient à améliorer la satisfaction qu'elles retirent de leur travail, tandis que 24% pensent qu'un coaching régulier en améliorerait la qualité. Plus de la moitié (60%) des personnes interrogées, en outre, ne perçoit pas clairement l'adéquation entre la formation dispensée et les objectifs stratégiques globaux de leur entreprise.
Les principaux résultats de l'enquête ont donné lieu à une première table ronde qui a réuni des spécialistes parmi lesquels, Jean-Pierre Praud, responsable eLearning Aventis, Jacques Delplancq, directeur délégué du Président, IBM, Benjamin Amar, directeur général de Thomson NETg France, et à un débat entre PDG du eLearning et représentants d'utilisateurs, pour amorcer le partage des responsabilités.
Mireille Boris
Rappelons que dans notre numéro 3, nous avons interviewé sur ces questions Martine Vidal (Co-rédacteur en chef, Distances et savoir) et Sally-Ann Moore, directrice du salon E-learn expo (22-23 janvier).
A l'occasion du 38e Midem, Le Monde du 24 janvier consacre une double page aux inquiétudes des industriels de la musique, dont les ventes ont baissé de 14 à 15 % l'an dernier. Principal coupable ou du moins suspect : l'Internet à haut débit. Dans ce cadre, Nicole Vulser signale le "remède simple" proposé par le Centre d'économie industrielle de l'Ecole des mines de Paris, dans une étude signée Olivier Bomsel. Il suggère d'imposer aux fournisseurs d'accès une tarification dissuasive pour le trafic montant susceptible de contenir des fichiers sous copyright.
Quatre des dix experts en informatique chargés par le Pentagone d'évaluer son nouveau système de vote par Internet ont émis de sérieuses réserves sur les questions de sécurité. D'un coût de 22 millions de dollars, le programme de vote électronique développé devrait concerner à terme près de 100000 expatriés américains, militaires et civils.
Des tests grandeur nature sont prévus cette année sur une cinquantaine
de circonscriptions (comtés) volontaires répartis dans 7 Etats
(Arkansas, Floride, Hawaï, Caroline du Nord, Caroline du Sud, Utah et Washington).
La série commencera le 3 février avec les primaires de la Caroline
du Sud pour se terminer au mois de novembre. Si les résultats sont concluants,
ce mode de scrutin par Internet pourrait être généralisé
pour les présidentielles de 2008. Et c'est justement ce que craignent
les spécialistes qui se sont exprimés avant le rapport final de
leur groupe. Ceux-ci craignent en effet une réussite des essais et plaident
pour un abandon immédiat du projet. Selon eux, les risques d'attaque
par Internet de la part d'organisation étrangères seront au plus
haut dans les années à venir. Le Pentagone a de son côté
fait
savoir qu'il estimait ces craintes exagérées, même si des
améliorations sont sans doute à envisager. Le rapport final des
experts au complet devrait être rendu public après les élections,
lorsque la performance du système aura été examinée.
Communiqué du bulletin S&T
Presse, d'après le Washington
Post
L'Inra a mis en ligne un dossier sur la communication scientifique. Il le présente ainsi : "Depuis plus de 10 ans, grâce au développement de l'informatique et d'Internet, de nouveaux modèles de communication de l'information scientifique ont vu le jour. Ces modèles se sont propagés dans le monde entier, dans différents secteurs de la science. La mainmise sur la publication scientifique par les grands éditeurs commerciaux est remise en question. Cette page permet de surveiller les sites des organismes et des chercheurs les plus impliqués dans la révolution qui se dessine.".
Au sommaire : L'évolution sur les 12 dernières années. Les mouvements d'Archives ouvertes. L'autoarchivage en France. Les archives en tête dans le monde. L'implication des bibliothécaires. Les revues en libre accès. Une réflexion avancée. Position des fondations. Position des instituts de recherche. Position des gouvernements. Les grands projets. Les débats actuels.
La Diffusion Paris 7 signale que les étudiants du DESS Cistem (Communication information scientifique et technique de CCI, option communication des organisations), présentent leurs travaux de recherche, campus Jussieu, 1er étage couloir 24/34, salle 105, le lundi 16 février à 13h30.
La Direction des affaires juridiques du CNRS a récemment actualisé son dossier en ligne consacré aux logiciels. Les aspects liés à la protection juridique des logiciels (droit d'auteur, types de protection existants...) et à leur exploitation (licences) y sont notamment abordés. En ligne également : des informations sur la brevetabilité des logiciels.
Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.
L'association Crédible (qui regroupe les experts français en EDI, Echange de données informatisé) organise une matinée de travail, le jeudi 12 février (de 9h30 à 11h30, au Père tranquille, 14 rue Pierre Lescot 75001 Paris), sur le thème EbXML: vers un nouveau standard. Au programme :
- Le framework ebXML a été présenté par le Cefact-Onu
comme le standard pouvant remplacer Edifact pour l'EDI et le B2B en général.
Après la proof of concept de Vienne en 2001, la mise au point d'ebXML
a été partagée entre Oasis (partie technique)et le Cefact-Onu (contenu métier).Qu'en
est-il aujourd'hui ?
- Oasis vient de présenter sa partie technique (messaging) au TC 154
de l'ISO pour une normalisation en fast-track. Les offreurs et utilisateurs
français ont-ils des observations sur cette proposition ?
- Avec son groupe UBL (Universal business language) et un nouveau groupe
BP (business process), Oasis semble prendre le relais du Cefact-Onu
qui met désormais l'accent sur son BCF (Business collaborative framework).
- Où les groupes d'utilisateurs et les communautés EDI doivent-elles présenter
leurs travaux et besoins en matière de core components et business
process ?
Toujours au Cefact-Onu ? A Oasis qui déclare respecter les spécifications adoptées
par le Cefact-Onu ? Débats avec les représentants des différentes communautés
sectorielles de l’EDI.
Contact et inscriptions : Michel Chevrier. (Amateurs s'abstenir, comme on peut le déduire du programme).
Le Paris ACM Siggraph sera présent à Imagina2004, du 2 au 5 Février à Monte-Carlo. En vedette du congrès-salon, John Desjardin et Dan Glass, qui ont dirigé la réalisation des effets graphiques de Matrix revolutions.
L'Agence pour la protection des programmes organise une rencontre Interopérabilité.
Logiciel, jeu vidéo, base de données, le mardi 10 février 2004 de 9 h à
12 h, 6, rue Albert de Lapparent, Paris 7e. Au Programme :
- de la compatibilité à la liberté du commerce (Pierre Sirinelli),
- l'accès aux informations permettant l'interopérabilité (François Wallon),
- l'organisation contractuelle (Vincent Fauchoux),
- table ronde : bouleversement des équilibres (Daniel Duthil avec Didier Adda,
Alain Bloch et les conférenciers) .
Renseignements
et inscriptions
"Le Zéro et le Un", c'est le titre de l'ouvrage (900 pages) que Jérôme Segal vient de publier chez Syllepse, avec le sous-titre "Histoire de la notion scientifique d’information au 20e siècle". Voici la présentation qu'en donne l'éditeur.
La notion d’information est une des plus importantes notions en jeu dans les sciences et les technologies, eu égard au très large spectre de ses utilisations et de ses terrains d’application. Nonobstant le passé « analogique » de ces technologies, le 0 et le 1 des ordinateurs numériques symbolisent cette prégnance, cette omniprésence.
Une telle diversité impliquait l’ampleur panoramique qui caractérise ce livre. À travers la mise en évidence de l’importance du contexte historique dans lequel toute activité scientifique s’inscrit, Jérôme Segal aborde, notamment, la place de l’eugénisme dans l’œuvre de Fisher, les différents types d’organisation de la recherche entre l’entreprise Siemens et les Bell Labs, l’importance des recherches militaires pendant la seconde guerre mondiale et leurs liens avec le monde universitaire et industriel, le rôle des fondations américaines, le contexte politique de la France d’après-guerre, le poids de la guerre froide dans l’établissement des premiers réseaux informatiques, ou encore le cadre dans lequel s’inscrivent les différents discours sur l’unité des sciences. De même, il explore des champs disciplinaires fort distincts : physique quantique, théorie du signal, mathématiques, biologie moléculaire, linguistique, informatique, etc.
C’est à tous ces titres que la notion d’information peut être qualifiée de cruciale et considérée comme indispensable pour comprendre l’histoire scientifique et technologique du 20e siècle, dont on peut dire, en regard de son énorme fécondité conceptuelle et pratique, qu’il a constitué, de ce point de vue, le formidable socle de notre 21e siècle, à peine advenu et déjà si gros des promesses fondées ou aberrantes d’une « société de l’information et de la communication » qu’il faut résolument apprendre à connaître et à maîtriser.
Grâce à son ampleur, ce livre peut légitimement se donner comme l’ouvrage de référence sur la question des définitions de l’information et des usages des multiples théories de l’information. Jérôme Segal propose une somme dont l’apport est sans égal en France : des auteurs aussi importants, bien que peu connus – et sur lesquels on ne trouve aucune monographie en français – que Szilárd, Smoluchowski et même Shannon sont présentés en détail. De même, on trouve de longs développements sur l’essor de la cybernétique, comme discipline mais surtout comme « source » de métaphores, de modèles, d’analogie dans de nombreux domaines. Le chap. 7 est, entre autres, une synthèse très utile sur le débat de plus en plus prégnant au sujet de la pertinence de l’idée de code et d’information génétiques. Pour autant, ce livre n’est pas qu’un travail académique qui revendiquerait une vaine neutralité par rapport à son objet ; non, Segal examine avec une réelle acuité critique les nombreux errements de la pensée, quand elle s’empare de l’information pour en faire un « sésame » scientifique ou philosophique prétendu apte à rendre compte de tous les phénomènes du monde, culturel ou naturel.
Tout est bon pour augmenter l'efficacité de l'EAO. Quand j'étais petit, c'était une image pieuse qui trônait sur la salle de classe... Pourquoi pas aujourd'hui, sur le petit écran, une star de la musique jeune ? Il faut vivre avec son temps ! Pour apprivoiser les utilisateurs à Windows, Microsoft leur a bien offert le démineur et autre casseurs de briques ! Alors, ne nous arrêtons pas aux nanopédagogies (voir rubrique "actualités"), allons jusqu'aux nanas ! Cela dit, une fois la belle image savourée, les formules de physique restent des formules de physique. P.B.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est diffusé par l'Inist.