Hebdo
No 114. 5 mai 2003

Sommaire : Cinq questions à Marcel Soberman : Les grilles informatiques | L'actualité de la semaine | Théories et concepts | Enseignement | Entreprises | La recherche en pratique | Manifestations | Le livre de la semaine | Détente


"Les grilles atteignent le stade industriel. Mais elles ouvrent encore de vastes horizons aux chercheurs, notamment pour les performances, la gestion et la sécurité, mais aussi la prise en compte de la sémantique."

Cinq questions à Marcel Soberman

Ingénieur de recherche, en charge de la coordination et de l'ingénierie des projets au département Stic du CNRS

Asti-Hebdo : Parmi les projets que vous coordonnez, figurent "les grilles informatiques", titre d'un ouvrage que vous venez de publier chez Hermès-Lavoisier. Ce domaine n'est-il pas en évolution explosive ?

Marcel Soberman : Les principes techniques atteignent un premier seuil de stabilité. Les utilisateurs des grilles ne sont plus seulement des expérimentateurs, mais il y a de plus en plus de vrais industriels et des utilisateurs heureux. Il s'agit surtout de directions de la Recherche et de grands groupes. Mais certains ont déjà acheté des produits et ils s'en servent.

Je pense en particulier à l'un d'eux, qui a mis en place une grille de type "bureautique" ( desktop computing). Bien sûr, son application est relativement simple. Elle fonctionne en mode maître-esclave. Le maître lance autant de processus esclaves qu'il peut. Il ne sait pas exactement sur combien de PC ils tournent.. mais ce qu'ils constate, c'est un gain considérable de puissance par rapport au petit cluster dont il disposait, avec de très bonnes performances et un coût faible par rapport à un système installé dans une salle machine avec un personnel d'exploitation. Et, quand il a un problème, le help-desk bureautique suffit pour le résoudre. Ni plus ni moins que pour une imprimante en panne.

Ce sont les différents volets de la fiabilité et de la sécurité qui font en ce moment le plus grand appel à la recherche. Rappelons qu'il y a deux grandes technologies de grilles :

- celles où les noeuds sont formés par des centres de calcul (exemples de grands projets reposant sur cette technologie: E-Toile, Datagrid Eurogrid ; j'emploie ici le terme de Grid (Globalisation des ressources informatiques et des données) créé pour l'ACI-Grid du ministère de la Recherche ;

- celles qui visent plus largement un grand nombre de machines, en général de type PC, réparties sur Internet (on parle desktop grid, d'Internet computing...). Les exemples connus sont: le Décrypthon, Seti@home, et bien d'autres.

A.H. : Quelles sont les principaux problèmes à résoudre aujourd'hui?

M.S. : La sécurité d'accès aux ressources constitue un des problèmes majeurs. Dans le premier cas, des techniques existent pour l'accès à la grille proprement dit, mais reposent pour une part sur la confiance dans les administrateurs locaux des centres de calcul partenaires constitutifs des nœuds. Les problèmes sont plus critiques pour les grilles du deuxième type; on constate cependant que si les entreprises se méfient de l'Internet computing, elles sont de plus en plus prêtes à jouer le jeu de l'Intranet computing.

La fiabilité en technologie Grid permet sur les grilles expérimentales européennes un taux de 70 à 90% de réussite des travaux lancés sur une grille comprenant plusieurs dizaines de sites, l'essentiel des problèmes relevant de l'usage de l'intergiciel de la grille, encore en développement. Les logiciels de base en desktop computing étant plus simples, le résultat pourrait être meilleur, mais on se heurte à la problématique des pannes sur des réseaux de micro-ordinateurs à très grande échelle que pratiquement aucune solution commerciale ne sait maîtriser aujourd'hui. La recherche française est très en avance dans ce domaine, et on peut notamment citer les travaux de l'équipe CNRS du LRI à Orsay .

A.H. : Quelles sont les nouvelles applications, et qu'est-ce qui les caractérise ?

M.S. : De plus en plus, l'usage des grilles dépasse le besoin d'effectuer des calculs intensifs et permet de résoudre la problématiques des données dispersées sur différents sites, avec des utilisateurs, des instruments, des ressources de traitement en modélisation, simulation, imagerie et visualisation, etc… en d'autres localisations. Les génomistes, par exemple, mettent en commun de multiples "banques de données", souvent sous forme de fichiers avec des encodages différents, d'ailleurs, mais qui sont dans différents états au sens de leur complétude et de leur mise à jour. Dans une logique traditionnelle, il faudrait commencer par harmoniser et fusionner toutes les données dans une seule base avant de pouvoir exécuter des traitements consommateurs sur le ou les processeurs y ayant accès. Le travail sur grille permet à la fois d'accéder aux sites appropriés et d'exécuter les calculs sur tous les processeurs disponibles. Cela nous conduira à une notion similaire au "web sémantique", où l'utilisateur décrira son besoin sans avoir besoin de localiser et décrire chaque ressource dont il peut avoir besoin.

Nous cherchons à résoudre particulièrement les problèmes de confidentialité, pour assurer la confiance nécessaire aux industriels et aussi assurer le traitement de données privatives. En informatique hospitalière, par exemple, chaque établissement dispose de données médicales de patients, qu'il est hors de question de faire circuler si ces problèmes ne sont pas résolus. Les travaux portent sur l' "anonymisation" des données permettant cependant leur traçabilité grâce à la connectivité avec les serveurs d'origine ou des tiers de confiance.

L'optimisation des performances des applications constitue bien sûr un des points clefs. Cela passe par des algorithmes adaptés aux traitements sur grilles avec la résolution des problématiques d'échanges entre processus fortement asynchrones, de latence, de reprise. La "gridification" des applications est conseillée avec des méthodes et outils adaptés à la fois aux nouveaux développements et à la reprise des logiciels patrimoniaux. Cela passe aussi par la prise en compte de certains tâches au niveau des couches réseaux durant les transferts inter noeuds, comme cela est effectué dans le projet RNTL e-Toile grâce à des routeurs intelligents disposant de services actifs à cet effet.

Des "organisations virtuelles", constituant des communautés distinctes d'utilisateurs et de ressources associées au sein d'une même infrastructure de grille, permettent de définir maintenant dynamiquement des espaces de coopération autour de ressources et d'objectifs communs, assurant le partage de logiciels et de puissants moyens de traitement, par exemple en CAO par des entreprises et leurs équipementiers.

A.H. : Les grilles ne sont-elles pas simplement un cas particulier des web services ?

M.S. : L'appel aux grilles est tout à fait concevable sous forme de services web, et la norme Ogsa (Open grid services architecture) est en cours de spécification au sein du GGF ( Global grid forum, le principal organisme consacré au grilles) en s'appuyant sur ces notions. Cependant, il faut rappeler que des applications peuvent échanger entre elles via les web services sans être sur une grille, et qu'elles peuvent s'exécuter sur une grille sans se préoccuper d'Ogsa. Par contre, cette norme permettra l'interopérabilité entre grilles et apportera un support intéressant pour des fonctionnalités telles que l'allocation dynamique des processus en connaissance du nombre de processeurs disponibles à cet instant.

A.H. : Y a-t-il vraiment une différence entre la grille et le calcul réparti sur une ferme de PC ou une grappe de serveurs par exemple ?

M.S. : Oui, par la souplesse apportée avec ou sans le recours à des partenaires extérieurs. Car la taille des parcs bute sur des limites, l'obsolescence des équipements est importante. Je connais une entreprise qui exploite en réseau quelque 13 000 unités centrales dans le monde. Et quand elle a besoin de puissance supplémentaire, elle achète 1000 PC de plus. Mais on finit toujours par buter sur des limites. Ne serait-ce que la complexité de gérer de tels parcs, de leur trouver des locaux climatisés... Même le recours à des prestataires extérieurs en infogérance a ses limites.

Le recours à des grilles multiples s'imposera d'autant plus que l'on dispose de plus en plus d'outils permettant un accès transparent aux ressources. On peut s'inspirer ici de ce que font les opérateurs téléphoniques: c'est à peine si l'on sait que l'on travaille avec SFR, Bouygues ou Orange. De toutes façons, le client n'a pas à se préoccuper des accords qui les lient entre eux pour le roaming, la facturation etc. L'économie des systèmes de grille, leur facturation forme donc aussi un thème important de recherche, car l'approche est complexe sur les plans techniques et organisationnels. Et des solutions sont indispensables du point de vue d'un partage équitable des coûts, de la rémunération des services, mais aussi comme outil de contrôle -envers des travaux qui utiliseraient incorrectement la puissance de l'outil- et de régulation du système.

En conclusion, les grilles ont à la fois atteint un stade industriel, tout en ouvrant toujours de vastes horizons aux chercheurs. Il y a des problèmes de fond à résoudre dans la sécurité, sur la manière de concevoir et de lancer les applications, leur exécution dans un environnement à très large échelle, etc…Trente équipes du CNRS/STIC sont engagées dans des projets nationaux et européens relatifs aux grilles, l'algorithmique parallèle, les masses de données distribuées, la sécurité, la sémantique dans l'accès aux ressources, etc… autour de RTP (réseaux thématiques pluridisciplinaires). Enfin, la valorisation des résultats de la recherche est déjà bien engagée, chez les grands fournisseurs comme chez un nombre croissant d'utilisateurs, et on trouve là une synergie jusque là trop rare en France entre les grands organismes de recherche et le tissu industriel.

Propos recueillis par Pierre Berger


Actualité de la semaine

Les métiers face aux TIC : ouvrir le dialogue sur la certification

La Commissariat général du Plan vient de publier son rapport Les métiers face aux technologies de l'information (à la Documentation française). Une bonne partie des conclusions ne font que confirmer des convictions répandues dans nos communautés :
- les TIC vont de pair avec des réorganisations, qui appellent à la fois plus de compétences techniques et plus de capacités d'adaptation aux changements d'organisation,
- les TIC comportent des risques d'exclusion,
- le fonds des métiers subsiste, mais certains métiers se recomposent.

Les auteurs, en revanche, sont originaux dans leurs propositions d'action :
- développer la culture ergonomique dans les entreprises,
- encourager la négociation des changements,
- ouvrir le dialogue social sur la certification.

Ce dernier point fait toute sa place au PCIE, soutenu par l'Asti. Mais le Commissariat ne se contente pas de la situation existante, et invite à "développer une réflexion sur l'élaboration d'un certificat de qualification professionnel (CQP) TIC".A suivre, donc !

L'Opéra K... et les Nouvelles Technologies

K..., deuxième opéra composé par Philippe Manoury (né en 1952) et créé en 2001 à l'Opéra Bastille, est repris ce printemps 2003, dans ce même Opéra. Inspirée par le roman Le Procès de Franz Kafka, cette oeuvre en douze scènes a fait l'objet de nombreux développements technologiques, réalisés par l'Ircam, (Institut de Recherche et de Coordination Acoustique/Musique). Les dispositifs de traitement du son en temps réel, jouent ici un rôle dramaturgique essentiel. La présence de choeurs virtuels (concurremment aux chœurs réels), ainsi que la spatialisation des sons modifient radicalement le rapport entre la scène et la salle, en intégrant l'écoute du spectateur dans l'action dramatique.

De nouvelles techniques de synthèse vocale ont été développées par Geoffroy Peeters de l'équipe Analyse-synthèse de l'Ircam dirigée par Xavier Rodet, afin de récréer l'effet d'un choeur chanté. À partir de l'enregistrement de quelques voix, des scènes de foules ont pu voir le jour par un effet de multiplication par synthèse des sons. L'objectif n'était pas de refaire un choeur à l'identique mais de donner une impression "inouïe" de multitude, de travailler indépendamment sur les bruits et les sons des voix, voire de sculpter la matière vocale dans des registres inaccessibles pour la voix.

Depuis la fin des années soixante-dix, l'Ircam effectue des recherches sur la synthèse de la voix chantée qui ont abouti à plusieurs réalisations spectaculaires dont le film Farinelli, il Castrato de Gérard Corbiau. Le choeur virtuel de l'opéra K ... est ainsi composé de quarante interprètes virtuels générés atome après atome sur l'environnement informatique temps-réel de l'Ircam jMax. Un ensemble de règles d'interaction entre les voix, dérivées d'études faites sur un choeur réel, constitue le "chef de choeur " virtuel dirigeant l'ensemble des interprètes virtuels. Au-delà de la reproduction de l'effet d'un choeur chanté, le choeur virtuel permet la création de nouveaux espaces vocaux. "J'ai utilisé des synthèses de choeurs, notamment pour une scène dans une cathédrale. Des accords de choeurs sont successivement projetés dans trois acoustiques différentes : assez proche, plutôt lointaine et très lointaine, ainsi que devant, au milieu et derrière. Je souhaitais recréer l'acoustique d'une cathédrale," explique Philippe Manoury.

L'électronique est utilisée comme un véritable instrument qui produit le son en temps réel au moment de la représentation. Ce n'est pas une bande magnétique mais un système, développé à l'Ircam par des informaticiens dirigés par François Dechelle, qui se synchronise avec l'orchestre sous la direction du chef. Le résultat sonore (tempo, spatialisation, réverbération, mixage) n'est pas fixé totalement à l'avance, mais est contrôlé pendant le spectacle. Le système jMax, utilisé pour K..., a été développé par l'équipe temps réel de l'Ircam et est distribué sous forme de logiciel libre. De nombreuses applications musicales similaires à celles utilisées dans K... sont diffusées par le Forum Ircam., site web pour les logiciels de l'Institut.

Philippe Manoury a utilisé un outil spécifiquement développé par l'Ircam, le Spatialisateur , qui permet de faire circuler le son dans l'espace de la salle. La spatialisation a été réalisée spécialement pour l'Opéra-Bastille par Véronique Larcher et Olivier Warusfel, chercheurs en acoustique des salles de l'Ircam. Philippe Manoury a réellement composé avec l'espace pour créer des lieux sonores virtuels – y compris des "toupies sonores" reprises à Karlheinz Stockhausen, qui modifient la perception habituellement frontale de l'opéra. Ainsi, pour la scène de la cathédrale, il a voulu donner une impression sonore "onirique" de l'édifice. La diffusion du son se fait sur 16 canaux répartis dans toute la salle pour lesquels le compositeur a développé plusieurs trajectoires spatiales.

Mireille Boris


Théories et concepts

Services Web : à la mode mais...

Expression à la mode, "web services" ("services web", en français...) n'exprime-t-elle pas (aussi) un concept aux racines profondes ? Dans un dossier joint à ce numéro, nous regroupons ci-après un point de vue éditorial (Pierre Berger), un commentaire de Guy Lapassat et des notes prise à une table ronde organisée par le Club de la presse informatique et des télécommunications. Y intervenait notamment Claude Amenc, Vice-président d'Eurogiciel, que nous avons interviewé dans notre numéro 112, en écorchant hélas le nom de sa société, ce dont nous nous excusons.

En bref :
- l'expression "web services" est déplaisante (nous demanderons son avis à la commission de terminologie, mais toutes les propositions seront les bienvenues par mail à la rédaction),
- le concept est puissant, à la rencontre des grandes lignées de développement des Stic,
- l'offre du marché n'est qu'une adaptation à court terme à la demande
- la réalisation sur le terrain (Printemps.com) se présente bien mais il reste à voir comment se passera la montée en charge.

Parutions chez Springer

Réseaux de capteurs. F. Zhao and L. Guibas (Eds.) : Information processing in sensor networks Second international workshop, IPSN 2003, Palo Alto, CA, USA, April 22-23, 2003. Proceedings http://link.springer.de/link/service/series/0558/tocs/t2634.htm

Le web intelligent ? E. Menasalvas, J. Segovia, P.S. Szczepaniak (Eds.) : Advances in web intelligence.
First international atlanticweb intelligence conference Awic 2003, Madrid, Spain, May 5-6, 2003. Proceedings
http://link.springer.de/link/service/series/0558/tocs/t2663.htm

Gestion des connaissance et gouvernement électronique. M.A. Wimmer (Ed.) : Knowledge management in electronic government. 4th Ifip international working conference, KMGov 2003, Rhodes, Greece, May 26-28, 2003. Proceedings
http://link.springer.de/link/service/series/0558/tocs/t2645.htm

Codes correcteurs d'erreur et autres mathématiques. M. Fossorier, T. Høholdt, A. Poli (Eds.) : Applied algebra, algebraic algorithms and error-correcting codes 15th International Symposium, AAECC-15, Toulouse, France, May 12-16, 2003. Proceedings http://link.springer.de/link/service/series/0558/tocs/t2643.htm

Calcul granulaire. G. Wang, Q. Liu, Y. Yao, A. Skowron (Eds.) : Rough sets, fuzzy sets, data mining, and granular computing 9th international conference, RSFDGrC 2003, Chongqing, China, May 26-29, 2003. Proceedings
http://link.springer.de/link/service/series/0558/tocs/t2639.htm

Analyse symbolique des programmes. T. Fahringer, B. Scholz : Advanced symbolic analysis for compilers.
New techniques and algorithms for symbolic program analysis and optimization
http://link.springer.de/link/service/series/0558/tocs/t2628.htm

Grands systèmes multi-agents. A. Garcia, C. Lucena, F. Zambonelli, A. Omicini, J. Castro (Eds.) :
Software engineering for large-scale multi-agent systems. Research issues and practical applications
http://link.springer.de/link/service/series/0558/tocs/t2603.htm

Traitement de texte intelligent. A. Gelbukh (Ed.) : Computational linguistics and intelligent text processing
4th International conference, CICLing 2003 Mexico city, Mexico, February 16-22, 2003. Proceedings. http://link.springer.de/link/service/series/0558/tocs/t2588.htm


Enseignement

Le livre de Luc Ferry : décevant pour l'enseignement des Stic

Luc Ferry, ministre de la Jeunesse, de l'éducation nationale et de la recherche vient d'adresser une (longue) lettre à tous les enseignants. Parallèlement, ce texte de 134 pages est publié aux éditions Odile Jacob: "Lettre à tous ceux qui aiment l'école; pour expliquer les réformes en cours". Il est suivi par un texte de 20 pages de Xavier Darcos, Ministre délégué à l'enseignement scolaire: "Où voulons nous aller ?" et d'un texte de 18 pages de Claudie Haigneré, Ministre déléguée à la Recherche et aux Nouvelles Technologies: "Demain, la science". L'ensemble est téléchargeable (au format PDF).

Juste une allusion aux TIC (à propos de l'aide à la lecture) dans le texte du ministre qui reconnaît d'ailleurs d'entrée de jeu que le dossier n'est pas traité. Ainsi, après l'énumération des « 10 réformes de grande envergure », on peut lire : « Il ne s'agit pas ici de rechercher l' exhaustivité : bien d'autres questions mériteraient d'être évoquées. Comment intégrer en profondeur les nouvelles technologies dans nos démarches éducatives ? ». Cette question n’étant pas traitée nous ne saurons pas de quelle « profondeur » il s'agit. Peut être d'un enseignement structuré des Stic ?

Xavier Darcos compense un peu cette lacune puisqu'il consacre une courte page aux "TIC au service de l'enseignement et de la culture", mais en restant comme toujours au niveau des "outils": « L'école doit apprendre aux élèves à maîtriser les outils modernes de communication et à exploiter la masse d'informations auxquelles ils donnent accès. Pour cela, au-delà de l'effort d'équipement informatique, déjà largement engagé avec l'aide des collectivités locales, je souhaite mettre à la disposition des écoles des contenus numériques de qualité (encyclopédies, atlas, textes littéraires, bases d'images, etc.) et des services apportant une réelle plus-value aux élèves, aux familles et aux enseignants (par exemple, le cartable électronique). Bien évidemment, rien de tout cela ne sera possible sans la formation des enseignants et la fourniture d'une assistance technique et éducative adaptée » . Effectivement, comment enseigner ce qu'on ne maîtrise pas soi même ?

Dans "Demain, la science", Claudie Haigneré nous livre une envolée lyrique sur la science, où l'informatique à l'école se réduit aux écrans et consoles de jeux « tout cela c'est la science » (sic) et à Internet « outil d'accès à la connaissance, formidable livre illustré qu'il faut apprendre à feuilleter ». Encore la fâcheuse confusion entre l'information et la connaissance. Rien sur l'informatique en tant que science et les Stic en général. Quelle déception !

Jacques Baudé


Entreprises

ROI : la méthode Disney

Depuis au moins les années 1930 (selon les bulletins du Cnof, à l'époque) et jusqu'au paradoxe de Solow, la mesure de la rentabilité de l'informatique a toujours fait problème. On parle plus souvent de ROI (return on investment). Il semble qu'au moins une firme ait réussi à mettre ce paramètre en oeuvre pour ses choix informatiques, puisque Bruno Rocheton (Euro Disney), dans une interview à 01.Net, déclare « La mesure du retour sur investissement départage nos projets ». Le journal résume : En termes d'investissement et de financement informatique, la méthode Disney a fait ses preuves. Elle montre que le retour sur investissement (ROI) est un outil qui doit mobiliser toute l'entreprise.

Cobol prouve sa vitalité

Gérard Canesi signe un dossier de quatre pages sur Cobol dans Le monde informatique du 2 mai. Résumé : Soixante pour cent des lignes de code dans le monde seraient du Cobol. Et force est de constater que, plus de quarante ans après son invention, ce langage souvent qualifié de dépassé reste d'une étonnante vitalité. Le langage et les ateliers de développement se sont adaptés aux nouvelles méthodes de programmation et aux interfaces graphiques.


La recherche en pratique

Doctorants

L'Association nationale des docteurs ès Sciences organise le 24 maide 10h à 13h une conférence-débat sur le thème: "Les débouchés de la thèse, en dehors de l'enseignement supérieur et de la recherche publique". Entrée libre, à l'auditorium de la Grande galerie de l'évolution du Muséum national d'histoire naturelle.
Plus d'informations

Diffusion des données publiques

Le Forum des droits sur l’internet a publié une nouvelle recommandation consacrée à la diffusion des données publiques en ligne. Présentes dans de nombreux domaines (lois, cartes géographiques, statistiques ), ces données constituent un marché important mais dont l'équilibre économique a été bouleversé par l'internet.

Dans cette perspective, le Forum demande une nouvelle régulation de l'industrie de l'information, basée sur une refonte de la Commission d'accès aux documents administratifs (Cada) et sur l'obligation d'identification et de mise à disposition de l'ensemble des données publiques. Il propose également la mise en place d'une nouvelle grille de tarification afin d'aboutir à une meilleure transparence et à la diffusion gratuite des "données publiques essentielles".

Cette recommandation s’inscrira dans le cadre des travaux préparatoires à la directive européenne sur la réutilisation et l’exploitation commerciale des documents du secteur public.


Manifestations

29-30 avril : RIAM à Marseille

Le RIAM (Réseau de recherche et d'innovation en audiovisuel et multimédia) tient ses journées au palais du Pharo (Marseille), les 29 et 30 avril. Au programme cette année : jeux en réseau, réalité virtuelle, images de synthèse, gestion des bases de données multimédia ou protection des contenus... le réseau soutient l'innovation dans les produits et services pour la création et la diffusion de contenus multimédia interactifs et audiovisuels sur les nouveaux réseaux à haut débit fixes et mobiles. Il a déjà soutenu 54 projets, réunissant 130 partenaires.
Renseignements et inscriptions

Information des usagers

L'Inrets (Institut national de rechercher sur les transports et leur sécurité) annonce la prochaine session de son séminaire "Systèmes d'information au service des usagers". Il qui se tiendra le jeudi 22 mai à Paris au Conservatoire national des Arts et métiers, dans le triple but de :
- faire le point sur ces techniques, leurs approches et leurs stratégies d'utilisation,
- présenter un panorama de l'offre actuelle,
- en montrer les intérêts technique et économique au travers de la description d'applications en vraie grandeur en service dans le monde des transports.

Manifestations des associations fondatrices de l'Asti

- Afia
- Afig
- Afihm
- ASF - ACM Sigops
- Atala
- Atief
- Cigref
- Creis
- GRCE
- Gutenberg
- Inforsid
- Specif


Le livre de la semaine

Gestion des connaissances

L'expression même de "gestion des connaissances", comme la pratique des entreprises, suppose que l'on applique ce mot à la fois à des êtres humains et des objets extérieurs, qu'il s'agisse de documents ou de systèmes informatiques ; et que la connaissance peut être transférée du monde des hommes à celui des machines. D'où d'abord un certain malaise philosophique, car pour beaucoup la connaissance est le propre de l'homme. Mais aussi un problème social, car les humains, et surtout ceux qui font profession de leurs connaissances, les experts, mettent peu de bonne volonté à s'en laisser dessaisir.

Ce fut le grand défi de l'intelligence artificielle, ou plutôt de sa deuxième vague, celle des années 1980. Marvin Minsky en fut sans doute l'initiateur du point de vue de la connaissance, avec son article de 1975 (A framework for representing knowledge, in P. Winston, ed. The psychology of computer vision, Niew York, McGraw Hill). En France, le mouvement fut lancé notamment par les grands articles de Jean-Louis Laurière Représentation et utilisation des connaissances (Revue TSI vol. 1. no 1 et 2). En 1986, la maturité semblait acquise avec la parution de Systèmes experts, vers la maîtrise technique, d'Alain Bonnet, Jean-Paul Haton et Jean-Michel Truong-Ngoc (Interéditions). Une nouvelle profession naissait : le cogniticien, spécialiste du transfert des connaissances vers les machines.

Pour des raisons à la fois techniques et humaines, dès la fin des années 1980, on prend conscience que les systèmes experts ne répondent pas aux espérances qu'ils avaient fait naître, malgré quelques beaux succès (en particulier le système Sachem, d'Usinor). Que font alors les cogniticiens ? Ils lancent la gestion des connaissances, mettant à profit les compétences, et les modèles, développés pour l'IA au service des entreprises dans un double volet documentaire et humain. Ce réalisme conduit à jeter un voile discret sur les déchirures philosophiques, sociales et industrielles qui marquent les fondements de la nouvelle discipline. Mais il crée un certain flou qui rend souvent décevante la lecture des ouvrages qui la présentent.

Dernier ouvrage en date, La gestion des connaissances vient de sortir chez Hermès/Lavoisier sous la signature de Jean-Louis Ermine, chercheur au CEA et détaché au laboratoire Tech-Cico de l'université de technologie de Troyes. Il ne fait certes pas l'analyse historique (sa bibliographie se limite à des ouvrages récents) mais, malgré sa brièveté (166 pages), il laisse au moins pressentir les problèmes, décrivant d'ailleurs la gestion des connaissances comme un "management paradoxal", reprenant même le thème des "doubles contraintes" cher à l'école de Palo-Alto : "Les mots d'ordre... pour la gestion des connaissances sont vécus la plupart du temps comme des injonctions paradoxales... capitaliser... partager... créer...".

En effet, "le contenu du patrimoine de connaissances est à la fois caché et disséminé dans deux composantes essentielles de l'entreprise, le capital humain... le capital d'information... Dès lors la gestion d'un patrimoine de connaissances se révèle problématique du fait de son caractère bicéphale humain/capital d'information et de son caractère caché tacite/enfoui".

En pratique, on mettra en oeuvre deux processus principaux : l'explicitation des connaissances (le travail classique du cogniticien) et la gestion des communautés de savoir. (Rappelons que nous avons sur ce dernier point interviewé Eddie Soulier, du même laboratoire, dans notre numéro 50).

Le livre comporte deux grandes annexes. La première plonge dans la complexité quasiment fractale de "la nature des connaissances". La seconde présente l'utilisation de la méthode Mask, élaborée au CEA.

Le texte principal se termine par un chapitre sur "les facteurs-clés de succès de la gestion des connaissances". Il insiste sur les facteurs de motivation des acteurs, qui doit conduire à l'obtention d'un consensus, à une validation par les pairs et finalement à une approbation par les autorités décisionnelles : "Sans le changement lié à cette prise de conscience managériale, le système, même valide et légitime, ne sera pas utilisé par les destinataires, car il ne semblera pas correspondre à une stratégie "naturelle" de l'organisation". Ah, que nous sommes loin des glorieuses ambitions d'il y a... un quart de siècle !

Notons que les cogniticiens vont par ailleurs trouver du grain à moudre sur la Toile, où, trois milliards de pages de connaissances sont explicitées. D'où l'émergence du "web sémantique", que l'on pourrait considérer comme une application nouvelle de la gestion des connaissances.

Enfin, on a vu apparaître le terme proche de "gestion de contenus". Contrairement à ce que l'on pourrait attendre, cette catégorie de produits et de prestations ne concerne ni la gestion ni les contenus, mais la production normalisée de contenants (notamment dans la presse, qu'elle s'exprime sur papier ou sur le web).Ici encore devrait émerger le besoin de compléments sémantiques recourant aux sciences et technologies cognitives.

On parlera beaucoup de toutes ces questions au prochain Salon de l'information numérique, dont nous avons interviewé le président dans notre numéro 112.

P.B.


Détente

La voiture, un jeu de dominos ?

Pas grand chose à voir avec les Stic, sinon qu'il y a quelque plaisir à profiter de toutes ces ennuyeuses normes pondues par tous ces organismes obscurs... juste pour un joli clip publicitaire gentiment offert par un constructeur japonais.
L'équipe ASTI-HEBDO : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris, Claire Rémy et Armand Berger. Asti-Hebdo est diffusé par FTPresse.