Hebdo No 127. 6 octobre 2003

Sommaire : Trois questions à Alain Garnier (Arisem) | L'actualité de la semaine | Mots et concepts | Enseignement | La recherche en pratique | Manifestations | Le livre de la semaine



"La recherche s'épanouit soit quand elle est très libre, soit quand elle est structurée par les besoins du marché. Entre les deux se situe un no man's land où l'on ne débouche sur aucun résultat intéressant."

Trois questions à Alain Garnier

Directeur technique d' Arisem

Asti-hebdo : Votre société, dont vous êtes un des fondateurs, a toujours donné beaucoup d'importance à la recherche et à l'innovation en profondeur. Quelles en sont les idées maîtresses ?

Alain Garnier : Aujourd'hui, notre recherche s'oriente sur deux axes : la sémantique de l'information d'une part, la standardisation de sa représentation d'autre part.

Notre métier, c'est de transformer l'information pour la sémantiser d'avantage, lui donner plus de sens. Ou, pour parler un langage plus proche de celui des entreprises, nous partons de donnée "non structurées" (fichiers Word, par exemple) ou "de faible qualité", et nous produisons de la donnée structurée. Elle se présente sous forme de fichiers XML où la donnée brute est valorisée par tout ce que nous avons pu extraire des corpus de documents pris en compte.

Prenons un exemple : le chiffre 3393, tel quel, ne veut rien dire. Mais si l'on précise qu'il s'agit du code d'accès à un compte en banque, ce chiffre ouvre des possibilités d'action. Et le processus est récursif : qu'est-ce qu'un code d'accès, qu'est-ce qu'un compte en banque, qu'est-ce qu'une banque..

Cela dit, il faut rester prudent quand on parle de richesse sémantique. Ce que l'on gagne en "sens" dans un environnement donné, à un moment donné, on risque de le perdre en capacité d'intermédiation avec les autres, dans d'autres environnements. Par exemple :
- XML porte la promesse de l'explicitation totale d'une sémantique implicite. Mais qui sera capable de faire des opérations sur une telle richesse ? Par contraste, SQL peut sembler moins riche, mais c'est un niveau médian, sur lequel des communautés se sont mises d'accord pour rendre possibles et significatives tout un ensemble d'opérations. La réalité d'XML demain sera sans doute un juste milieu entre ces deux niveaux sémantiques.
- La langue française comporte de lourdes contraintes grammaticales. Elle n'autorise pas facilement la création de mots nouveaux. Il peut donc être intéressant de créer des jargons très spécialisés, avec des mots extraordinaires et des concepts à peine imaginables par le commun des mortels... mais justement, le commun des mortels n'y comprendra rien.

Dans l'entreprise, le gain sémantique n'est valable qu'à condition de
- guider les utilisateurs, parce qu'ils n'en peuvent plus de gaspiller de l'énergie à chercher de l'information,
- structurer (comme on le fait en approche sémantique "brutale" avec les ERP).

La standardisation de la sémantique est donc notre deuxième axe de recherche. Des standards comme COM, Corba ou les EJB normalisent les échanges en termes de capacité purement informatique entre machines. Mais ensuite, quel est le "sens" de ce que les entreprises échangent. L'EDI a été un précurseur. Ses promoteurs ont réfléchi plutôt sur des objets métier. Le web sémantique généralise ce qu'ils ont fait.

Il n'y a pas de rupture. Cependant, du point de vue sémantique, le passage d'Edifact à XML a ouvert un vrai débat : faut-il structurer a priori ou seulement a posteriori. Dans le premier cas, c'est la position de l'EDI classique, on se met d'accord à l'avance sur des codes et nomenclatures, puis on établit la communication et les machines se parlent entre elles. Dans le second cas, et c'est pour nous une ligne de réflexion, on laisse chacun établir ses documents comme il le souhaite, et l'on détermine a posteriori, automatiquement, une vision qui permet de communiquer effectivement entre ces deux visions. La limite de cette deuxième approche, c'est qu'elle laisse ouverte une possibilité d'erreur, parce qu'on n'a jamais tout prévu. Alors que la structuration a priori permet une étude approfondie des règles d'échange, y compris une preuve mathématique de la complétude d'analyse (comme on le fait pour les protocoles de télécommunications). La structuration a priori convient donc mieux aux applications "documentaires" qu'aux échanges entre applications de production formelles. 

J'aime comparer l'informatique à l'industrie automobile :
- un logiciel, comme une voiture, ne s'achète pas seulement pour ses fonctionnalités, mais aussi pour un ensemble de valeurs qui l'accompagnent, pour le concept, pour la marque aussi...
- un logiciel, comme une automobile, est aujourd'hui un système complexe fortement connecté, et qui doit garantir à l'utilisateur une qualité et une sécurité totales.

Et comme dans l'automobile, les problèmes de normalisation évoluent. Aujourd'hui, il ne s'agit plus de standardiser des boulons, mais des services, par exemple l'accès du conducteur aux organes de commande, ainsi que des composants complets fournis par des sous-traitants. En informatique, nous n'en sommes plus à la normalisation des langages, mais des web services. L'intégration se fait à haut niveau.

On prend le risque de se priver de certaines optimisations bas niveau entre des composants pour bénéficier de contrats de coopération à haut niveau au profit d'une optimisation globale. Et l'on peut aussi affecter une partie de l'intelligence pour faire des produits de plus en plus différenciés sur des critères qualitatifs, d'ergonomie ou d'esthétique. Nous travaillons sur ces problématiques dans le monde du W3C, notamment avec FT&RD.

Nous en sommes à l'intégration des concepts sémantiques dans toutes les couches de l'informatique. Une fois que le web sémantique se sera développé, tout système devra prendre en compte cette dimension, qu'il s'agisse de web publishing, de content management ou d'ERP. Il y aura de la sémantique partout. Et pas simplement, comme aujourd'hui, de manière externe. Cela permettra de faire communiquer les systèmes d'une manière beaucoup plus fluide qu'aujourd'hui, pour fournir des technologies que nous ne pouvons même pas encore imaginer. Notamment par la convergence du structuré et du non structuré.

A.H. : Comment appliquez-vous ces idées dans les produits et services que vous proposez ?

A.G. : Quant nous avons fondé l'entreprise, en 1996, nous avons travaillé pendant deux ans sur notre noyau sémantique, en auto-financement, car nous avions quelques bons clients, comme Total ou France Télécom. C'était avant la grande époque des start-ups. L'autofinancement nous a suffi pour aller jusqu'à 20 personnes.

Nous avons alors voulu aller plus loin, et un financement externe nous a donné les moyens de financer des recherches auxquelles nous pensions depuis longtemps. Nous sommes allés jusqu'à un effectif de 40 personnes, dont 12 en R&D. Mais nous avons alors fait l'erreur de nous lancer dans le développement d'un nouveau noyau, très compliqué, intellectuellement très intéressant... mais qui n'était ni de la recherche pure ni la réponse à une demande de clients, et qui a retardé de 18 mois la sortie de nos produits.

Après quelques révisions déchirantes, nous avons élagué pour revenir à une situation satisfaisante; Aujourd'hui, l'entreprise emploie 35 personnes et consacre un quart de son budget à la recherche et au développement, ce qui lui permet de disposer de huit chercheurs et développeurs. Certains ne font que du développement de logiciel, d'autres sont engagés sur des projets qui sont vraiment de la recherche. En l'occurrence, il s'agit d'un chercheur en contrat Cifre, et de moi-même, qui ai pris le titre américain de Chief technical officer (CTO), autrement dit, directeur technique.

Ces travaux débouchent sur des applications en entreprise. Nos outils et nos spécialistes contribuent par exemple au projet Sesame, lancé il y a trois ans par la SSII Unilog. Il s'agit de partager un avoir-faire capitalisé sur les plus grands projets de la société, sous forme d'un portail qui doit également faciliter l'intégration des nouveaux collaborateurs. Le portail est aujourd'hui opérationnel, au service de 6000 consultants et ingénieurs dans six pays européens

La force de notre société, depuis sa fondation, c'est de mettre les briques les unes à côté des autres, pour proposer des fonctions simples à comprendre pour l'utilisateur final. Car, en linguistique, on a vu se construire des modèles d'une incroyable complexité. Même s'ils étaient opérationnels, ils exigeraient des utilisateurs des efforts considérables pour des résultats assez minces. Qui peut accepter de dépenser 300% pour gagner 1% ? A l'inverse, nous devons offrir un gain de 200% pour une dépense de 10%. Alors, l'entreprise dans son ensemble, et chaque utilisateur individuellement, est prêt à faire l'investissement nécessaire.

A.H. : Comment faire de la recherche, aujourd'hui, dans une entreprise qui commercialise du logiciel et des services ?

A.G. : J'ai toujours eu l'esprit chercheur, à titre personnel. Et en particulier en informatique. J'ai fait l'IIE, avec un sujet de mémoire sur les langues naturelles (que l'on plaçait alors dans le champ de l'intelligence artificielle). J'ai prolongé mon mémoire de fin d'études par un mémoire de recherche sous la direction d'un des pionniers français du domaine, Bernard Normier, pour réaliser un analyseur sémantique incrémental, pour l'extraction automatique de connaissances à partir d'un large corpus. Ce caractère incrémental reste, aujourd'hui encore, à industrialiser.

La recherche s'épanouit soit quand elle est très libre (et du coup très innovante), soit quand elle est structurée par les besoins du marché, au prix d'une certaine perte de liberté. Entre les deux se situe une zone intermédiaire, un no man's land, où l'on fait semblant de répondre à une demande du marché et où l'on n'innove pas vraiment, et où l'on débouche finalement sur des résultats sans intérêt. C'est le danger que court spécialement la linguistique, quand des chercheurs continuent depuis des décennies à peaufiner des analyseurs syntaxiques, à modifier des types de règles et à s'interroger sur leur impact pour traiter la cataphore dans le cas d'une grammaire locale asymétrique...

En pratique, dans l'entreprise, il faut distinguer trois niveaux.

- Un niveau recherche, où il s'agit de mettre les fondamentaux en place : quel modèle documentaire choisit-on comme standard, jusqu'à quel niveau d'analyse sémantique va-t-on, etc. ? A partir des axes stratégiques ainsi définis, on peut rencontrer le monde de la recherche académique. Nous coopérons, par exemple, avec le laboratoire Lalicc, où vous avez interviewé Jean-Luc Minel dans votre numéro 110. Nous regardons ce que font les équipes universitaires et nous testons chez nous un certain nombre d'idées.

- Un niveau où les fondamentaux sont acquis, mais où l'on se pose beaucoup de questions sur l'agencement, l'architecture, les fonctionnalités Quand nous entrons dans cette phase de R&D, nous essayons de faire co-financer le projet par des clients. Non seulement pour disposer de budgets suffisants, mais aussi pour être sûr de canaliser les énergies vers quelque chose d'utile.

- Un niveau d'industrialisation, avec un prototype qui fonctionne et des fonctionnalités bien définies. A ce niveau, on travaille sur la qualité et la tenue en charge pour le déploiement en vraie grandeur.

Pour conclure, je dirais que, quelle que soit l'abstraction rationnelle et organisationnelle que l'on peut dérouler autour de la recherche dans notre domaine, on reste dans un rapport d'adaptation permanente entre le hasard et la nécessité.

Propos recueillis par Pierre Berger


Actualité de la semaine

Budget de la recherche 2004

Claudie Haigneré, ministre déléguée à la Recherche et aux Nouvelles technologies, a exposé le 25 septembre 2003 le projet de loi de finance recherche 2004. Ce projet affiche une hausse de 3,9% pour l'ensemble des dépenses publiques de recherche "tandis que les moyens d'intervention des organismes sont globalement maintenus."
:
L'intervention de Claudie Haigneré
Le dossier de presse
Le communiqué du SNCS-FSU :

"En l'absence du document budgétaire, le SNCS ne porte, avec prudence, qu'une première appréciation sur le budget 2004 de la recherche. Comme l'an passé, ce budget est en trompe l'œil.

1- Globalement, le budget de la recherche est au mieux en stagnation par rapport au budget catastrophique 2003.

En terme purement budgétaire (BCRD), il baisse de 1 % en volume. Le chiffre flatteur de +3,9 % est obtenu par le ministère en y ajoutant 100 M€ provenant ... d'éventuels dégrèvements fiscaux sur de futures "donations" dont le montant est hypothétique, et 150 M€ pour lancer un nouveau Fonds incitatif et industriel. Ce Fonds, qui sera seulement "géré" par le ministère de la recherche, semble réservé à des opérations interministérielles ("voiture propre" par exemple) dans le financement desquelles d'autres ministères (industrie, environnement) étaient auparavant impliqués. Il correspond donc à un changement de périmètre du budget de la recherche.

Il est à noter que les crédits non payés ou annulés depuis deux ans sur les "vrais" Fonds incitatifs du ministère (FNS et FRT) représentent une part significative de ces 150 M€, et que nombre de contrats incitatifs effectués par les labos n'ont toujours pas été payés par divers ministères dont les crédits d'étude ont été sacrifiés (Santé, travail, affaires sociales...).

2- S'agissant des Crédits de paiement (CP) des EPST et de la recherche universitaire, et en supposant que les nouveaux emplois de post-docs et de contractuels soient budgétisés dans les Dotations ordinaires (DO), ce qui reste à vérifier, ils sont en baisse de 1 % en volume.

Pour pouvoir se caler sur le niveau du médiocre budget 2002, et compte tenu de la forte chute des budgets initiaux 2003 et 2004 par rapport à 2002, des annulations de crédits et de la moitié des CP 2002 toujours pas versés, c'est un retard de l'ordre d'une année de CP que le gouvernement accumulé en deux ans et demi. C'est ce que démontre le décompte précis effectué en annexe sur le cas du CNRS.

Les organismes vont devoir en tout état de cause rembourser les emprunts faits sur les contrats des laboratoires l'an passé, et reconstituer leur fonds de roulement sur ce budget 2004. Avec ce budget 2004, les moyens des laboratoires seront donc fortement rognés et/ou l'investissement et l'équipement à nouveau totalement sacrifiés.

3- Pour la deuxième année consécutive, des emplois de titulaires seront supprimés dans les EPST: 550 sur 1600 départs (dont un tiers hors retraite).

En lieu et place sont créés des post-docs et des CDD, alors qu'ils sont déjà quelques milliers dans les laboratoires ou à l'étranger. Il n'est pas possible de fermer le recrutement dans les organismes publics (il baisse aussi dans les entreprises) et d'accroître le nombre de précaires, sans accentuer le vieillissement constant de l'âge d'entrée dans les carrières d'enseignement supérieur et de recherche (5 ans après la thèse en moyenne), accentuant par la même le manque d'attractivité des carrières scientifiques. La situation de l'emploi est explosive et scandaleuse.

4- Seul point positif, le montant des allocations de recherche croîtra de 4 % et 300 doctorants payés sur des libéralités auront une couverture sociale. Il semble, par contre, que l'accroissement de 300 CIFRE soit compensé par la diminution de 300 allocataires.

Pour terminer, il faut souligner qu'atteindre 3 % du PIB pour la recherche en 2010 supposait d'accroître à partir de 2002 de 5 à 6 % par an l'emploi et les crédits dans les secteurs public et privé. Depuis deux ans, emplois et crédits ont chuté. Sans insister sur le fait évident que des annulations de crédits 2004 pourraient avoir lieu ... après les élections régionales.

Annexe, les CP du CNRS (arrondis au million d'euro): LFI 2002 : 412 M€, LFI 2003 : 340 M€, LFI 2004: 342 M€
Il manque sur 2002 : 174 M€ non payés et 30 M€ annulés le 30/12/02 soit 204 M€
Il manque sur 2003 : 72 M€ de baisse du budget et 38 annulés le 15/03/02 soit 110 M€
Il manque sur 2004 : 70 M€ de baisse par rapport à 2002.

Total : Pour garder en 2002, 2003 et 2004, le niveau de crédits de la LFI 2002, il manque 384 M€ soit près de 400 M€ en tenant compte de l'inflation pour le seul CNRS. Les miettes recueillies sur les "nouveaux financements" ne compenseront sûrement pas ce fantastique trou.


Mots et concepts

Gestion de configuration et génie logiciel

Guy Lapassat, interviewé par Mireille Boris dans le numéro de juillet 2003 de la lettre de l'Adeli, sous le titre GCL et génie logiciel : l'effort vers la qualité, conclut sévèrement : "Les AGL sont morts de vouloir être intégrés au lieu de vouloir intégrer des fonctions. La nouvelle génération d'AGL ne fait pas d'Uppper case comme il faudrait. Autre défaut des AGL en général, on voit sortir des dizaines de langages différents, ce qui est une hérésie. Dans un langage, l'essentiel est d'intégrer des fonctions techniques. On nous embrouille avec les langages. Par exemple, en ce moment, des chapelles se battent pour dire que PHP est meilleur que Java, Microsoft sort sa solution propriétaire au lieu de s'orienter vers un langage commun et on régresse. Le génie logiciel est encore une jungle et nous éloigne de l'objectif de l'entreprise".

Sécurité des informations

Stéphane Geyres (Ernst & Young) signe dans ce même numéro de la lettre de l'Adeli un substantiel article L'ISO 9OOO de la sécurité. Résumé : En matière de sécurité, les codes et normes d'exigences de sécurité sont multiples dans les domaines industriels et médicaux. Ils décrivent des bonnes pratiques applicables à des domaines très divers. Beaucoup de prescriptions de sécurité sont issues de la réglementation du travail et visent à protéger l'employé ou le consommateur contre les défauts du produit ou les dysfonctionnements de la machine. Qu'en est-il dans le champ de la sécurité des informations ?

D'où vient le mot Spam ?

Toujours dans la lettre de l'Adeli, une intéressante et amusante analyse étymologique (signée par Alain Coulon).

Standard AS2.

"Grâce au standard AS2, les messages EDI peuvent être transportés sur Internet de manière sécurisée. Un protocole de transition économique en attendant les solutions entièrement basées sur XML", écrit Jean-Luc Rognon dans Le monde informatique du 5 septembre.

La puissance des normes

L'ouvrage collectif portant ce titre, sous la direction de Claude Durant et Alain Pichon (L'Harmattan), s'interroge sur la signification des normes et leur évolution. La norme revêt une dimension morale et éthique, mais aussi réglementaire et juridique. Son observation dans le travail et la société industrielle montre l'importance de son rôle dans la régulation des comportements, le mode de fonctionnement de la société, des institutions et des groupes sociaux. Mais ce rôle n'est pas figé et l'ouvrage met en évidence leur perpétuelle remise en question, leur continuel remodelage au gré des rapports de force et de pouvoir. Malgré leur caractère très général, ces considérations s'appliquent en plein au domaine des Stic.

La ville de demain

Avec un titre hyper-buzzword, Vers la cité hypermédiate. Du modernisme fossile à l'hypercité immédiate (L'Harmattan) Jean Magerand et Elisabeth Mortamais se demandent : "Quelles cités habiterons-nous demain ? Les nouvelles technologies vont-elles y détruire la convivialité ou au contraire générer des fraternités nouvelles ? Comment seront imaginés, pensés, dessinés, construits, organisés et gérés nos habitations, nos lieux de travail, nos écoles, nos villes ? Quelle sera l'architecture dans cette redistribution des cartes ? Plusieurs pistes possibles sont ici exposées pour traduire en termes d'architecture et de villes les nouvelles méthodes d'approche du réel, les univers conceptuels, issus des plus récents paradigmes scientifiques et philosophiques. "

Une vision catastrophiste du monde digital

Jeanne Hyvrard s'inquiète beaucoup pour l'avenir, avec son Ordre relativement chronologique. La grande fermaille (L'Harmattan) : "La pensée binaire ne peut prendre en compte une société fragmentée dont tous les jours des pans entiers basculent dans l'anéantissement". Ainsi se terminait la couverture du dernier ouvrage de l'auteur. Entre temps sous les coups de boutoir de la révolution cybernétique, la liquidation s'est achevée et l'ultra-libéralisme a laissé la matière vivante désemparée n'ayant plus comme repère qu'un "ordre relativement chronologique".

Commerce électronique

Hermès-Lavoisier consacre un numéro spécial de sa revue Annales des télécommunications (janvier-février 2003) au thème Commerce électronique, le temps des évaluations. Sous la direction de Frantz Rowe. Sujets traités: sécurité, performance de l'entreprise, perception du risque, régulation des échanges internationaux.

Comment construire des réseaux performants

G. Fiche et G. Hébuterne, dans Trafic et performances des réseaux de télécoms (Hermès/Lavoisier) présentent l'ensemble des méthodes d'analyse qui permettent d'assurer l'écoulement du trafic et la qualité de service des réseaux de télécommunications. Pour cela il proposent une méthodologie appliquée à toutes les phases de la vie - de la conception à l'exploitation, des systèmes.

Le livre décrit les architectures et les fonctions du point de vue des performances. Il définit ensuite les concepts de base (télétrafic, qualité de service, normalisation), puis les outils (théorie et loi des probabilités, statistiques) et les méthodes d'évaluation (fiabilité, sûreté de fonctionnement, files d'attente). Ces notions sont concrétisées par des modèles et des outils de simulation. Enfin, la mise en oeuvre de l'ensemble de ces techniques grâce à une méthodologie industrielle permet d'atteindre le maximum d'efficacité tout en respectant les contraintes de l'industrie et du marché.

Epistémologie du traitement des langues

Sous la direction de M.I. Cori, S. David et J.Léaon, un numéro spécial de la revue Traitement automatique des langues (Hermès/Lavoisier) est consacré aux Problèmes épistémologiques. Au sommaire : Pour un travail épistémologique sur le TA. La constitution du TAL. Etude historique des dénominations et des concepts. La linguistique entre science et ingénierie.

Sous la page, les codes de caractères

Un beau titre Unicode, écriture du monde, pour le numéro spécial de la revue Document numérique (Hermès/Lavoisier) publié sous la direction de Jacques André et H. Hudrisier Au sommaire, notamment : Introduction au codage des caractères et à Unicode. CDE Chappe à Unicode. Unicode et typographie Tentations et limite...

Afrique

Abdoul Ba publie à l'Harmattan Internet, cyberspace et usages en Afrique . "L'Afrique comme la planète toute entière n'échappe pas au développement de l'internet. En 1996, quatre pays étaient connectés au réseau. Aujourd'hui, ils sont plus d'une cinquantaine à disposer d'accès au cyberespace. Ce livre propose une première évaluation et une analyse inédite sur l'introduction et le développement du réseau sur le continent, mais aussi sur les internautes, sur les usages et sur les apports de l'internet. Internet peut-il favoriser le développement des pays d'Afrique ? De quel développement parle-t-on ? Du développement de qui ? "

Image

Hermès/Lavoisier publie Traitement et analyse des images numériques, par Stéphane Bres, Jean-Michel Jolion et Frank Lebourgeois. "Cet ouvrage présente ce qu'est le traitement d'images de façon théorique et pratique, à travers les approches signal, statitistiques, fonctionnelle, géométrique et ensembliste. On y retrouve les modèles les plus couramment utilisés pour décrire ce qu'est une image, ainsi que les méthodes de traitement et d'analyse qui découlent de ces modèles : amélioration d'images, restauration, seuillage, détection de contuours et recherche des régions."

Linux, un champion de la sûreté ?

Hermès/Lavoisier publie Logiciel libre et sûreté de fonctionnement, sous la direction de Philippe David et Hélène Waeselinck. "Le livre part des solutions avancées pour l'utilisation des Cots (composants sur étagère) au sein des systèmes critique, puis étend l'analyse aux caractéristiques spécifiques des logiciels libres. Il propose des solutions pour gérer les impacts de leur exploitation et pour permettre aux entreprises de ne plus seulement être utilisatrices mais actives dans la création de nouveaux logiciels libres. "


Enseignement

Le CII et les établissements expérimentateurs

L'Amue signale qu'Educnet consacre une page à la mise en oeuvre du certificat informatique et internet avec la liste des établissements expérimentateurs : http://www.educnet.education.fr/superieur/C2i.htm


La recherche en pratique

Information scientifique et journalisme

Sous la direction de Claude Le Boeuf et Nicolas Pelissier, l'Harmattan publie Communiquer l'information scientifique. Ethique du journalisme et stratégies des organisations. Les questions posées ne peuvent laisser indifférents les chercheurs en Stic, concernés à la fois comme fournisseur de technologies pour la presse et comme thème important de publications dans tous les types de presse.
Le point de vue des auteurs : "Si l'on doit se réjouir de nombreux progrès dans le domaine de la vulgarisation, une nouvelle écologie des signes simpose. Car la surabondance actuelle ne se traduit pas nécessairement par une réduction de l'incertitude et une meilleure compréhension des phénomènes scientifiques. Bien au contraire, elle suscite la multiplication de simplifications et de malentendus. Quelle marge de manoeuvre reste-t-il face à la prolifération croissante d'informations stratégiques au service d'intérêts particuliers de certaines organisations déterminées. "

Opération Campus numériques

Le document de synthèse du rapport final sur l'évaluation est en ligne http://www.educnet.education.fr/superieur/CN-evaluation.htm . (signalé par l'Amue).


Manifestations

Essaims particulaires

Maurice Clerc, organisateur de la journée "Optimisation par essaims particulaires", qui s'est tenue le 2 octobre, a mis en libre téléchargement sur le site d'OEP'03 un certain nombre de documents, et en particulier les diapositives, pédagogiques et illustrées, de son "tutoriel" : http://www.particleswarm.net/oep_2003/ .

Stockage des données

Le salon du stockage se tient à la Porte de Versailles (Paris), du 8 au 10 octobre. Commentaire du Monde informatique, qui y consacre un dossier dans son numéro du 3 octobre: "Certes, les solutions des grands constructeurs et éditeurs ont encore du chemin à accomplir sur la voie de l'administration des systèmes hétérogènes. Mais elles progressent à grands pas. Et rejoignent le besoin des entreprises confrontées à une explosion du volume de données à gérer, phénomène qui entraîne l'inflation des coûts d'administration".

Fête de la science

Du 16 au 18 octobre, conférences, tables rondes, visites de laboratoires, expositions, ateliers, projections de films vous feront découvrir, biologie, chimie, histoire, langues, mathématiques, médecine, physique.. Les groupes scolaires sont les bienvenus : il leur est conseillé de prendre rendez-vus auprès des correspondants
www.diderotp7.jussieu.fr/fscience/fscience2003.htm

Manifestations des associations fondatrices de l'Asti

- Afia
- Afig
- Afihm
- Afrif
- ASF - ACM Sigops
- Atala
- Atief
- Cigref
- Creis
- GRCE
- Gutenberg
- Inforsid
- Specif


Le livre de la semaine

Sur les relations de l'art de l'informatique

Pour Annick Jaccard-Beugnet, auteur de Art et informatique (L'Harmattan), il s'agit de deux univers bien différents, voire opposés. Il existe pourtant un art informatique, lieu de rencontre entre ces deux mondes. L'auteur a tenté de mesurer sociologiquement les conséquences de cette rencontre en ce qui concerne les artistes. Depuis les premières tentatives de Computer art dans les années 50 jusqu'au Cyberart aujourd'hui, les liens entre les mondes de l'art et de l'informatique se sont multipliés et complexifiés, soit que les artistes deviennent informaticiens, ou les informaticiens artistes.

C'est l'analyse et critique d'art Pierre Restany qui présente ainsi le livre Technoromantisme (L'Harmattan) : "A notre époque de technologie galopante, le livre de Stéphan Barron a le mérite de poser la question capitale de la lecture du progrès à travers une vision planétaire qui débouche sur un engagement écologique radical. Cet art planétaire s'inscrit naturellemnet sur "l'autre face de l'art" de notre siècle, dans une perspective qui va de Marcel Duchamp à Yves Klein pour déboucher sur les arts technologies et le "netart". Le technoromantisme thématise l'alliance de l'univers artistique et des utopies écologiques dans le contexte technoscientifique".


L'équipe ASTI-HEBDO : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris, Claire Rémy et Armand Berger. Asti-Hebdo est diffusé par l'Inist.