Association francophone
pour la recherche et l'enseignement en
sciences et technologies de l'information


  Abonnement/Désabt. 

  Accueil Asti 

  Accueil Gerbert 

  Numéros précédents 

 Dictionnaire 

Stic-Hebdo

No 63. 3 octobre 2005

Asti 2005

Le programme, les inscriptions, les hébergements sont en ligne.

 

Sommaire : Cinq questions à Gaétan Hains (ANR) | L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Dans les entreprises et les administrations : | Manifestations | Bibliographie | Détente


"Je dis aux membres de l'Asti : Venez avec des projets !"

Cinq questions à Gaétan Hains

Responsable de programmes. Agence nationale de la recherche

Stic Hebdo : Vous voilà récemment arrivé dans ces nouveaux murs. Vous participez au lancement d'un nouvel organisme de pilotage de la recherche, plus spécialement dans le domaine des Stic. Quelles raisons vous ont conduit à cette orientation de votre carrière ?

Gaétan Hains. Comme vous pouvez le voir sur ma page web , québécois de naissance, je poursuis une carrière dans la recherche universitaire publique, à partir d'une spécialisation de départ sur les langages, la programmation parallèle, et au-delà vers la vérification. Je suis devenu en 2000 directeur du  Lifo (Laboratoire d'informatique fondamentale d'Orléans). J'ai fait évoluer ses travaux vers la vérification de protocoles, les propriétés de sécurité, la formalisation de ces domaines.  Je lui consacre encore 20% de mon temps.

Cette activité de direction m'a conduit à m'intéresser à la gestion et à la politique de la recherche, d'abord au plan régional, puis à son niveau national. Je pense en effet que nous, chercheurs, nous avons un rôle à jouer dans l'évolution des appels et des programmes, qui ne sont pas figés. C'est le sens de mon entrée à l'Agence.

L'ANR a été annoncée et mise en place cette année.  Elle dispose maintenant de ses structures, avec sa direction et ses responsables de programmes.  Leurs fonctions exactes sont en cours de définition. Il s'agit au moins de veiller à ce que la déontologie soit appliquée dans toute la gestion des appels : composition des comités, suivi des projets. Nous participons aussi activement à la mise en place des financements, à l’organisation générale et à l’évolution des appels à projets.

Je suis plus spécialement en charge de quatre programmes :

- l'ARA (les ARA sont des actions de recherche amont, qui succèdent aux ACI, actions concertées incitatives) MDMS (masses de données, modélisation, simulation et applications),

- l'ARA SSIA (sécurité, systèmes embarqués et intelligence ambiante),

- le RNTL (réseau national des technologies logicielles), programme de recherche partenariale entre la recherche publique et les entreprises,

- le programme calcul intensif et grilles de calcul (CIGC), on parle aujourd'hui de calcul hautes performances, ce domaine étant une priorité nationale et ayant obtenu un appel spécifique (il y a eu d'anciennes ACI dans le domaine).

Sur l'ensemble de ces quatre programmes, l'enveloppe prévue cette année (avec paiement dans les trois années à venir), est de près de 40 millions d'euros.

Je suis en relation avec l'animation des programmes "blancs" pour ce qui concerne les Stic :
- programme « jeunes chercheurs », ouvert à toutes les disciplines, dont l'informatique et les Stic,
- programme non thématique, sur des sujets non couverts par les autres appels, et destinés à de petites équipes, typiquement des seniors.

S.H. : Concrètement, comment fonctionne l'agence ?

G.H. Nous sommes presque une quarantaine, dont 23 scientifiques à temps plein ou partiel pour ceux qui comme moi maintiennent une présence dans leurs laboratoires. 

Le travail est largement externalisé vers des "organismes support" (c'est la terminologie officielle) qui gèrent les appels sous notre contrôle. Ils ont un rôle de gestion du processus d’évaluation, d’expertise et de suivi. Il s'agit du CEA pour le calcul intensif, du CNRS pour les deux ARA, de l'ANRT pour le RNTL. L’Anvar réalise aussi des analyses financières et valide des devis pour financement de notre institution.  

Notre action n'est jamais celle d'un organisme de recherche et a fortiori d'un ministère qui décide ex cathedra. Notre rôle est la coordination scientifique (c'est pourquoi la direction a voulu s'entourer de chargés de programmes). Il s'exerce certes de façon structurellement descendante, car il faut bien une pyramide. Mais le contenu est toujours élaboré, discuté, mis en évolution, avec les organismes et les partenaires. Les ministères et les organismes de recherche participent à notre Conseil d’administration. Nous cherchons ici une relation forte avec les chercheurs, les utilisateurs et les industriels.

Les programmes étaient jusqu'ici quelque peu éparpillés entre les organismes qui les géraient, les ministères qui les lançaient... ils sont maintenant recadrés dans l'agence. Elle a son propre budget, indépendant des ministères. Et elle va concentrer tous les financements de recherche sur projets. Cela va conduire à  un certain nettoyage, et permettre aux autres organismes de se concentrer sur leur vrai rôle: créer et gérer des laboratoires, gère des personnels, organiser la coopération.

Nous ne sommes pas là pour décider du contenu de la recherche française. Nous reprenons l'existant, et nous évoluons à partir des réponses à nos appels, mais aussi des rapports et des discussions avec les partenaires de la recherche nationale. Le plus important, c'est que chaque appel est géré avec un souci d'équité absolue et de  transparence. Et que toute suggestion sur l'évolution des fonctionnements comme des contenus  puisse servir aux discussions des comités de pilotage en vue des prochains appels. En ce sens, tout ce que nous faisons est complètement émergent.

Il est important que les organismes qui représentent la communauté puissent faire émerger des points de vue. A l'avenir, quand seront formés de nouveaux comités, on pourrait imaginer que des représentants de la société civile y représentent par exemple le point de vue du logiciel libre. Bien entendu, les intervenants existants que sont les représentants de l'Inra ou du département Stic au CNRS pour ne nommer qu’eux, interviennent directement dans nos conseils et nos comités. Dans le cas des programmes dont j’ai la responsabilité, je peux servir de relais pour transmettre des idées aux responsables des comités et à leurs membres.

S.H. : Ce rôle peut vous conduire à de délicats arbitrages... ?

G.H. Oui, j'en citerai deux : le rôle des chercheurs étrangers dans nos comités (et plus généralement le rôle de la langue anglaise dans la recherche en France) et la valorisation de la recherche amont.

Etre francophone, c'est bien. Mais quand on a à dire quelque chose d'universel, l'anglais est de facto la langue internationale.  En recherche pure, la question ne se pose presque plus. Mais une instance nationale comme la nôtre doit se conformer à la loi, qui l'oblige à permettre que tout chercheur français puisse s'exprimer, écrire, vivre, en français.  Il faut tenir compte aussi de la pression des entreprises nationales. La langue, comme les systèmes d'unités, font partie de stratégies de protection qu'emploient tous les pays, à commencer par les Etats-Unis.

Il y a là une contradiction à gérer entre les impératifs nationaux et les objectifs de transparence et de pure qualité scientifique. Il s'agit d'irriguer le tissu national, mais nous devons le faire sur les meilleurs projets.

En valorisation, les objectifs sont contradictoires. La science vit de fenêtres et de portes ouvertes. Notre rôle, défini par notre charte et un certain nombre de textes, est de démontrer que les projets soutenus sont du meilleur niveau scientifique. Pour autant, les détails de nos rapports d’experts et nos évaluations sont confidentiels. Les débats doivent être protégés, comme celui de n'importe quel comité scientifique. Mais la composition des comités, en particulier, sera publiée, avec le CV de tous les membres.

En revanche, ce qui relève du développement finalisé de produits ou d'outils relevant de stratégies nationales (par exemple les applications militaires du calcul intensif) n'est plus du ressort de nos réseaux. Nous travaillons dans le précompétitif, disons plutôt l'amont. 

La mise en place des pôles de compétitivité ne va pas modifier fondamentalement notre mode d'évaluation des projets. Mais nous avons pour directive de les soutenir.  Notre intention est de faire un bilan  et, pour 2006, en concertation avec les DRRT,  de faire remonter, au moment des appels, l'information sur les projets portés par les pôles, permettant d'en tenir compte dans les sélections.

La recherche française est loin d'être consolidée, surtout en Stic. Mes dix ans d'expérience en France m'on montré que ces évolutions sont lentes.  J'ai pu apprécier un certain assainissement, par exemple la directive Jospin sur l'accueil des chercheurs étrangers, l'évolution de la loi de finances qui a facilité les achats (des stylos aux PC) pour les laboratoires universitaires. Dans vingt ans, nous aurons fait des progrès significatifs.

S.H. : Avez-vous des relations avec vos analogues à l'étranger ?

G.H. Il y a des agences comparables : l' EPSRC en Angleterre, le CRSNG au Canada, la DFG en Allemagne et, bien sur, la NSF aux Etats-Unis. Notre direction s’inspire parfois de ces agences sans les copier car chacune a des objectifs détaillés adaptés à son environnement. Nous nous occupons aussi d’actions bilatérales voire multilatérales mais il est encore tôt pour prévoir l’effet global qu’elles auront sur la recherche nationale en Stic. 

L'expérience montre d'ailleurs que les laboratoires français savent fort bien trouver des coopérations internationales pour participer par exemple aux projets européens.

S.H. : Pensez-vous qu'une association comme l'Asti ait à jouer un rôle dans un domaine où les structures d'animation sont déjà nombreuses ?

G.H. Si je tiens à m'adresser directement à la communauté, et à l'Asti en particulier à Clermont-Ferrand, c'est que nous voulons être non pas un pôle d'attraction, mais un point de rencontre pour les intervenants, un peu comme a pu l'être le département Stic du CNRS depuis qu’il existe.

Il est important que chacun de ceux qui s'intéressent à la structuration de la recherche, qui veulent y intéresser le public puis les politiques, pour qu'elle dispose des moyens appropriés et que ses résultats soient valorisés, se posent la question de se faire entendre à l'ANR, en passant par l'intermédiaire de leur hiérarchie, essentiellement les directions de laboratoires ou de structures plus globales au sein de l'Inria, du CRNS, du CEA, de leur entreprise et, j'allais m'oublier ma propre appartenance, les directions de laboratoires universitaires et la CPU.  Les organisations transversales comme les GDR, les autres associations comme Specif sont aussi des lieux de communication utiles en ce sens.

Toutes ces structures peuvent faire remonter des propositions (voire des critiques) sur les thèmes mais aussi sur l'articulation concrète des programmes de financement de la recherche amont et appliquée. Je préfère parler de recherche partenariale plutôt qu'appliquée, car l'important est d'être en prise avec les entreprises. La communauté des chercheurs en Stic doit s’exprimer de manière lisible en faveur d’axes prioritaires qui émergent, sont soutenus et évoluent.

La France est complexe. Parmi ses points forts, je suis frappé par sa tradition de mise en réseau. Au Canada et dans certains autres pays, chaque enseignant-chercheur est une sorte de PME, et tous ses collègues sont donc un peu des concurrents, au mieux des partenaires. En France, la pression pour le regroupement est forte, exprimé par exemple dans les GDR, mais aussi dans les associations et le journalisme spécialisé. Les financements ANR sont, sauf exception, attribués à des équipes et non à des chercheurs individuels.

Je dis donc aux membres de l'Asti :  venez avec des projets. Ce sera bon pour nous comme pour vous. Au minimum, c'est un moyen d'assurer un retour, de faire travailler nos experts, de montrer que  la communauté est vivante et variée, de faire monter les  paramètres technocratiques, le "taux de pression", comme on dit dans notre jargon. Et pour les équipes, c'est un moyen d'obtenir une expertise utile pour obtenir par la suite des moyens intéressants de financement.

Propos recueillis par Pierre Berger


Actualité de la semaine

Aurons nous un IET ?

La Commission européenne vient de lancer une consultation publique concernant la création d’un Institut européen de technologie (IET). Cette consultation sera menée jusqu’à la mi-novembre, date après laquelle elle verra s’il y a lieu de poursuivre la réflexion et de rédiger un document pour le Conseil européen de mars prochain. Cette idée s’inscrit dans le cadre de la stratégie de Lisbonne - faire de l’Union l’économie de la connaissance la plus compétitive et la plus dynamique du monde d’ici 2010 - qui, à mi-parcours, semble difficilement prendre forme et accuse un retard significatif, le président de la Commission José Manuel Barroso l’a lui-même reconnu. Ce futur EIT devra constituer un pôle d’attraction auprès des meilleurs chercheurs, idées et entreprises. D'après ITR manager.

Peut-on vivre sans Google ?

Une journée sur le thème "L'avenir de la recherche d'information sur le web" est organisée le mardi 11 octobre à l'ENS LSH à Lyon. Problème : La recherche d'information sur le Web se résume très souvent aujourd'hui à un seul nom : Google, moteur de recherche qui totalise près de 80% de parts de trafic en France et en Europe. Cette quasi hégémonie représente-t-elle un risque ou un atout pour l'avenir ? A quoi ressemblera le moteur de recherche de demain ?

Les débats seront modérés par Olivier Andrieu du site abondance.com et co-créateur du moteur de recherche Mozbot.fr.
Le programme.

Par ailleurs, on lira dans le dernier numéro de DLib, une analyse des collections des cinq bibliothèques qui participent à Google Print. A noter :
- la proportion des collections qui est sous droits est importante, environ 80%,
- les ouvrages de langue anglaise ne représentent qu'un peu moins de 50% de la collection. Les ouvrages germanophones, francophones et hispanophones (dans cet ordre d'importance) représentent 25%, et les 25% restant sont éparpillés sur environ 400 langues. Bref, l'écrasement de la francophonie par l'ogre anglophone Google semble largement fantasmé." (D'après Biblioacid )


Théories et concepts

Informatique et géomérie

La journée informatique et géométrie (JGAD) se tiendra à l'IHP IH, 11, rue Pierre et Marie Curie - 75231 Paris Cedex 05, Salle 201, les 13-14 octobre 2005. Soutenue par le GDR ALP et le CNRS, cette journée, qui fait suite à l'action spécifique 2003-2004, a pour but de rapprocher les communautés de géométrie algorithmique et de géométrie discrète.

La géométrie discrète et la géométrie algorithmique sont deux domaines très voisins. De nombreuses questions sont posées sous des formes différentes par les chercheurs des deux sensibilités, "discrètes et continues"', ou encore, calcul "en entier'' et "en flottant''. Pourtant, jusqu'à présent, les recherches sur ces deux thématiques jumelles ont été généralement conduites séparément, on peut dire parallèlement, par deux communautés de scientifiques n'ayant que peu de contacts.

Par ailleurs, la géométrie discrète et la géométrie algorithmique ont un autre point commun : les chercheurs français, relativement nombreux, qui travaillent sur ces problématiques sont éparpillés dans de multiples équipes de faibles effectifs, réparties sur tout le territoire national. La journée vise à rapprocher ces différentes unités, en leur donnant des moyens pour initier ou soutenir des collaborations, autour de quelques questions clés.

a) Discrétisation et arrondis certifiés. L'implémentation des algorithmes géométriques en utilisant la représentation flottante des nombres réels nuit à la robustesse de certaines méthodes, et peut dans de nombreux cas conduire à des comportements aberrants des programmes. Le caractère exact et robuste des calculs en entiers suggère de résoudre certains problèmes (ex. calcul d'une triangulation de Delaunay, évaluation de paramètres géométriques tels que l'aire ou la courbure, caractérisation d'une situation topologique, opération ensembliste sur les surfaces,...) par des méthodes en trois temps :

i) Discrétisation certifiée des objets continus "préservant'' des propriétés telles que la convexité, la topologie, l'existence d'intersection entre segments... La conception d'une telle discrétisation passe par la définition de notions discrètes (telles que la topologie, la courbure) ou combinatoires (ex. arrangement topologique) adaptées ;

ii) Application d'un algorithme discret formellement prouvé et robuste ;

iii) Reconstruction éventuelle d'objets continus en sortie des algorithmes.

b) Reconnaissance algorithmique d'objets euclidiens discrets. Visant des applications dans les domaines de la compression de données géométriques, de la reconnaissance de formes ou de la modélisation géométrique (interpolation), le problème de la reconnaissance algorithmique de plans, sphères, ou autres objets algébriques discrets est très lié à la géométrie algorithmique. En effet, des algorithmes de construction d'enveloppes convexes ou des algorithmes géométriques de programmation linéaire apparaissent naturellement comme solution possible à certaines questions. Cependant, la spécificité des structures discrètes, ainsi que les problèmes de degré élevé, impliquent des adaptations et généralisations importantes des techniques connues en géométrie algorithmique. Pour ces recherches, une connaissance intime des deux domaines visés par l'Action spécifique est un atout substantiel.

c) Polyédrisation. Visant le même type d'application que la reconnaissance d'objets euclidiens, la recherche d'une approximation ou d'un codage polyédrique pour des objets 3D est un problème très étudié, à la fois dans un cadre continu avec des concepts de géométrie algorithmique (en travaillant sur des nuages de points), et dans le cadre des images numériques par des techniques topologiques ou arithmétiques discrètes. A ce jour, la combinaison des concepts des deux domaines (ex. utilisation de diagrammes de Voronoï dans les images discrètes) restent à explorer.

d) Algorithmes topologiques dans les structures combinatoires. Les notions de préservation des configurations topologiques de structures combinatoires par les transformations géométriques (ex. squelettisation en analyse d'images, simplification de complexes cellulaires, déformation de surfaces sous contraintes...) reposent sur des concepts théoriques similaires et liés. A ce jour, aucun cadre formel général ne s'est véritablement imposé pour décrire ces structures. La question de définir un formalisme topologique, pertinent et adapté à la conception d'algorithmes topologiquement prouvés, qui soit applicable à tous ces domaines, reste donc ouverte.

Terminologie

Le numéro daté mars 2005 de la revue Langages, qui vient de sortir, est consacré à La terminologie : nature et enjeux, sous la direction de Loïc Depecker. Editions Larousse. 128 pages, 16 euros.

A noter un article de Stéphane Chaudiron "Terminologie, ingénierie linguistique et gestion de l'information". L'introduction est un peu négative : "Internet est devenu le lieu emblématique de ce désordre informationnel", l'article dresse un panorama méthodique de la situation actuelle :
- le cycle du traitement informationnel,
- la traduction automatique ou assistée par ordinateur,
- extraction automatique,
- résumé automatique,
- recherche et filtrage de documents textuels,
- classification automatique de documents,
- catégorisation automatique,
- navigation intertextuelle.

Les conclusions insistent sur la centralité de la terminologie dans le traitement informatique des langues, et donc l'importance des travaux de normalisation menés notamment à l' ISO-CEI TC37.

Multi-agents et réseaux

Intelligence dans les réseaux. Sous la direction de D. Gaïti. Hermès/Lavoisier, 352 pages, 90 euros.

Dans les environnements distribués, interconnectés et ouverts, la capacité des agents logiciels à faire des plans et à percevoir leurs actions et leurs buts, à coopérer et à négocier de façon autonome avec les autres et leur capacité à répondre de manière flexible et intelligente à des situations dynamiques et imprévisibles, permettent une amélioration significative de la qualité des performances. L'enjeu final de ces travaux est de rendre le réseau totalement autonome.

Filtrage adaptatif

Filtrage adaptatif : théorie et algorithmes. Volume 1. Algorithmes adaptatifs. Sous la direction de F. Michaut et M. Bellander. Hermès/Lavoisier, 240 pages, 80 euros.

L'ouvrage fait le point sur le filtrage adaptatif, domaine qui a connu une grande activité en traitement du signal et des images depuis les années 1970. Le premier volume se situe au niveau des algorithmes de réalisation des tâches d'optimisation : filtrage optimal de Wiener, annulation d'écho et suppression du bruit, égalisation, analyse spectrale, compression de l'information, modélisation.

Les différentes classes d'algorithmes sont construites et analyses en termes de convergence, performances stationnaires, temps de calcul : LMS et RLS, algorithmes en treillis, algorithmes rapides, dans le cas standard (RIF) et dans les cas étendus (RII). Les méthodes générales de conception et d'analyse des performances sont présentées, avec les résultats mathématiques associés : convergence initiale, performances en régime stationnaire, capacités de poursuite en situation non stationnaire.

Sémantique du langage naturel

Sémantique et traitement automatique du langage naturel. Sous la direction de P. Enjalbert. Hermès/Lavoisier. 416 pages, 120 euros.

Est-il possible de représenter, dans un format informatique exploitable, le sens d'un mot, d'un énoncé... ou peut-être, plus modestement, des éléments, des composantes de ce "sens" ? Comment réaliser des programmes capables de calculer effectivement ces représentations ? Dans quel but ? Quel rapport avec la linguistique et les théorirs, les modèles proposés par des linguistes pour divers "phénomènes sémantiques" ? A partir d'une expérience pluridisciplinaire initiée à Caen il y a une quinzaine d'années, entre linguistes et informaticiens, et dont ils retracent ici certains résultats, les auteurs montrent que cet objectif est pertinent d'un point de vue tant technologique (les applications) que scientifique (modélisation linguistique).

Géographie, géomatique

GPS. Localisation et navigation par satellites. par F. Duquenne, S. Botton, F. Peyret, D. Betaille et P. Willis. 2eme édition. Hermès/Lavoisier, 336 pages, 60 euros.

En 2005, l'arrivée prochaine de Galileo, équivalent européen du GPS américain et du Glonass russe, à l'horizon 2010, est à l'origine d'une prise de conscience, très forte et nouvelle pour l'Europe, de l'importance cruciale de la maîtrise de la position des objets et des personnes qui nous entourent, dans le monde de plus en plus communiquant du troisième millénaire. Dans cette dynamique à forte croissance, la nécessité de disposer d'un ouvrage de référence à jour en langue française a été à l'origine de cette deuxième édition. Par rapport à la première, les principales nouveautés portent sur : Glonass, Egnos et Galileo, le positionnement dynamique, les autres applications (transfert de temps, météorologie, mesures d'attitude).

SIG et littoral. Sous la direction de F. Gourmelon et M. Robin. Hermès/Lavoisier, 332 pages, 85 euros.

La première partie, générale, pose les spécificités géographiques de l'espace d'étude et les spécificités géomatiques relaties aux propriétés d'interface de cet espace. Puis deux compartiments thématiques, illustrés par diverses études de cas, sont isolés mais peuvent présenter des passerelles techniques :
- le littoral, un espace convoité où les SIG contribuent à organiser et asseoir la connaissance des enjeux,
- le littoral, un espace menacé et protégé où les SIG permettent l'accès à une gestion efficace.

Modélisations en géographie. Sous la direction de Y. Guermond. Hermès/Lavoisier, 408 pages, 120 euros.

L'ouvrage est issu des travaux de l'équipe CNRS "Modélisation et traitement graphique en géographie" (MTG). Pour le vingtième anniversaire de l'équipe, il propose une réflexion d'étape sur la confrontation de la recherche avec le travail concret demandé aux géographes dans la gestion du territoire et, à partir de là, sur les nouveaux horizons ouverts par l'évolution des techniques informatiques.

Les modèles de simulation fondés sur les automates cellulaires et les systèmes multi-agents mettent sur la voie de nouvelles méthodes d'investigation de la complexité des systèmes spatiaux, en fournissant le moyen de pratiquer, comme dans d'autres sciences, une vérification expérimentale des hypothèses avancées.

Géomatique et analyse spatiale. Sous la direction de H. Martin. Numéro spécial de la revue Géomatique. Hermès/Lavoisier, 130 pages, 87 euros

Ce numéro regroupe sept articles de recherche, montrant l'impact des évolutions technologiques. Elles permettent d'accéder à de plus en plus d'informations distribuées et hétérogènes à partir de dispositifs nomades (environnement, risques naturels). Les SIG doivent s'adapter et offrir des modèles, des langages et des interfaces de plus en plus sophistiquées.


Enseignement

Gilles de Robien à Eminent

Gilles de Robien, ministre de l'Education nationale, de l'Enseignement supérieur et de la Recherche, ouvrira la 6ème édition de la conférence annuelle Eminent (Expert meeting of international and national educational networks) qui se tiendra à Paris les 8 et 9 décembre prochain et dont le thème est "comment développer ensemble l'usage de l'Internet en Europe ? ". Le site.

Rubrique réalisée avec la collaboration de Jacques Baudé

La recherche en pratique

Site rénové pour L'Observatoire des sciences et des techniques.

L'Observatoire des sciences et des techniques (OST) est un groupement d' intérêt public (Gip) créé en 1990 et renouvelé en 2002 pour une période de douze ans. Il a pour mission de concevoir et de produire des indicateurs relatifs aux activités scientifiques, technologiques et d'innovation et de permettre leur interprétation en termes de position de la France dans l'Europe et le dans le monde. Le site.


Dans les entreprises et les administrations

Dématérialisation des factures

"Vers une gestion de bout en bout, la dématérialisation à l'assaut du bastion facture", titre un dossier signé principalement par Thierry Lévy-Abégnoli dans Le monde informatique du 23 septembre. La dématérialisation de la facture constitue l'une des ultimes étapes des échanges B-to-B. A ce titre exemplaire, elle cumule toutes les difficultés réglementaires et techniques, mais peut désormais s'appuyer sur une offre mature.


Manifestations

Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.

Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.


Bibliographie

Création numérique

Création numérique. Ecritures, expériences interactives. Sous la direction de Sylvie Leleu-Merviel. Hermès-Lavoisier 298 pages, 85 euros.

L'observation de la création numérique et de ses écritures est au coeur de cet ouvrage, construit en trois parties. La première, illustrée par de nombreux exemples, analyse des applications en service. La deuxième structure la conception des documents numériques de création, afin de développer les outils informatiques capables d'assister les auteurs dans leur travail d'écriture. La troisième, empirique dans sa forme comme dans son contenu, compare deux expériences de romans-feuilletons "interactifs".


Détente

Ah mon Dieu qu'cest palpitant...

Cliquez et écoutez (il faut du son pour en profiter). De la part de Michel Chevrier.

L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.