Association Française des
Sciences et Technologies de l'Information

Hebdo
No 25. 12 mars 2001

Sommaire : Trois questions à Gilles Kahn | L'actualité de la semaine | Enseignement | Théories et concepts | La recherche en pratique| Manifestations Le livre de la semaine | Détente

ABONNEMENT/DESABONNEMENT| PAGE D'ACCUEIL DE L'ASTI | NUMEROS PRECEDENTS.


Trois questions à Gilles Kahn, directeur scientifique de l'Inria.

Photo Inria/Jim Wallace

Asti-Hebdo : Vous animez, à la journée Asti 2001, une session "apports et relations des sciences de l'information aux connaissances scientifiques ? Y aurait-il des doutes sur l'utilité de l'informatique ?

Gilles Kahn : Tous les scientifiques se servent de l'informatique et n'en font pas mystère. Mais la relation entre informatique et autres sciences semble souvent utilitaire. On utilise des logiciels s'ils sont disponibles sur étagère, sinon on s'en passe.

Je pense que cette vision ancillaire de l'informatique ne correspond pas à la réalité de la recherche scientifique d'aujourd'hui. Cela ne se passe pas comme cela. L'informatique est désormais au coeur de la science elle-même. Exactement comme les mathématiques. Mais il reste à bien comprendre ce rôle spécifique.

Le dialogue est d'ailleurs difficile parce que nombre de scientifiques, par ailleurs cultivés, ignorent l'essentiel de l'informatique. Ainsi, tel physicien s'étonne que les informaticiens connaissent mal la mécanique quantique mais, en revanche, s'imagine que les ordinateurs manipulent effectivement des nombres réels.

Les chimistes, par exemple, se heurtent à des problèmes de puissance de calcul, de précision et de modélisation de très grosses structures, aussi bien qu'à la nécessité d'en donner des représentations graphiques efficaces. Les problèmes que se pose la science aujourd'hui vont exiger de la part des informaticiens un effort considérable pour fournir des machines et surtout des algorithmes appropriés.

Hebdo : L'algorithmique est donc un axe essentiel de développement de l'informatique ?

G.K. : C'est un point crucial. Et la disponibilité d'algorithmes appropriés peut être la condition sine qua non de certaines recherches physiques. Prenons l'exemple classique de la transformation de Fourier rapide. Son mérite majeur est de prendre un algorithme de complexité O(n2) et de le ramener à O(n.log(n)). Un détail, qui sans doute ne semblera pas d'une importance fondamentale. Et qui pourtant fera tout simplement la différence entre le possible et l'impossible pour la modélisation des phénomènes qu'il étudie.

Concrètement, un des objectifs scientifiques prioritaires de l'Inria est de combiner modélisation numérique et réalité virtuelle. Aux chimistes, par exemple, nous voulons offrir, derrière les outils conviviaux et intuitifs de la réalité virtuelle, une panoplie de calcul scientifique aussi avancée que possible. Bref, offrir la richesse du calcul dans des environnements beaucoup plus interactifs qu'aujourd'hui.

Cela exige le développement d'algorithmes totalement nouveaux. Par exemple, pour visualiser progressivement des résultats et les traduire dans des images de plus en plus précises, il faut disposer d'une visualisation incrémentale qui dépasse les algorithmes sous-jacents aux plus belles images du dernier Siggraph.

Hebdo : Ainsi l'algorithmique ferait le ciment entre toutes les spécialités, toutes les professions concernées ?

G.K. : L'informatique est un domaine extraordinairement varié autant que rapidement évolutif. Cela réagit sur toutes ses applications. Une compagnie d'assurances ou une banque pense aujourd'hui son avenir en termes non seulement d'actuariat, comme au XIXe siècle, mais de modélisation et de gestion du risque comme de mise en réseau de tous ses interlocuteurs. Ses problèmes ne sont pas, bien sûr, ceux du chimiste ou de l'astrophysicien.

L'informatique est donc un domaine extraordinairement varié, dont on ne peut donner une vision complètement monolithique, même si elle s'organise autour de quelques axes majeurs comme l'algorithmique.

Ces considérations théoriques prennent leur sens dans la pratique des chercheurs, des développeurs et même de tous les utilisateurs, industriels mais ici surtout scientifiques. Ce qui peut se résumer en une question-clé à leur poser : "Que faites-vous quand les logiciels dont vous avez besoin ne sont pas disponibles ? Les développez-vous tout seul ? Organisez-vous une coopération avec d'autres ? A partir de quel moment concluez-vous que l'investissement logiciel nécessaire dépasse ce qui est normal pour le budget de votre laboratoire ou le type de compétences qu'il regroupe ?

Cette question a une dimension économique et managériale aussi bien que purement scientifique et épistémologique. Voilà le débat que je compte animer avec les personnalités que j'ai invité à se joindre à moi à la tribune d'Asti 2001.


L'actualité de la semaine

Mission économie numérique

Le ministère des Finances vient de se doter d'un substantiel organe de réflexion sur l'économie numérique. On y remarque notamment Bernard Larrouturou, directeur général de l'Inria. Le texte du communiqué du ministère.

TIC au Japon

Internet Actu (8 mars) signale que le gouvernement japonais lancera d'ici fin mars un grand plan national en faveur des nouvelles technologies. Le but officiel de ce plan est de faire du Japon un pays de pointe en matière de TIC d'ici cinq ans. Pour cela, il est prévu, entre autres, de raccorder 40 millions de foyers à l'Internet à haut débit et d'assouplir la législation applicable au commerce électronique. Cette fois, on ne pourra plus accuser le Premier ministre, initiateur de ce projet, de ne rien connaître en matière de nouvelles technologies.

Souhaitons à nos amis Nippons plus de chance qu'avec leurs grands projets "scientifiques" des années 80 (Cinquième génération, Tsukuba, etc.).

Fièvre aphteuse

Les réseaux de communication jouent leur rôle dans la surveillance des épizooties.

Enseignement

Apprenez comment on leur apprend

Publiée en partenariat avec Accenture, la lettre hebdomadaire CyberEcoles Flash, en complément du site CyberEcoles, vous informe sur l’éducation à l’heure d’Internet et des nouvelles technologies.

Théories et concepts

Gestion des connaissances

Plutôt considérée jusqu'ici comme une pratique plutôt que comme une discipline, la gestion des connaissances a prouvé au congrès " Extraction et gestion des connaissances", qui s'est déroulé à Nantes du 17 au 19 janvier dernier, sa réalité comme communauté scientifique

Il a rassemblé 120 participants, dont 25% d'entreprises, 25% d'étudiants et 50% d'universitaires. Les actes conférence ont été édités par Hermès Science Publications dans sa revue ECA. La deuxième édition, organisée par Danièle Hérin (LIRMM), aura lieu à Montpellier du 21 au 23 janvier 2002.

Présidé par H. Briand et F. Guillet, le congrès avait pour objectif de rassembler d’une part une communauté académique multidisciplinaire (systèmes d’information et bases de données, apprentissage automatique, ingénierie des connaissances, statistiques et analyse de données,…) et des spécialistes de l’entreprise autour de la double thématique de l’ "Extraction des Connaissances dans les bases de Données" (ECD, ou KDD : Knowledge Discovery in Databases) et de la "Gestion des Connnaissances" (GC, KM : Knowledge Management).

La première journée a été consacrée aux tutoriels :connaissances et XML (C. Belleil), ensembles approximatifs (M. Quafafou), visualisation des connaissances (F. Poulet), SODAS (E . Diday), Multimédia Mining (C. Djeraba).

La journée du jeudi, a constitué le temps fort. Elle a débuté par trois conférences invitées :
- le processus de gestion de connaissances (J-L Ermine),
- datamining and customer Relationship Management (M. Jambu),
- recherche documentaire sur le Web (M. Rajman)).

Elle s’est poursuivie par deux sessions :
- applications dans l’entreprise : gestion des compétences, travail collaboratif et intranet, Web mining, conception de produits complexes, entreprise étendue, évolution des connaissances et innovation, intelligence économique et gestion des connaissances),
- extraction de connaissances : description symbolique de classes, découverte de règles ordinales, applications de la fouille de données, l'intensité d’implication entropique, construction de hiérarchies de classes à partir de données semi-structurées , génération de règles par compression.

Santé et systèmes d'information...

Le dernier numéro d' Upgrade (la revue du Cepis) vient de paraître. Il se consacre aux changements apportés aux soins de santé (healt care) par les systèmes d'information.

Outre divers articles techniques sur la médecine scientifique (réseaux, intelligence artificielle, aide à la décision, bioinformatique), on notera l'article de synthèse des animateurs (Stefan Klein et Valentin Masero), qui tentent une approche globale des questions de santé. Les lecteurs français n'aimeront leur expression "health care industry", peu acceptable dans notre culture où la santé est avant tout considérée comme un service public, et la marchandisation du corps comme contraire aux droits de l'homme. Ce n'est pas une raison suffisante pour négliger leurs analyses des différents types de réseaux de santé ou leurs références à des travaux (américains) sur l'évaluation quantitative de l'état de santé d'une communauté.

... et,en, France, vive la santé interactive !

Diora propose un hebdomadaire sur le web consacré aux "innovations technologiques et leurs enjeux dans le monde de la santé", intitulé Interactive Santé.

La recherche en pratique

Cookies

La MTIC a réalisé un dossier sur les cookies. Peut-être pas un sujet de recherche (encore que... ?), et sûrement un thème important pour les webmestres des laboratoires.

Brevets

Consulter par exemple le rapport de Jean-Paul Smets.

Les Echos enquêtent sur Renater

La lettre des Télécommunications du groupe Les Echos, datée du 5 mars 2001 a réalisé une enquête sur le réseau Renater.

Manifestations

Forest au DESS Multimédia de Paris 1

Dans le cadre des lundis de la Sorbonne, le lundi 12 mars 2001, de 18h30 à 20h30, Sophie Lavaud et Fred Forest interviendont à l'amphithéâtre Lefebvre : Accès par entrée principale 17 rue Victor Cousin (demander à l'accueil comment accéder à cet amphi).

Le livre de la semaine

Un cerveau face aux systèmes

Serge Humpich, le casseur de nos chères cartes à puces, raconte son histoire dans "Le cerveau bleu" ( Editions XO). Le récit de ce technicien doué dérange, c'est le moins qu'on puisse dire, le monde bancaire, le monde informatique et, plus généralement, la confiance que nous pouvons faire aux systèmes d'information apparemment les plus sûrs. Un défi aux chercheurs ?

Détente

Sondage

On a fait un sondage au niveau mondial avec la question suivante: "Qu'elle est votre opinion sur les besoins en aliments dans le reste du monde?"... Personne n'a su vraiment répondre car :
- les Africains ignoraient le mot aliment,
- les Europeens de l'Ouest ne connaissaient pas le mot besoin,
- les Europeens de l'Est ne connaissaient pas le mot opinion,
- les Américains ne savaient pas ce que signifie reste du monde...

(Communiqué par Armand Berger)
NDLR : On ne sait pas ce qu'ont répondu les Asiatiques, ni ce qu'aurait donné un sondage sur les NTIC !


L'équipe ASTI-HEBDO : Directeur de la publication : Malik Ghallab. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chef de rubrique : Mireille Boris. ASTI-HEBDO est diffusé par FTPresse.