Hebdo No 135. 1er décembre 2003

Sommaire : Cinq questions à Joseph Mariani, direction de la Technologie| L'actualité de la semaine | Théories et concepts | Enseignement | Entreprises | La recherche en pratique | Manifestations | Livre | Détente


"Les réseaux ont prouvé leurs vertus. Ils pourraient coopérer plus étroitement et coordonner leur action au niveau européen."

Cinq questions à Joseph Mariani

Directeur, département Technologies de l'information et de la communication, direction de la Technologie, ministère de la Recherche.

Asti-hebdo : Les réseaux nationaux (RN*, pour les initiés) ont été lancés en 1998. Cinq ans plus tard, les résultats sont-ils au rendez-vous?

Joseph Mariani : Pratiquement tous les réseaux ont atteint ou vont atteindre prochainement une phase d'évaluation et de renouvellement. Ils ont prouvé leurs vertus, avec d'excellents résultats et une excellente image, dont a récemment témoigné tant la CPU (Conférence des présidents d'universités), en disant que s’il fallait conserver un seul instrument de collaboration recherche-industrie, ce serait celui-là, ou les industriels, indiquant qu'ils sont, avec les bourses Cifre, le meilleur outil à leur disposition pour collaborer avec le secteur de la recherche publique. Un rapport de l’OCDE exprime le même intérêt de la communauté internationale pour le dispositif français fondé sur ces Réseaux de recherche et d’innovation technologiques (RRIT).

Avant les réseaux, il y avait déjà des programmes, par exemple pour les transports ou le génie civil. Le premier réseau « moderne » a été le RNRT, en gestation depuis 1997, lancé pour cinq ans en 1998. Il s'agissait de résoudre le problème posé par la privatisation de France-Télécom et donc la disparition du Cnet en tant que centre de recherche public national. Le rapport établi par Didier Lombard et Gilles Kahn a proposé d'organiser les partenaires en réseau, ce qui permettait d’accroître la participation de nouveaux acteurs, y compris dans les laboratoires publics (CNRS ou Inria notamment).

Il y a maintenant seize réseaux, pour tous les domaines couverts par la direction de la Technologie. Quatre d'entre eux concernent les TIC :

L'objectif de base est de soutenir le partenariat recherche-industrie, de s'assurer que les industriels et les laboratoires de recherche publics travaillent bien ensemble. C'est dans ce but que les réseaux sont présidés par des industriels. Ils sont entourés par un comité d'orientation, qui regroupe des industriels, au niveau direction générale, et des chercheurs, qui aide à définir les objectifs stratégiques, et d'un bureau exécutif, lui aussi formé de chercheurs et d’industriels, qui gère les aspects opérationnels. La mise en place des projets et leur suivi technique et administratif sont assurés par des chargés de mission, dans les différents ministères qui participent au soutien des réseaux : ceux en charge de la recherche et de l’industrie, auxquels s’ajoute celui de la culture et de la communication pour le RIAM. La logistique est assurée par des entités extérieures (le CEA-Leti à Grenoble pour le RMNT, et, depuis peu, l'ANRT pour les trois autres).

Sur la période 1998-2002, les réseaux ont soutenu plus de 400 projets, pour un total de 720 millions d'euros, dont 360 apportés par les ministères et 360 par les industriels. Le financement est donc assuré pour moitié par l'Etat et pour moitié par l'industrie. A ces financements correspondent des dépenses, effectuées pour 75% par les industriels, auxquelles il faut ajouter le salaire des chercheurs permanents. On peut ainsi dire, pratiquement, qu'un euro de financement incitatif dans les réseaux engendre trois euros d’efforts de recherche sur des objectifs stratégiques définis en commun entre recherche et industrie. Ces chiffres montrent l’intérêt des réseaux au regard de l'objectif des pays membres de l’Union européenne d’atteindre un taux de 3% du PIB consacré à la recherche en 2010, 2/3 de ces dépenses venant du versant industriel.

Les réseaux définissent des grands thèmes prioritaires, qui figurent dans les appels à propositions, auxquels répondent les partenaires des projets qui sont évalués. Ces thèmes sont définis avec la participation des administrations, mais la réflexion se fait au sein des instances des réseaux, qui les confrontent avec la communauté scientifique et industrielle.

La grande force des réseaux, c'est la communauté des experts qui évaluent ex ante et ex post les projets, organisés à sa manière par chacun d'eux : tantôt un pool, tantôt autour d’un comité d’évaluation, tantôt selon des commissions thématiques, comme c’est le cas pour le RNRT qui a cinq commissions de chacune 16 membres, qui peuvent intervenir, avec un degré d'expertise très fin. Ainsi toute la communauté scientifique est-elle mobilisée, aussi bien les laboratoires publics que l'industrie, pour participer à cette évaluation par les pairs.

Une fois labellisés sur leurs qualités scientifiques et techniques, les projets sont notifiés, traités et soutenus financièrement par un des ministères concernés. On peut distinguer trois types de projets :

A.H. : Le découpage actuel est-il toujours bien adapté ? Envisagez-vous d'autres organisations pour les réseaux ?

J.M. : Nous étudions actuellement l’évolution du périmètre et de la structuration des TIC et la manière dont les différents réseaux pourraient travailler ensemble plus étroitement. Il faut trouver des modes de coopération appropriés, notamment en soutenant des projets sur des thèmes transversaux. Les systèmes sur puce (systems on chip), par exemple, posent des problèmes à l’interface du logiciel et du matériel. La sécurité, qu’il faut élargir à la confiance, intéresse autant les réseaux de communication que les secteurs du logiciel, du matériel ou de la protection des contenus audiovisuels.

Nous avons lancé il y a deux ans une action sur les technologies de la langue, transversale entre les différents réseaux, car elles peuvent y alimenter différentes applications. Nous sommes en train d'en lancer une similaire sur les technologies de la vision, puisque ces domaines présentent des caractéristiques voisines. Il ne s'agit pas ici de projets classiques de R&D partenariale. On se situe en amont : établir une infrastructure adaptée pour garnir les étagères avec des technologies génériques qui aient été évaluées.

Ce que nous finançons ici, ce n'est pas le développement même de ces technologies, mais l'évaluation de leur qualité. Il faut savoir mesurer ce que les technologies sont capables de faire, leurs progrès, et pour cela disposer de métriques et de protocoles. Par exemple, en vision, de connaître l’état de l’art en termes de taux de reconnaissance de visages pour un corpus de test défini, et de taille suffisamment large. Pour les technologies de la langue, ce genre de métriques s'applique aussi bien à la reconnaissance vocale qu'à la recherche d'informations sur Internet, ou à la traduction automatique. Nous avons ainsi retenu neuf thèmes qui font l’objet de campagnes d’évaluation. Pour la vision, nous sommes encore dans la phase de rédaction du contenu du programme. Dans les deux cas, il s'agit de produire et partager des ressources communes pour le développement et l'évaluation des systèmes, de définir les métriques et protocoles, ce qui est parfois un vrai sujet de recherche ouvert, de comparer les résultats obtenus pour les différents systèmes et, bien plus important encore, de discuter des méthodes utilisées pour obtenir ces résultats, de leurs avantages et de leurs inconvénients.

A.H. : Mais ces évaluations correspondent-elles vraiment aux attentes des marchés, de la société. Ne sont-elles pas un peu techniques pour ne pas dire théoriques ?

J.M. : Oui, elles ont clairement pour objet de mesurer la qualité d’une technologie, et non pas de son application dans un cadre spécifique. Mais il ne faudrait pas que cela conduise à ne pas évaluer les technologies, sous prétexte qu’il est aussi nécessaire de confronter sur le terrain un système complet avec une application réelle ! La disponibilité de technologies objectivement performantes est nécessaire, voire obligatoire, même si elle n’est pas suffisante pour développer une « killer application ». En particulier, les agences qui financent les recherches technologiques ne peuvent pas attendre d'avoir des résultats sur des systèmes complets, avec la finalisation de leur ergonomie et leurs résultats sur le marché. Elles ont besoin, quand on leur présente une application "géniale", d'une connaissance de l’avancée effective, de manière si possible quantitative, des composantes technologiques pour éviter de financer ces développements et s'apercevoir trois ans plus tard que, de toute évidence, la technologie n’était pas suffisamment mûre pour permettre une telle application.

Pour autant, nous travaillons beaucoup, depuis quelques années, sur la prise en compte des usages. En particulier dans le RNRT, où une commission traite spécifiquement de l'interaction homme-machine, de l'ergonomie et de l'acceptabilité des services et où un appel à propositions a été lancé spécifiquement sur les usages en 2000.

Au ministère même, notre direction était jusqu'ici organisée en quatre départements orientés vers les technologies « dures ». Nous en avons récemment créé un cinquième, sur l'usage des nouvelles technologies (en général, pas seulement les TIC) pour la Société. Les sciences humaines et sociales font donc leur entrée à la direction de la Technologie, et avec un budget non négligeable (le premier appel en cours sur les usages de l’internet bénéficie ainsi d’un budget de 1,2 million d'euros).

Nous ressentons tous l'importance de ces enjeux, quand on voit par exemple les problèmes rencontrés avec le Wap ou avec Iridium... Il est certain que nous n'avons pas encore trouvé la façon optimale d’établir le lien entre technologues et spécialistes des usages. Mais nous progressons dans la bonne direction. Il y a ainsi maintenant deux plates-formes opérationnelles pour l’expérimentation des usages au sein du RNRT, Coucou (Conception participative orientée usage de services de communication et d’objets ubiquistes ) à Grenoble et Lutin (Laboratoire des usages des technologies d'information numériques )à la Cité des sciences et de l’industrie de Paris, sans parler du laboratoire des usages créé à Sophia-Antipolis.

A.H. : Comment nos réseaux nationaux articulent-ils leur actions avec celles des instances européennes ?

J.M. : Au démarrage, le fonctionnement de ces réseaux a été très franco-français. Les nouveaux instruments utilisés dans le 6ème PCRD (Programme cadre de recherche et développement technologique) par la Commission Européenne, avec ses deux volets différenciés, projets intégrés qui apparaissent plutôt faits pour les industriels, et réseaux d'excellence, plutôt pour les chercheurs, présentent le risque d’éloigner l'une de l'autre ces deux communautés, alors qu’il faut au contraire les rapprocher ! Notre système des RRIT, qui rassemble ces deux modalités, projets et réseaux, les réunit en une force structurée, organisée et mobilisée. Et il donne des garanties de pérennité, puisque les programmes sont lancés pour trois à cinq ans, avec l'assurance que leur suivi sera assuré tout au long de leur durée, et qu'il ne s'agit donc pas d'une simple labellisation.

Aucun lien n’existe formellement entre nos réseaux et le PCRD. Cela n'empêche pas la France de faire bonne figure dans le domaine des STIC (programme IST). Dans le premier appel du 6ème PCRD, les équipes Françaises ont ainsi obtenu 16% du budget total, gagnant deux points par rapport aux résultats du 5ème PCDR, derrière l’Allemagne, mais en creusant fortement l’écart avec la Grande-Bretagne en troisième position. Même forte progression dans la coordination des projets, les équipes françaises en coordonnant 17%. On peut raisonnablement penser que l’existence de nos réseaux et de leurs projets a contribué à ces bons résultats. De même, on peut mentionner que la plate-forme Perf-RV a été à l’origine de la proposition du réseau d’excellence Intuition, classé premier dans l’appel « Nanotechnologies, Matériaux et Procédés ».

Pour autant, nous souhaitons une plus grande ouverture européenne. En effet, selon les déclarations du commissaire Philippe Busquin (Direction générale pour la recherche), Bruxelles finance environ 5% de la recherche européenne, les autres 95% relevant des pays membres. Alors que les Etats-Unis coordonnent leurs efforts à 100% au niveau national, l'Europe les laisse donc dispersés pour 95%. Ces chiffres montrent bien l'importance des enjeux et la nécessité de mieux travailler ensemble. Comment y parvenir ?

D'abord par des actions bilatérales, comme ce que nous faisons avec la Finlande, action pionnière qui fait collaborer non pas simplement des laboratoires ou des industriels, mais bien deux programmes nationaux. Ce pays est connu pour son dynamisme en matière de TIC et plus spécialement dans le domaine des télécommunications. Les Finlandais nous ont contactés, souhaitant une collaboration avec nous. Ils nous ont proposé le thème de l'informatique pro-active (proactive computing). Il s'agit de systèmes s'adaptant automatiquement à l'environnement où ils se trouvent, par exemple aux actions ou attitudes de l’utilisateur ou à l'endroit où il est.

Cette idée pouvait intéresser aussi bien le RNRT que le RNTL. C'est ce dernier qui a le premier donné une réponse positive et lancé une opération commune, Proact , avec un budget de 4 millions d'euros apportés à parité par la France et la Finlande. La première phase de l’action a consisté à lancer un appel à manifestation d'intérêt. Il nous a valu un nombre adéquat de réponses (ni trop, ni trop peu), nous invitant à poursuivre.

Ensuite, il nous a fallu définir de nouvelles modalités, adaptées à un contexte européen, par exemple le fait d'autoriser les intéressés à faire leurs propositions en anglais. Mais aussi à mettre en place un comité d'experts venant de nationalités différentes. En France, nous avions l'habitude de ne prendre pour experts que nos nationaux. Comme la Finlande est un plus petit pays, ils ont l'habitude de recourir à des experts étrangers, car leurs nationaux se connaissent tous trop bien pour jouer efficacement un rôle d'évaluation. En l'occurrence, dans ce programme, le comité comprend des Finlandais et des Français, mais aussi des Allemands et des Anglais. De notre côté, nous avons exigé le respect de nos règles, notamment qu'il y ait au moins trois partenaires et au moins un industriel et un laboratoire de recherche français, la Finlande, en l'occurrence l'Académie de Finlande et le Tekes (l'équivalent finlandais de l'Anvar), n’exigeant que la présence d’un partenaire Finlandais dans le consortium. Trois projets ont finalement été retenus. Nous avons réussi à réaliser tout le processus en un an, depuis le lancement de l'appel jusqu'à l’instruction des projets retenus pour chacun des partenaires sélectionnés. Ces trois projets sont maintenant en cours d'exécution.

Pour coopérer plus largement dans le cadre communautaire, deux instruments sont actuellement disponibles.

Le premier est l'article 169, qui permet, quand deux pays se sont mis d'accord pour collaborer, de demander des fonds à la Commission Européenne. Ce processus est cependant très lourd car il exige la double décision du Conseil et du Parlement Européens. Il a donc très peu été utilisé. Il faut cependant citer un gros programme sur les maladies infectieuses qui a été labellisé en juillet 2002, pour un montant de 600 millions d'euros, fournis chacun pour 200 millions par les pays partenaires, les industriels et la Commission.

Un autre type d'outil vient d'être lancé cette année, les ERA-Nets (European research area networks). Il s'agit d'une action de la Commission pour soutenir la coordination des programmes nationaux. Un premier appel a été traité en juin dernier. Des programmes, existant dans différents pays, ou différentes régions, peuvent proposer de s'associer, de travailler ensemble, et demander à la Commission de les aider financièrement pour soutenir cette coordination. Cela suppose qu'il y ait des programmes nationaux existants : la commission ne finance pas la recherche elle-même, mais seulement la coordination. Le montant maximum est de 3 millions d'euros, la durée maximale étant de cinq ans.

Un certain nombre d'initiatives de ce type ont déjà été lancées, et nous en préparons plusieurs. L'une d'elles est Cistrana. En bref il s'agit d'échanger des informations au plan européen entre tous les programmes nationaux concernant les TIC. Nous en préparons une autre sur les technologies de la langue (baptisé LangNet), et d’autres thèmes pourraient s’y prêter (Nanotechnologies, Grilles de calcul…). Le prochain appel se termine en mars prochain ; il faut donc que nous soyons prêts pour cette date.

Il faut mentionner enfin une nécessaire réflexion à mener sur la relation de nos réseaux avec les « clusters » Eureka (Itea, Medea…), jusqu’à présent financés au plan national par le ministère en charge de l’Industrie.


A.H. : Avec une telle richesse de structures de coordination, sans compter celles du CNRS et de groupes spécialisés comme les GDR... existe-t-il encore une place pour des associations comme l'Asti?

J.M. : J'ai souvenir de l’excellente manifestation organisée à La Villette par l'Asti en 2001. Nombre d'entreprises y avaient participé, soutenant le mouvement associatif et les instances de recherche publique. Et pour sa part, le RNTL y avait substantiellement contribué. Pourquoi l'expérience ne se renouvellerait-elle pas ?

Les associations ont aussi un positionnement intéressant à trouver au plan européen, où elles peuvent vivre très bien, à côté des réseaux d'excellence ou des réseaux thématiques. Je pense par exemple à l' Association européenne pour la communication parlée (European speech communication association), devenue maintenant Isca (International ...). Européenne au départ, cette association a pris une ampleur mondiale, avec une conférence bi-annuelle qui a réuni 1200 participants cette année à Genève. J’ai participé au lancement de cette association en tant que président, et elle est maintenant présidée par un chercheur Japonais. En traitement du signal, Eurasip (European Association for Signal Processing), avec sa conférence Eusipco, me semble également fonctionner très bien.

Il y a vingt ans, les Européens se retrouvaient dans les conférences organisées aux Etats-Unis ! Nous avons prouvé qu'il est possible de lancer des associations européennes, avec leurs conférences internationales qui attirent à présent à leur tour nos collègues américains ou asiatiques, et de leur donner ensuite une dimension mondiale. Il n'y a aucune raison de baisser les bras !

Propos recueillis par Pierre Berger


Actualité de la semaine

Soyez candidat au prix Creis

L’objectif de ce prix est de distinguer de jeunes chercheurs en les récompensant, et de faire connaître à l’ensemble de la communauté leurs travaux de recherche.

Le lauréat reçoit 1000 euros et la remise officielle est prévue lors de l'Assemblée générale de l'association, qui aura lieu pendant son13° colloque, organisé avec la revue Terminal, du 30 juin au 2 juillet . Voir le site de l'association, où l'on trouvera l'appel à candidature (date limite de dépôt : 15 mars 2004).

Enseignement et recherche à la foire de Hanovre

Le Cebit (c'est à dire le volet Stic de la foire de Hanovre), qui attend 600 000 visiteurs pour sa prochaine édition, du 18 au 24 mars 2004, ouvre un « Parc du futur » aux universités et aux grandes écoles. Il regroupera « nouveautés, formules inédites et idées audacieuses » et accueillera toutes les grandes écoles allemandes, et quelques européennes, américaines et asiatiques.

Ernst Raue, directeur général du Cebit, entend ainsi soutenir les transferts de technologie des grandes écoles vers l'industrie et l'implémentation rapide des résultats de recherche. Ceci intéresse tout spécialement les PME/PMI qui ne peuvent pas faire cet effort de recherche. En général les grandes écoles ne font pas de marketing. La direction du salon construit les stands les incite les institutions à « apprendre à se vendre ».

Pour la France, seul l'INT-Management (Institut national des télécommunications) sera présent. Mais un certain nombre de nos d'écoles envoient leurs élèves faire une visite à cette grande vitrine de l'industrie mondiale des TIC. M.B.

Honneur aux lauréats de l'Académie

Le 28 novembre, une manifestation en l'honneur des lauréats 2003 des prix de l'Académie des sciences en informatique et mathématiques appliquées s'est tenue à l'Institut Henri Poincaré. Elle était organisée par l'Inria, la DGA (Délégation générale pour l'armement), le Cnes (Centre national d'études spatiales), la Smai (Société de mathématiques appliquées et industrielles) et l'université Pierre et Marie Curie. Les lauréats sont :

Jacques Stern, ENS Paris (cryptologie),
Roger Temam, université Paris-Sud (théorie du contrôle, analyse numérique),
Jean-François Cardoso, ENST Paris,
Valérie Perrier, Ensimag Grenoble,
Laure Saint-Raymond, UPMC Paris.

Nominations à l'Académie des sciences

Viennent de rejoindre l'Académie des sciences :

Le communiqué

Educatec prime le DESS Handi

Le prix spécial du concours international de Recherches éducatives et créations (Cirec) du salon Educatec 2003 a été décerné à l'ensemble des réalisations présentées par le DESS Nouvelles technologies et handicaps sensoriels et physiques (Handi) dirigé par Jaime Lopez Krahe:

Les sénateurs se passionnent toujours pour les NTIC

Le Sénat a mis en ligne deux documents sur la recherche et les nouvelles technologies :


Théories et concepts

Complexité, la science du XXIe siècle ?

Relance par les cybernéticiens puis, surtout, pas les systémiciens des années 1970, la science du complexe (terme attesté dès l'antiquité en latin, dès la Renaissance en France, selon le Robert historique) sera-t-elle la science de notre jeune siècle ? C'est en tous cas l'avis de la rédaction de Pour la science, qui lui consacre un numéro spécial daté de décembre 2003. Après une introduction d'Hervé Zwirn et Jacques Ricard, le numéro se décline selon les disciplines : mathématiques, physique, biologie, médecine, écologie, sciences sociales, astronomie.

Réseau autonettoyant

"En s'appuyant sur l'infrastructure existante et sur des partenariats, Cisco propose de lutter plus efficacement contre les virus en ajoutant un agent gratuit sur les postes clients" (Jean-Luc Rognon, Le monde informatique du 28 novembre).

Quatre ouvrages sur l'optimisation

Métaheuristiques pour l'optimisation difficile, ouvrage coordonné par Patrick Siarry (chez Eyrolles) est co-signé par Johann Dréo, Alain Pétrowski, Patrick Siarry et Eric Taillard. Il présente un panorama méthodique des différentes techniques : recuit simulé, recherche avec tabous, algorithmes évolutionnaire et algorithmes génétiques, colonies de fourmis ... La deuxième partie décrit différentes variantes et extensions de ces méthodes, ainsi que de nouvelles voies de recherche. Y sont également proposés des conseils méthodologiques : techniques de modélisation, comparaison de méthodes et choix de la méthode la mieux adaptée à un problème donné. La troisième partie présente trois études de cas réels : optimisation de réseaux de mobiles UMTS (France Télécom R&D), gestion de trafic aérien (Enac), optimisation de tournées de véhicules (Ilog).

Patrick Siarry, à la fin de son chapitre introductif et sous un grand synoptique des méthodes d'optimisation mono-objectif, note :

"Cette présentation ne doit pas éluder la principales difficulté à laquelle est confronté l'ingénieur, en présence d'un problème d'optimisation concret : celui du choix d'une méthode "efficace", capable de produire une solution "optimale" - ou de qualité acceptable - au prix d'un temps de calcul "raisonnable". Face à ce souci pragmatique de l'utilisateur, la théorie n'est pas encore d'un grand secours, car les théorème de convergence sont souvent inexistants, ou applicables sous des hypothèses très restrictives. En outre, le réglage "optimal" des divers paramètres d'une métaheurisique, qui peut être préconisé par la théorie, est souvent inapplicable en pratique, car il induit un coût de calcul prohibitif.

"En conséquence, le choix d'une "bonne" méthode, et le réglage des paramètres de celle-ci, font généralement appel au savoir faire et à l' "expérience" de l'utilisateur, plutôt qu'à l'application fidèle de règles bien établies. Les efforts de recherche en cours, par exemple sur l'analyse des "paysages d'énergie", ou sur la mise au point d'une taxinomie des méthodes hybrides, visent à remédier à cette situation, périlleuse à terme pour la crédibilité des métaheuristiques... Nous tenterons néammoins d'ébaucher, dans le chapitre 7 de ce livre, une technique d'aide à la sélection d'une métaheuristique".

NDLR : en quelque sorte, une méta-métaheuristique ...

Résolution de problème de RO par les métaheuristiques, sous la direction de M. Pirlot et J. Teghem (Hermès/Lavoisier) montre l'apport d'outils algorithmiques nouveaux pour la résolution approchée de problèmes d'optimisation de nature combinatoire. Leurs applications nombreuses se rencontrent particulièrement en gestion de production et en logistique;

Approximation polynomiale des problèmes NP-difficiles. Optima locaux et rapport différentiel, par J.Monnot, V.T. Paschos et S. Toulouse (Hermès/Lavoisier 2003) traite les problèmes courants de recherche opérationnelle et d'informatique fondamentale tels que le problème du voyageur de commerce, l'ordonnancement, la stabilité, la satisfaisabilité optimale, etc. sous le double angle de l'approximation polynomiale et de l'optimalité locale.

Méthodes d'optimisation pour l'ECA (Extraction de connaissances et apprentissage), sous la direction de C. Dhaenens, est un numéro spécial de la revue RSTI-RIA. L'éditeur commente : "Actuellement, de nombreux domaines tels que la génomique, la chimie, le marketing, et bien d'autres sont confrontés non plus au problème de la récolte de données, mais à celui de l'étude de ces données et à l'extraction de connaissances.

"Ces problématiques sont celles de l'apprentissage, mais peuvent également être vues, dans la plupart des cas, comme des problèmes d'optimisastion. Il est alors nécessaire de définir les trois composantes principales de tout problème d'optimisation, à savoir :

"Le choix de la méthode de résolution est fonction des deux premiers choix réalisés. De plus, l'usage de méthodes d'optimisation efficaces et robustes est une condition importante pour s'attaquer à des problèmes de grande taille, tels que le sont par définition les problèmes de fouille de données. Cet ouvrage présente différentes méthodes d'optimisation (exactes ou heuristiques) avancées ayant été utilisées en apprentissage ou pour des problèmes d'extraction de connaissances, qu'ils soient classiques ou liés à une application particulière."

NDLR : nous n'irons pas jusqu'à tenter une méta-méta-métaheuristique pour vous aider à choisir parmi ces ouvrages celui qui correspond le mieux à votre profil, problème ou profession.

"Fraude nigériane"

Mande@ccrt.jussieu.fr a transmis à la Diffusion Paris 7 un pointeur sur un dossier Escroquerie sur Internet : Les ravages de la «fraude nigériane».

Information et télécommunications

(communiqué de l'éditeur) L'ouvrage Systèmes de communications et théorie de l'information, de Maurice Charbir (Hermès/Lavoisier), présente les principes de base des systèmes de communication (téléphonie mobile, réseau sans fil, Internet, télédiffusion et radiodiffusion numériques, positionnemnet par satellites, etc.). Fruit d'un travail pédagogique, il correspond à un cours enseigné depuis de nombreuses années dans des écoles d'ingénieurs.

Les expressions théoriques étant difficiles à exploiter, la simulation sur ordinateur est aujourd'hui un moyen incontournable d'étude des systèmes complexes. C'est pourquoi un chapitre entier est consacré à des études de cas avec calculs et simulation. Les solutions, fournies dans les corrigés, utilisent Matlab.


Enseignement

Nouveautés sur le site de l'EPI

La formation, thème de recherche

Recherche et innovations en formation (L'Harmattan) réunit, sous la direction de Hughes Lenoir et Edmond Marc Lipiansky, chercheurs, universitaires, formateurs. Ils témoignent des recherches, des expériences et des formalisation qu'ils ont menées dans le domaine de la formation des adultes. Ils sont tous, indique l'éditeur, fortement impliqués dans la pratique et l'innovation pédagogique. Leurs réflexions stimulantes s'adressent à tous ceux, formateurs, enseignants, étudiants qui veulent encore penser qu'il est possible d'apprendre autrement. Un tiers de l'ouvrage est consacré à l'apport des nouvelles technologies, les deux autres tiers à des problèmes plus généraux. La partie qui concerne les nouvelles technologies regroupe quatre contributions, les unes plus descriptives, les autres plus critiques :


La recherche en pratique

Rapports sur la recherche en France et en Europe

L’annexe consacrée à la recherche en France du rapport sur la loi de finances 2004 est diffusée sur le site de l’Assemblée nationale. Les grandes tendances du budget 2004 y sont présentées. Parmi les chapitres abordés, on relève, l’environnement européen, les faiblesses de la France et de l’Europe au niveau de la recherche sur le plan international et les efforts réalisés par la France et l’Union européenne. Ces thématiques sont traitées sous l’angle budgétaire.
Doc ASP

Toujours sur le site de l’Assemblée nationale, un rapport d’information est consacré à la politique européenne de recherche et développement (R&D). Les enjeux de la recherche pour les européens et le 6e programme cadre de recherche et développement sont au centre de cette étude.
Doc ASP
(signalé par le CNRS)


Entreprises

Externalisation

Le Syntec informatique vient de présenter à la presse ses positions sur l'infogérance pour fonder une relation de confiance entre entreprises et prestataires. Les documents de la réunion sont disponibles (PDF).

Signalons l'ouvrage récent, Intitulé Externalisation et relations partenariales, coordonné par B. Quélin, numéro spécial de la Revue française de gestion (Hermès/Lavoisier), qui "traite de l'importance des activités de la firme qui dépassent les frontières juridiques ou les droits de propriété traditionnels. Parfois imbriquées avec celles des fournisseurs, ou liées à des partenaires de longue date, les activités de l'entreprise sont élargies aux acteurs amont-aval, aux concurrents ou à des communautés larges d'acteurs. Les études présentées dans cet ouvrage soulignent les implications managériales de l'externalisation : la gestion du prestataire, l'externalisation d'activités comme la R&D, les tests ou la distribution. Elles analysent également les partenariats ainsi que leur impact sur le développement de l'entreprise : modèle d'affaire, apprentissage, confiance, et mettent en évidence les conditions du devenir des partenariats."

Une présentation pédagogique des réseaux

Les réseaux et l'informatique d'entreprise, par Pierre Jaquet (Hermès/Lavoisier) est organisé comme un guide pratique, partant d'un historique des réseaux de tous types (télécommunications, réseaux locaux, industriels...) et des technologies pour aller vers l'organisation de l'entreprise, les aspects contractuels, l'administration, la sécurité et la sauvegarde. Le texte est dense et assorti d'un index et substantielle bibliographie. Une mini-encyclopédie, en quelque sorte. On apprécie en particulier le tempérament pédagogique de l'auteur, qui donnerait presque l'impression que l'on peut tout savoir sur les réseaux sans trop d'effort, alors que nombre des ouvrages sur le même thème rebutent tous ceux qui n'ont pas directement à mettre "la main sous le capot".

Thierry Nkaoua, directeur général d'Open Cascade

Thierry Nkaoua est nommé directeur général d' Open Cascade , société de services informatique spécialisée dans l¹informatique scientifique et technique et notamment dans l'intégration des outils de simulation. Dans notre numéro 88 (14 octobre 2002), le directeur général de l'époque, Pierre Bruno, nous en avait expliqué les activités et la stratégie.


Manifestations

Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.


Le livre de la semaine

Musique et TIC

Le livre Création musicale et technologies nouvelles. Mutation des instruments et des relations. par Marie-Noëlle Heinrich est présenté ainsi par son éditeur (L'Harmattan) : "L'objectif de ce livre est d'identifier les ruptures techniques et théoriques que connaît la musique au XXe siècle. A travers une approche historique et théorique, est mise en lumière la rencontre entre musique, science et technologie : la "recherche musicale". L'arrivée des nouvelle techniques pour la création musicale provoque incontestablement deux types de transformations : la disparition de la relation instrumentale et de l'instrument lui-même ; la dissolution de la frontière entre production et exécution, entre son et composition. Les nouvelles techniques changent ainsi les statuts de l'objet musical et de la musique. "

Les spécialistes des Stic plus intéressés par l'ingénierie que par la psycho-sociologie seront un peu déçus, car les développements techniques sont pratiquement absents de l'ouvrage. Mais ils y trouveront beaucoup d'utiles précisions bibliographiques et historiques (on trouve des ancêtres des synthétiseurs dès le XIXe siècle).


Détente

Politically correct, un courriel

La "Détente" sur les commandes révisées d'Unix m'a rappelé une décision prise par le groupe système d'un centre de calcul auquel j'appartenais, équipé d'une CDC 6400, super-ordinateur de l'époque. C'était en 1967. Le système rejetait un "Job" en erreur avec le message "Job abort". Nous l'avons remplacé par un message moins brutal, plus latin: "Computus interruptus".
François Louis Nicolet

Contribution à la théorie de la valeur

A méditer par tous les DSI qui cherchent à montrer que leur système d'information contribue à la valeur de leur entreprise :

Mustapha a acheté une maison voisine de celle du notaire. Lorsqu'ils font connaissance, Mustapha dit à son voisin :

- "Belles maisons, n'est-ce pas, mais la mienne vaut le double de la vôtre !"
- "Comment cela ?" interroge son notaire de voisin, interloqué "Elles sont parfaitement identiques, comment la vôtre pourrait-elle valoir deux fois plus que la mienne ?"
Et Mustapha de répondre : « Moi j'habite à côté d'un notaire, vous à côté d'un arabe."


L'équipe ASTI-HEBDO : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris, Claire Rémy et Armand Berger. Asti-Hebdo est diffusé par l'Inist.