Stic-Hebdo |
No 45. 21 février 2005
(En raison des vacances d'hiver, le prochain numéro paraîtra le 14 mars)
Sommaire : Trois questions à François Mescam (Onera)| L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Manifestations | Bibliographie
Du dessin à l'image de synthèseInvité par la Cyber-Base de la Médiathèque de la Cité des Sciences et de l'Industrie à Paris du 15 Février au 27 Mars 2005 Paris ACM Siggraph professional and student chapter, membre de l'Asti, édite son Salon de printemps de la création numérique. Le programme détaillé et à jour. En permanence :- Travelling Art Show 2003 : 35 artistes internationaux, accrochage de 47 oeuvres.(une sélection de la Galerie d'art numérique voyageant à travers le monde) et projection d'oeuvres de plastiques numériques animées. Distribution du programme du CAF, Electronic theater et Animation theater (en français et an anglais sur demande). - Galerie évolutive : oeuvres numériques d'artistes 2D (accrochage sur chevalet et projections), et 3D (exposition en vitrine et projections). Initié par les oeuvres existantes d'artistes contemporains, la galerie est implémentée par les oeuvres créés pendant la manifestation (en liaison avec l'International digital art center de Las Vegas). Le public aborde alors la problématique du galiériste : savoir exposer, savoir s'exposer. (Leo Scalpel, Jean Cemeli, Pierre Berger avec Roxame, Marc Power, Patrick Curran, Antoine Schmitt, Christian Lavigne et Alexandre Vitkine, Anne Sarah Le Meur, Christophe Clamaron, Hugo Verlinde et Yves-Marie L’hour, Jen Grey (Jen Zen), Olivier Auber avec le Générateur Poïétique, Jean Marc Castera, Claude Genzling, Yves Bodson, Patrick Saint-Jean). - Projection d'oeuvres animées du Traveling Art Show et d'artistes plasticiens (Peter Peterson, Philippe de Croix, Leo Scalpel, Yann Bertrand et Damien Serban, Hugo Verlinde et Yves-Marie L’hour) - Installation corinthienne : Hugo Verlinde et Yves-Marie L’hour. Quelques événements- Du 15 au 20 février. Spectacle interactif : Du câble funambulesque au câble ADSL, dans une chorégraphie d'attracteurs étranges par l'association les Amis du fil (metteur en scène Jean Mermet, avec la participation de Laetitia Moncelet, Charlotte Loizillon, Luca Bergandi et Gilgas Veyret), sur une idée de Patrick Saint-Jean inspiré par l'animation en image de synthèse : Tightrope de Digital domain sélectioné à l'Electonic theater. Animation grand public en prologue à l'inauguration de la Cyber-base. - Mardi 22 février, 16h30 - 18 h 30. Conférence : Déjà 50 ans d'art numérique. Rétrospective non exhaustive par Patrick Saint-Jean. - Mardi 1er mars : 15h-19h45. Dessine moi une musique par Patrick Saint-Jean avec la participation du CCMIX (Centre de création musicale Iannis Xenakis, Gérard Pape). Participation de Kartoo.net sur les métamoteurs et interfaces de recherche sur base de données. - Jeudi 3 mars : 15h-19h45. Conférences et tables rondes des artistes (Wallich, Philippe de Croix, Jean Cemeli, Peter Peterson, Hugo Verlinde et Yves-Marie L’hour, Pierre Berger, Claude Genzling, Eric Axtmeyer, Christian Lavigne, Patrick Saint-Jean) et écoles (Ensad par Pierre Hénon, Lisaa par Renaud Jungmann, Eesa par Frank Petitta, ISD par Philippe Delvigne, Numedia.edu par Janique Laudouar). - Semaine du 8 au 11 mars : Animazoo France (Maurice Kadaoui et Tania), Capture de mouvements : Quand le corps dessine le virtuel numérique et active les acteurs synthétiques. - Mardi 8 et mercredi 9 mars. Répétition avec le public de la performance artistique interactive : Gemotion 2005 - Jeudi 10 et vendredi 11 mars : Performance artistique interactive : Gemotion 2005 sur scène et écrans avec danseurs ( Laetitia Moncelet et Laurent Channel) par Yoichiro Kawaguchi, Professeur de l'Université de Tokyo (projet sponsorisé par la Sake Compagnie). - 25 26 et 27 mars. Après les ateliers de création et de réalisation 2D, 3D et animation, les expériences interactives et les interventions dans la Cyber-base, les acteurs, interacteurs et spectateurs pratiquent le design du concept multimédia dans le Conceptuarium du Polyagogic cyberspace, en interaction avec les ateliers du numérique, le cyberarium et le téléportariun en visio-conférence avec Las Vegas (25 mars). |
"Le grand calcul commence quand il s'applique à des problèmes que l'on ne sait pas encore résoudre."
Stic Hebdo : La compétence de l'Onera en matière de grand calcul m'a conduit à vous poser la question des relations entre la puissance dont on dispose et le type d'applications que l'on peut traiter. Comment voyez-vous évoluer l'état de l'art de ce point de vue ?
François Mescam. Vous venez de tangenter la question centrale : qu'est-ce qu'on peut appeler du grand calcul (HPC, high performance computing) et qu'est-ce qui n'en est plus ? Pour moi, le grand calcul commence quand il s'applique à des problèmes que l'on ne sait pas encore résoudre. Une fois résolus (par exemple, même si on peut encore en débattre, le problème de vaincre le champion du monde des échecs), il ne s'agit plus de grand calcul. Il faut évidemment tout de même que les machines mises en oeuvre soient puissantes voire très puissantes. On ne fait pas de grand calcul avec un PC isolé.
Je me limiterai aux problèmes principaux que nous traitons à l'Onera, c'est-à-dire la simulation des phénomènes physiques au sens large. Le domaine le plus traditionnel, bien entendu, c'est l'aérodynamique, à quoi se sont ajoutés la combustion et plus récemment, l'électromagnétisme pour la furtivité et la compatibilité électromagnétique.
Dans nos domaines, le calcul haute performance s'applique le plus souvent à des modélisations par éléments finis pour trouver une solution approchée à des systèmes d'équations aux dérivées partielles qu'on ne sait pas résoudre analytiquement. Si l'on savait le faire, par exemple avec du calcul formel, on n'aurait pas besoin de grand calcul.
Ne pas savoir résoudre, cela peut vouloir dire simplement qu'on n'atteint pas une précision suffisante.... par exemple faute de moyens suffisants.
S.H. : Mais, selon la loi de Moore, vous devriez disposer aujourd'hui de moyens plus de mille fois importants qu'il y a vingt ans. Qu'est-ce que cela a changé pour le grand calcul ?
F.M. L'outil numérique n'est qu'une partie des moyens de calcul en aéronautique. Le grand calcul est l'outil théorique qui complète l'outil pratique, c'est à dire la soufflerie suivie des essais en vol. Une soufflerie, au fond, c'est un simulateur analogique. Je dirais presque, un calculateur analogique.
Il y a certaines grandeurs qui sont très difficiles à accéder en vol, parce que l'avion y est nécessairement en équilibre. D'où l'intérêt de la soufflerie. Elle utilise la même physique que le vol, mais on peut y étudier des situations de déséquilibre, des incidences aussi grandes qu'on veut... pourquoi pas mettre un Airbus sur le dos...
Il faut que la simulation soit suffisamment précise. Mais ce n'est pas toujours l'essentiel. Souvent, du moment que le vol donne un résultat qui va dans le même sens que la simulation, il n'y a plus qu'à faire un recalage. Ce qui est grave, c'est quand la simulation laisse espérer un gain en faisant telle modification, et que l'essai en vol fait au contraire apparaître une perte. L'exemple type de ce qu'on n'avait pas prévu, c'est ce qu'on a découvert en passant le mur du son, qui exige une inversion des commandes : il faut pousser le manche pour faire monter !
Sur le fond, le principe de la conception n'a pas changé. Il faut dessiner une aile qui soit assez épaisse pour y mettre suffisamment de carburant, mais suffisamment fine pour qu'elle ne traîne pas trop. Cela relève toujours de l'art de l'ingénieur. La règle à calcul a simplement été remplacée par la simulation numérique. Mais l'environnement de conception a radicalement changé : il y a encore 25 ans, on travaillait à la planche à dessin. Maintenant, les bureaux d'étude ne montrent plus que des écrans. Mais la rupture technologique du calcul ne débouche pas sur des ruptures au niveau du mode de conception. Et l'ordinateur ne suggère pas de lui même de nouvelles formes d'avion, pas plus qu'il ne propose de nouvelles formes de ponts.
On ne peut pas non plus certifier un avion par le calcul. Ce ne serait pas accepté par les autorités de certification. En revanche, aujourd'hui, avant même de l'avoir mis en fabrication, on en a fait une maquette numérique complète, avec une résolution suffisante pour visualiser n'importe quel rivet en gros plan à l'écran. Et quand on fabrique le premier exemplaire, on est pratiquement sûr qu'il va voler : le premier vol est déjà un vol d'essais, avec de l'instrumentation à bord, pour commencer tout de suite à vérifier des hypothèses (par exemple l'effet d'un changement d'incidence, de trois à cinq degrés). On gagne ainsi beaucoup de temps, ce qui est important pour la mise sur le marché
Malheureusement, au niveau des moyens, la France prend actuellement du retard, parce que les autres pays continuent à avancer, alors que nos moyens ne progressent pas. Nous disposons actuellement d'un NEC SX5 à 16 processeurs, complété par un SX6 à 8 processeurs. En outre, nous sommes partenaires du CCRT (Centre de calcul recherche et technologie) installé au CEA (à Bruyère le Chatel). Mais les grands calculateurs, comme les petits, ont une durée de vie limitée. Notre SX5 a atteint son stade d'obsolescence limite : avec un an de maintenance, nous pourrions acheter une machine de performances équivalentes.
Tant que les problèmes que l'on traite ne sont pas encore résolus on est contraint de progresser, sinon on finit par ne plus faire de grand calcul, si l'on stagne à puissance constante. Il faut au moins disposer d'un budget constant, pour progresser à la vitesse de la loi de Moore.
S.H. : Que feriez-vous de plus avec une puissance plus grande ?
F.M. Nous pourrions gagner en précision. Actuellement, nous travaillons sur plusieurs millions de points. Nous voudrions passer à plusieurs dizaines de millions de points. Cela nous permettrait par exemple de prévoir que sur un vol Paris-San Francisco, on puisse mettre 121 passagers et non 119. En outre, de telles recherches sont passionnantes.
Le rêve, ce serait un simulateur de vol qui calcule la physique en temps réel. Quant on tirerait sur le manche, c'est toute la physique qui serait calculée, et le fait que l'avion monte ne découlerait pas d'une donnée macroscopique fournie par un étalonnage a priori. C'est alors que l'on pourrait dire que le problème est complètement résolu.
Propos recueillis par Pierre Berger
Comme le ministre délégué à la Recherche l'avait annoncé lors de la présentation du budget en septembre 2004, un groupement d'intérêt public (GIP) préfigurant l'Agence nationale de la recherche (ANR) vient d'être créé. Selon le site du ministère, "ce groupement provisoire permet de lancer dès à présent, et sans attendre l'adoption de la Loi d'orientation et de programmation, les premiers appels à projets pour un montant de 350 millions d'euros pour 2005. L'Agence nationale de la recherche prendra sa forme définitive dans le cadre de la loi d'orientation et de programmation." Avis officiel de constitution (JO du 9 février, en PDF)
Le premier conseil d'administration du GIP s'est tenu le 15 février 2005. Jean-Jacques Gagnepain a été nommé président du conseil d'administration et Gilles Bloch a été désigné directeur du GIP ANR.Le communiqué.
Pour le collectif "Sauvons la recherche" (suite à son entretien avec les ministres François Fillon et François d'Aubert) "Le gouvernement annonce qu’il dialogue, mais dans le même temps il met en place, sans concertation avec les scientifiques, des dispositifs qui sont en complète contradiction avec les conclusions des états généraux de Grenoble. "Le communiqué.
Enfin, voici le communiqué du SNCS
: Les organisations signataires, réunies le 16 février 2005,
ont fait le bilan des rencontres qui ont eu lieu entre les différentes
organisations et les ministres de la Recherche et de l'Enseignement supérieur.
Au vu de ces discussions, il apparaît clairement que le texte du projet
de Lopri (Loi d'orientation et de programmation pour la recherche et l'innovation),
rendu public en janvier et qualifié de “brouillon” par F.
d'Aubert, reste entièrement d'actualité pour le gouvernement qui
a déjà anticipé sa mise en application.
Les quelques précisions apportées le 11 février lors de
la conférence de presse du ministre - annonce à laquelle le succès
de la journée d’action du 4 février n'est pas étrangère
- ne remettent nullement en cause la philosophie générale de ce
projet : celui-ci programme l'extension de la précarité de l'emploi
et le pilotage de la recherche publique et de l'Enseignement supérieur
par les entreprises privées dans le cadre des lois du marché,
en totale contradiction avec les conclusions des états généraux
de la recherche et avec les besoins de la société. Les seuls chiffres
disponibles sur des questions cruciales (emploi statutaire, importance respective
des missions et budgets de l'ANR, des organismes et des universités)
restent, à ce jour, inchangés par rapport au texte initial et
très loin des exigences et propositions de la communauté scientifique.
Ce projet ignore le rôle premier de la recherche qui doit être la
production et la transmission de connaissances librement accessibles à
tous. Il réduit les besoins de la société à l'innovation
industrielle et marchande à laquelle sont affectés les deux-tiers
des financements nouveaux prévus par le projet. Il ignore la production
de bien publics - expertise plurielle et indépendante, innovations à
but non lucratif ou pour des besoins sociétaux non solvables - à
laquelle d'autres acteurs sociétaux que les entreprises doivent être
associés.
Les organisations signataires considèrent ce projet comme une base inacceptable
pour définir les grandes lignes de l'avenir du système de recherche
français. Elles demandent qu'un nouveau projet soit élaboré
en s'appuyant sur les propositions de la communauté scientifique exprimées
à Grenoble, complétés par les syndicats, et sur une prise
en compte de la totalité des besoins de la société.
Les organisations signataires demandent à être associées,
ensemble, à ce processus de négociation sous la forme d'une discussion
réelle qui devrait se tenir le plus rapidement possible en présence
des ministres et de tous acteurs concernés.
Pour marquer leur détermination, elles appellent à préparer dès maintenant une journée d'action d'ampleur nationale, avec initiatives dans toutes les régions, le mercredi 9 mars 2005.
Les organisations syndicales et associations signataires : Sauvons la Recherche, Fondation Sciences Citoyennes, Aides, Attac, Aitec, Les Amis de la Terre France, Greenpeace France, Réseau Cohérence (développement durable), RACF (Réseau Action Climat France), SNCS-FSU, Snesup-FSU, SNTRS-CGT, FERC-SUP-CGT, SGEN-CFDT-CNRS, SGEN-CFDT-Inserm, Unef, CGT-Ifremer, CFDT-CEA, Fédérations Sud ( de l'Énergie, Education, Recherche-EPST), Snasub-FSU, SNPTES-UNSA, CFTC-Inra,
Pour mémoire rappelons le
rapport. du Conseil d'analyse économique Recherche et développement,
financement et croissance : quels choix pour la France. L'auteur y expose
les liens entre recherche et croissance ainsi que les objectifs et les effets
des financements publics de recherche.
Le 4 mars, le GET accueille le 2ème séminaire international du projet Calibre, consacré aux modèles économiques du logiciel libre. Le séminaire, en anglais (projet européen oblige), se déroulera à l'ENST. Il est destiné au monde de la recherche étudiant le libre, ou travaillant dans des entreprises utilisatrices de logiciel libre qui s'interrogent sur ce que le libre peut leur apporter.
Tout le monde est le bienvenu, moyennent inscription. Le but n'est pas nécessairement de faire se rencontrer des gens déjà convaincus, mais plutôt d'aborder les problématiques de ceux pour lesquels le libre n'est pas une fin en soi, ceux dont le logiciel n'est pas le coeur de métier.
Programme détaillé et le formulaire d'inscription (gratuite mais obligatoire).
Le livre blanc Le traitement automatique des langues dans les industries de l’information vient de paraître, à l'initiative de l'Apil (Association des professionnels des industries de la langue) et du GFII (Groupement français de l’industrie de l’information). Ce document de 64 pages qui présente un panorama des technologies et solutions disponibles sur le marché et aborde une trentaine de cas concrets représentatifs de 9 types d’applications (Veille et intelligence économique, portail, classification automatique, gestion des brevets, commerce électronique, terminologie d’entreprise, gestion des candidatures et moteurs de recherche)est téléchargeable gratuitement sur les sites Web des deux associations Apil et GFFI.
Enfin selon une étude réalisée par Bureau Van Dijk à la demande du ministère délégué à la Recherche, le marché européen des technologies de la langue devrait atteindre en 2007, 1 milliard d’euros, dont 15% en France. On estime ainsi aujourd’hui, à près de 400 en Europe, le offreurs de technologies ou de services linguistiques dont près d’une centaine en France. Une synthèse de cette étude est disponible sur le site Technolangue.
Enseignants et ordinateurs à l'aube de la révolution Internet. Le cas de l'académie d'Amiens, 1980-1997. L'Harmattan, 25,50 euros, 301 pages.
(Présentation de l'éditeur) : Cet ouvrage montre comment les enseignants ont fait face concrètement aux textes - parfois contradictoires-, aux plans d'équipement - souvent controversés-, aux stages de formation -quelquefois imprécis- afin d'enseigner l'informatique à leurs élèves. Il montre comment des enseignants, qui se sont passionnés pour celle-ci, ont réussi à faire de vrais miracle avec le matériel qu'on leur a livré. Il donne également la parole aux déçus de l'informatique qui n'ont pas pu enseigner cette mystérieuse "Informatique". Pour ce faire, il s'appuie sur une enquête menée pendant deux années dans l'académie d'Amiens juste avant la révolution Internet.
Rubrique réalisée avec la collaboration de Jacques Baudé
Le Département d'Etat a décidé de revenir à plus de souplesse concernant les visas de certains chercheurs et étudiants étrangers aux Etats-Unis. Le programme de sécurité Visas Mantis, mis en place en 1998, avait à l'origine pour but d'éviter le transfert illégal de technologies sensibles. Renforcé après les attentats de septembre 2001, il obligeait jusqu'à présent les scientifiques travaillant dans les domaines de la chimie, de la physique ou encore de l'ingénierie à se soumettre à un contrôle systématique tous les ans, ainsi qu'à chaque renouvellement de visa. Ces procédures étaient particulièrement contraignantes pour certains étudiants, chinois notamment, dont les visas de courte durée doivent être souvent reconduits.
Désormais, une vérification initiale sera effectuée et restera valable pour une durée de un à quatre ans pour les étudiants et jusqu'à deux ans pour les chercheurs. Le Département d'Etat a également annoncé avoir réduit à 14 jours le temps moyen nécessaire à l'obtention des autorisations (une étude du Government accountability office montre que les délais étaient de 67 jours entre avril et juin 2003).
Le changement est évidemment bien accueilli par les universités et organismes de recherche qui avaient constaté une baisse des demandes de la part des étudiants étrangers (d'environ 32% entre 2003 et 2004 selon le Council of Graduate Schools), ainsi que du nombre d'accueils effectifs, pour la première fois en 35 ans (on estime ainsi que le nombre d'étudiants inscrits a diminué de 100 000 en 2003-2004, en raison de ces procédures mais aussi d'une concurrence universitaire accrue de l'Europe et de l'Asie).
Il faut noter que l'accueil d'étudiants étrangers représente de l'ordre de 10 milliards de dollars de recettes pour les États-unis en 2004, ce secteur universitaire se situant au cinquième rang des industries de services américaines, ce à quoi s'ajoute le rôle de pourvoyeur de cerveaux pour l'industrie américaine. Soixante-deux présidents d'universités en avaient appelé au gouvernement durant l'été dernier pour relâcher les contraintes en vigueur, de concert avec toutes les associations scientifiques. Par ailleurs, les travailleurs temporaires (Visa H), les employés de multinationales (Visa L), les touristes et hommes d'affaires (Visas B) pourront recevoir un visa allant jusqu'à deux années continues, tandis que les B1 et B2 recevront des visas valables un an. Selon le San Jose Mercury news et le New York Times. Communiqué par l'ambassade de France.
Le CENS a été créé par le CNRS à l'initiative du département des Sciences de l'homme et de la société. Cette structure est installée à l'École normale supérieure lettres et sciences humaines à Lyon. Le Centre, inauguré le 18 février et déjà opérationnel, est un service destiné aux rédactions des revues scientifiques de sciences humaines et sociales pour les accompagner dans leur projet d'édition électronique. Il s'inscrit dans un projet plus large, le TGE (très grand équipement) Adonis, qui permet l'accès unique aux données et aux documents numériques des sciences de l'homme et de la société. En savoir plus.
Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.
Système d'information et management de crise, par Philippe Tassin. Hermes-Lavoisier, 320 pages, 55 euros
L'auteur nous confie dans cet ouvrage l'expérience d'un directeur des systèmes d'information. Il en tire des leçons souvent dérangeantes et parfois provocantes. Il expose l'art et la manière d'aborder avec succès les technologies de l'information et de la communication pour en faire un instrument de différentiation et de conquête des entreprises et des administrations. Ce recueil de souvenirs devient un vade-mecum pratique.
Sur un thème voisin, nous avons interviewé Philippe Rosé dans notre numéro 37 pour son livre Le web de crise (de la désinformation à la contre-attaque (avec Pascal Lointier).
La sécurité sur Internet, par Zouheir Trabelsi et Henri Ly. Hermes-Lavoisier, 256 pages, 60 euros
Cet ouvrage sensibilise les lecteurs aux méfaits des pirates Internet, des informe des dangers potentiels et des remèdes contre d'éventuelles attaques; Il s'adresse en particulier aux directeurs et responsables informatiques, aux administrateurs de réseaux et aux étudiants des écoles d'ingénieurs.
La cohabitation électronique, par Jean-François Goglin. Hermes-Lavoisier, 299 pages, 70 euros
Comment augmenter la durée de vie de nos systèmes d'information sans être obligé de tout reprendre à chaque changement de technologie ? Comment faire évoluer une partie du SI sans être obligé de revoir toutes les autres parties ? Comment coller les anciennes applications avec des composants achetés sur le marché sans faire du vieux avec des outils neufs ? Comment gérer la cohabitation électronique entre les couches hautes et basses du système d'information ? Autrement dit, comment améliorer la réactivité et n'investir que dans les produits et services généraux de valeur ajoutée, tout en maîtrisant les charges informatiques et le ROI ?
Didactique, cet ouvrage fait un panorama des technologies en présente : ETL, EAI, ESB, web services, serveur d'application et portail. Il décrit les critères de choix permettant à l'architecte d'élire les bonnes technologies pour créer son propre système nerveux d'entreprise et pérenniser son système d'information.
NDLR : En quelque sorte, la cohabitation, c'est l'urbanisation rénovée par les services.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.