Stic-Hebdo |
No 50. 11avril 2005
Traitement du
signal, image et arts. La section Signal et image du club EEA, avec la participation du GDR Isis (Informations, signal, images et vision) du CNRS et du GFinc (Groupe français de l’imagerie couleur). organise une journée thématique Traitement Signal Image et Arts, le jeudi 9 Juin 2005, au Cnam (Paris) Objectifs : organiser une première journée de rencontre entre des chercheurs qui relient l’art au traitement du signal et de l’image. Cette journée sera largement ouverte à différents domaines et applications. Une prolongation est prévue au congrès Asti 2005 qui se tiendra à Clermont-Ferrand au mois d’octobre. Un CD sera édité et contiendra tous les exposés. Thèmes (liste non exhaustive) : création,
coopération, restauration de sons, musique, images, films ; rendu
de couleurs et de textures sur des matériaux ; reconnaissance,
indexation d’œuvres d’arts. |
Sommaire : Trois questions à Jean-Loup Chappelet | L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Manifestations | Détente
"Nous visons une méthode de conception cohérente de A à Z, allant jusqu'à la génération du code, tout en restant accessible aux utilisateurs des systèmes d'information. "
Jean-Loup Chappelet. Effectivement, la discipline systèmes d’information n'a pas vu beaucoup de révolutions ces dernières années... L’arrivée d'Internet a donné lieu à bien des développements, avec le client léger, les navigateurs et leurs applications. Elle a décuplé les possibilités techniques des systèmes d'information, mais a peu impacté leur aspect managérial.
C'est le problème classique des systèmes d'information : on les a toujours confondus avec les systèmes informatiques. Les gens ne comprennent pas que l'essentiel est dans l'organisation et relativement peu dans l'informatique. Sur la couverture de notre livre, vous pouvez voir que nous avons fait figurer une téléphone portable. Pour nous les technologies ne sont qu'un triangle dans notre symbolisation... il peut s'agir d'un PC, de papier, de téléphones mobiles ou d'Internet... mais nous les pensons toujours comme des outils qui s'intègrent à un flux de travail. L'informatique est un outil qui, certes, permet de faire certaines choses qui transforment l'organisation. Mais il faut réfléchir d'abord en termes d'organisation du travail et des relations qui peuvent s'instaurer entre les personnes et avec les machines.
Quant à l'innovation et à l'originalité scientifique, toutes les méthodes de workflow sont basées sur les réseaux de Petri. Dans notre livre, nous montrons d'ailleurs qu'il y a une bijection parfaite entre les réseaux de Petri et les réseaux et diagrammes ossadiens. En quelque sorte, rien n'a donc été inventé depuis les travaux de ce mathématicien allemand (sauf les représentations de l'Action workflow de Winograd et Flores (2), qui découpent toute action en quatre étapes).
Mais cela ne veut pas dire grand chose, en pratique. Pas plus que de dire qu'en informatique, tout finit toujours par s'écrire en langage machine et en codes binaires. L'important, ce sont les interfaces : plus ou moins complètes, cohérentes, pratiques et agréables à utiliser. En ce sens, Ossad a hérité de l'analyse modulaire de systèmes (AMS) de Jacques Melese(3) beaucoup plus que de Merise. Le seul reproche que l'on peut faire à AMS, c'est sa lourdeur : beaucoup de concepts, beaucoup de schémas. Ossad a beaucoup simplifié les choses.
S.H. : Ossad a une certaine ancienneté, une vingtaine d'années. Vous devriez donc pouvoir bénéficier d'un substantiel retour d'expérience. Avez-vous fait des études, des enquêtes pour évaluer les résultats obtenus ?
J.-L.C. Vingt ans ? Les ouvrages n'ont été publiés qu'en 1989-90... mais il est vrai que le projet a commencé en 1985. Le succès est attesté par les livres que nous écrivons, et qui se vendent bien La méthode intéresse. De plus, nombre d'ouvrages (4) en reprennent les principes sous d'autres noms (mais ont quand même la correction de nous citer parmi leurs sources).
Quant à savoir si la méthode est vraiment utilisée, et avec quels résultats, dans les entreprises et les organisations, nous n'avons pas fait de vraies études. Nous avions fondé une association des utilisateurs, qui s'appelait pompeusement le Conseil international Ossad. Il a permis quelques échanges d'expériences, entre Suisses, Français et Irlandais notamment. Mais il a cessé ses activités depuis longtemps. En informatique, les seules associations d'utilisateurs qui ont bien marché, c'est celle qui étaient autrefois liées aux constructeurs, qui les soutenaient financièrement. Je pense par exemple à Decus pour les clients de Digital equipment. Tout cela a disparu.
En fait, comme la méthode est publiée, personne n'est obligé de nous signaler qu'il l'utilise. Je rencontre régulièrement de gens qui s'en servent, essentiellement dans les démarches de qualité. Laissez-moi vous donner deux exemples.
Il y a deux ans que les Hôpitaux de Neuchatel utilisent Ossad dans certains domaines. Il ont acheté nos livres, et n'ont pas éprouvé le besoin de nous le faire savoir. Cela prouve bien que la méthode est d'un abord facile, et que l'on peut se débrouiller avec les moyens du bord.
Un jour, un représentant du Canton de Genève nous a dit "Nous, nous utilisons Mega process, qui ressemble de très près à Ossad". Nous avons regardé la documentation, et effectivement tous nos concepts y étaient, mais sans un mot sur notre travail. En fait, la transmission s'est faite par la filiale italienne du groupe Mega, dont quelques chercheurs avaient participé au projet Ossad, et dont on n'avait plus entendu parler par la suite.
Il y a un retour d'expérience dans des écoles comme celle où j'enseigne : nous présentons les concepts, mais nous faisons intervenir des utilisateurs (en l'occurrence, des administrations), qui nous disent comment elles les utilisent. Quelques experts essayent d'observer les méthodes et de répertorier ce qui se passe. Je pense par exemple à Hess Brecht (5).
Mais le fond de l'affaire c'est qu'en milieu académique, les systèmes de reconnaissance ne sont pas du tout basés sur la pratique et utilisation. Il ne s'agit pas de se situer par rapport au marché ou aux applications possibles : il s'agit de recherche, donc la connexion au quotidien viendra plus tard. Peu importe. Le chercheur n'est pas là pour affronter les problèmes réels...
S.H.. : Alors, comment validez-vous vos travaux ?
J.-L.C. Nous ne sommes pas évalués sur l'utilisation de nos idées, mais sur leur appréciation par d'autres scientifiques. Nous nous évaluons à partir des publications et des conférences. Il y a beaucoup de chercheurs, beaucoup de revues qui se créent... le système marche bien dans de nombreuses disciplines. L'intérêt d'un chercheur est de présenter de nouveaux concepts en disant qu'ils sont dix fois plus intéressants que ceux qu'il avait proposé jusque là et que tous ceux que proposent les autres.
S.H.. : Et vous, que proposez-vous de nouveau ?
J.-L.C. Avec Michael Sherwood-Smith, un irlandais, nos allons prochainement publier une nouvelle méthode, OPRL. C'est une extension d'Ossad. D'a bord nous y ajoutons quelques modèles, comme l'organigramme (organization map). De là on passe aux applications, avec les concepts de document et d'état. Mais surtout, nous avons réalisé un projet qui était déjà présent dans les travaux d'origine d'Ossad, mais n'avait jamais été vraiment élaboré, le modèle prescriptif. Autrement dit, la génération automatique d'applications à partir de schémas qui sont des évolutions des schémas ossadiens descriptif et abstrait.
Nous passons à l'anglais (sous le label EPFL Press), car un grand reproche fait à Ossad est d'être essentiellement francophone (un peu comme Merise, d'ailleurs). Nous rejoignons ainsi la culture anglo-saxonne, où le nombre d'auteurs qui publient est de dix à trente fois supérieur à ceux qui publient en français. Et nous rebaptisons un certain nombre de concepts, ne serait-ce que pour donner satisfaction au milieu scientifique, qui oblige à produire régulièrement des nouveautés.
Ainsi, nous partons d'une vision qui peut être globale, abstraite et générale, et nous descendons vers une vision très détaillée. On peut aussi commencer le travail au milieu, en remontant un peu vers les grands processus pour redescendre ensuite vers le flux de travaux (workflow). La méthode est cohérente de A à Z, et cela nous a été confirmé par plusieurs personnes qui en ont pris connaissance. Et, malgré tout, le langage reste abordable par tout un chacun. Tous les concepts tiennent sur une demie page, dans le diagramme de résumé.
Pour aller jusqu'au code, nous disposons ici d'outils comme Workey de C-Log international, qui est un issu d'un projet de recherche suisse et qui est maintenant commercialisé en France. Ce n'est peut-être pas la panacée. Mais il est apprécié par beaucoup d'entreprises. Et nous avons vérifié cette cohérence avec l'atelier logiciel Adonis, qui peut s'adapter à n'importe quelle méthode (un méta-atelier, comme Graphtalk à une certaine époque).
Pour autant, nous restons à la portée des utilisateurs eux-mêmes. Nous n'allons pas dans la voie prise par exemple par le Business process management, où la technique de représentation des processus est basée sur un langage de programmation (Chaque schéma de workflow se traduit par du code). Cette démarche est inaccessible à la majorité des gens, et l'on ne résout donc pas le problème du dialogue entre les futurs utilisateurs de l'application, les décideurs et les informaticiens. Alors que j'ai vu des dizaines de gens se mettre à parler à Ossad, à dessiner des schémas. Au début, on ne dessine pas très bien, mais au bout d'un certain temps, cela s'améliore. D'ailleurs, il n'est pas nécessaire de "faire du Victor Hugo".
S.H.. : Ira-t-on vers une généralisation, une standardisation des méthodes, comme pour les logiciels, autour de quelques grands standards ?
J.-L.C. Dans le domaine des méthodes d'organisation, chaque cas est un cas particulier, chaque entreprise... là il ne peut pas y avoir de standardisation. Et, d'une manière générale, ce n'est pas trop souhaitable en organisation du travail.
Cependant UML, par son nom même (Unified modelling language) évoque l'ambition d'une hégémonie. Pour beaucoup, aujourd'hui, il n'y a plus de salut hors UML. Mais ce n'est pas du tout une méthode pour parler des systèmes d'information, c'est un langage pour spécifier des applications. Un jargon d'informaticiens, à la limite. Il doit donc être complété par une méthode à proprement parler, par exemple le RUP (Rational unified process), qui appartient maintenant à IBM. Cette solution, employée par exemple à la Ville de Genève, ne débouche pour autant pas complètement sur la génération de code. L'expérience montre que, au niveau du développement final, "ça va plus vite à la main".
On parle beaucoup d'Aris en raison de ses liaisons avec le progiciel SAP. Son sérieux scientifique est appuyé sur la renommée du professeur Scheer. Cette méthode convient tout à fait à des consultants qui facturent des heures et des heures pour la mise en place d'un logiciel. Mais elle est difficilement mise en oeuvre par les utilisateurs, car elle est trop lourde. Ce n'est peut-être pas non plus son but : tout le monde n'a pas intérêt à ce que tout soit parfaitement transparent... la technologie n'est pas innocente.
Plutôt que d'aller vers la généralisation de méthodes et d'outils propriétaires, on pourrait lancer l'idée de "méthode libre" dans l'esprit du logiciel libre. Cela pourrait débloquer la situation, et ce serait bien dans l'esprit d'Ossad, qui a toujours été dans le domaine public et peut donc être utilisée par qui veut sans contrepartie. Une telle évolution devrait être organisée. L'effort pourrait se financer, comme le logiciel libre, par le business qui se fait autour de lui.
Propos recueillis par Pierre Berger
(1) Un langage pour l'organisation, l'approche Ossad, par Jean-Loup Chappelet et Jean-Jacques Snella. Presses polytechniques et universitaires romandes.
(2) Understanding computers and cognition: a new foundation for design Winograd, T. and Flores, F. (1986). . Ablex, Norwood NJ.
(3) Nous avons reproduit dans notre numéro 47 une interview de Jacques Melese parue en 1975 dans Informatique et gestion. Voir sa bibliographie dans notre dictionnaire.
(4) On trouve sur le site de l'Idheap une bibliographie détaillée d'Ossad
(5) State of the Art des Business Process Redesign par T. Hess and L. Brecht.
Du 5 au 7 avril, Porte de Versailles, pour la vingt-quatrième édition du Micad, la plate-forme utilisateurs, organisée par Micado, s'est consacrée à la visualisation interactive et la simulation immersive dans le monde industriel et le grand public.
EADS CCR est un GIE créé entre EADS France, MBDA France et EADS ST. Ses objectifs sont de mener à bien des activités de recherche qui demandent une concentration de compétences et de ressources. Sa plate-forme Samira combine un bras Virtuose 6D de Haption avec un moteur physique virtuel qui détecte les collisions, gère les contacts et les efforts. Le visiteur peut prendre en main le bras à retour d'effort pour simuler par exemple le démontage d'une pompe dans un mât de réacteur à partir des données CAO. Ce cas test a été choisi car il représente une zone très sollicitée de l'appareil. L'utilisateur tient l'extrémité du bras dans sa main et manipule l'objet à la fois dans le monde réel et dans le monde virtuel avec un système de vision stéréoscopique. Chaque fois que sa main virtuelle touche un objet digital, une action est envoyée vers les moteurs qui simulent un contact réel. Le système haptique ainsi formé, permet de réaliser l'analyse des tâches de support et de maintenance plus minutieusement et plus rapidement qu'auparavant.
Renault présente une simulation de chargement de coffre d'une voiture. La démonstration a pour but de montrer l'intérêt de la visualisation 3D couplée avec un système haptique pour les ergonomes et les architectes automobiles. L'idée est d'estimer la capacité du coffre d'une Modus, de tester le seuil de chargement et la forme d'entrée de coffre. La démonstration se fait sur une base de Catia V5 et avec le système haptique de Haption.
Hair N'Go présente un monde virtuel 3D basé sur ses salons de coiffure, grand prix international Laval Virtual 2004. Ce site 3D permet à plusieurs internautes de se déplacer librement, interactivement et simultanément par l'intermédiaire d'avatars 3D et d'interagir sur la scène virtuelle pour déclencher diverses actions similaires à la réalité. Des outils de chat 3D, de visioconférence permettent aux visiteurs de communiquer entre eux. L'application dédiée à la coiffure a été développée en java 3D et scol par le petit studio de développement multimédia lillois Avoodevoir. Hair N'Go s'en sert pour communiquer avec le public, organiser des chats entre ses salons, et relier son réseau de franchisés. Sur le même principe, Avoodevoir a réalisé des présentations de galeries d'art, et de produits (Nina Ricci, Redskin).
Le CEA présente son outil de simulation de chantier nommé Chavir (Chantier virtuel). Ce logiciel est destiné à la préparation de missions d'intervention dans le cadre du démantèlement et de l'assainissement de chantiers nucléaires. Il fait appel à des technologies du marché comme le viewer 3D et le langage de scénarisation de Virtools. Une première démonstration est dédiée à la visualisation interactive. Le visiteur va naviguer dans un modèle 3D très encombré. Une seconde démonstration est consacrée au module de calcul de dose de radioactivité. Un opérateur se déplace dans l'installation pour réaliser une tâche de maintenance, la dose perçue par l'opérateur est calculée puis affichée au cours de son déplacement. Une dernière simulation illustre la gestion des chaînes articulées. On peut piloter en temps réel un robot à l'aide d'une souris 3D ou d'un bras à retour d'effort. La simulation détecte automatiquement les collisions avec les objets environnants et calcule les efforts de contact appropriés.
Mireille Boris
L'étude des fonctions cérébrales est une source d'inspiration
puissante pour l'algorithmique, ouvrant de nouvelles voies de calcul - calcul
distribué, calcul émergent, calcul adaptatif, par exemple. Parallèlement,
modélisation, calcul scientifique et informatique sont comme dans d'autres
sciences du vivant les partenaires indispensables pour organiser les données
recueillies lors des expériences, les traiter, analyser les comportements
et modéliser les fonctions.
Dossier (247 Ko) à télécharger.
Les capacités standard actuelles des disques des PC de bureau ou portables sont de 80 Go. Utilisant une nouvelle technologie d’enregistrement dite perpendiculaire, Hitachi vise le To d’ici 2007 sur les disques 3,5 pouces standards ou 20 Go sur des micro-lecteurs d’un format de 1 pouce. De son côté, Toshiba devrait utiliser cette technologie d’enregistrement et le premier matériel à en bénéficier pourrait être l’iPod d’Apple. Cette évolution des technologies a pour corollaire une baisse constante des prix du Mo évaluée 40 % par an. Une amélioration qui n’a donc rien à envier à celle des microprocesseurs ou des réseaux.
Selon ITR Manager.Dans ses " dernières nouvelles de volle.com" à Michel
Volle élabore sur l'histoire de la bureautique :
- à propos des outils de la bureautique : une dimension importante de
l'informatique,
- s 'apprivoiser au micro-ordinateur : passer du terminal au PC n'était
pas facile,
- histoire du tableur : l'application qui a lancé le micro-ordinateur,
- "VisiCalc" vu par Ben Rosen : en 1979, VisiCalc permet pour la première
fois d'utiliser un micro-ordinateur sans avoir à le programmer. ,
- deux leçons tirées de l'histoire des produits bureautiques :
une documentation limitée ; une innovation qui naît d'un flux d'inventeurs.
Un colloque Société de l'information, bilan
du programme interdisciplinaire du CNRS 2001-2005 se tiendra du 19 au 21
mai à l'Ecole normale supérieure de Lyon,. Il est organisé
par le département SHS (Sciences de l'homme et de la société).
Le programme Société de l'information a été
lancé par le CNRS en 2001 sous l'impulsion des départements SHS
et Stic (Sciences et technologies de l'information et de la communication).
Cette manifestation a pour objectif de dresser un bilan global "présentant
l'ensemble des actions financées pendant les quatre années d'existence
du programme." Sous la forme de tables rondes ou d'ateliers, les points
suivants seront entre autres abordés : géomatique, espace, territoire
et mobilité, traitement automatique des langues, archéologie,
musicologie, littérature". Plus
d'information.
Par ailleurs la Commission française pour l'Unesco a élaboré un glossaire critique se proposant d'analyser la complexité de cette figure imposée du discours international qu'est la "société de l'information" . Sous une apparence de clarté et d'évidence, l'expression recèle en fait une grande diversité d'approches, parfois contradictoires, selon la nature des acteurs et de leurs intérêts. Le glossaire comprend des contributions de spécialistes, d'experts et de chercheurs reconnus dans leur discipline. A la Documentation française: Le site.
La journée de travail Neptune 2005 Ingénierie des modèles: vérification et transformation de modèles se tiendra le mardi 31 mai au Cnam (Conservatoire national des arts et métiers).
L’ingénierie dirigée par les modèles correspond à un paradigme relativement récent dans lequel le code source n’est plus considéré comme l’élément central d’un logiciel, mais comme un élément dérivé de la fusion et du “tissage” d’éléments de modélisation. Cette approche prend toute son importance dans un contexte basé sur les architectures dirigées par les modèles utilisant des standards tels que MDA (Model-driven architecture) proposé par l’OMG, Software factories par Microsoft et l’outillage EMF (Eclipse modeling framework) proposé par IBM.
Un des aspects essentiels de l’ingénierie dirigée par les modèles, consiste à automatiser la transformation de modèles. Ponctuellement, il s’agit de transformer le code d’un langage en un autre, ou une modélisation abstraite en une structure de classes, ou même un modèle de données en un autre modèle tout en assurant que les propriétés des données sont conservées lors de la transformation.
C’est pourquoi la vérification de modèles basée sur des approches formelles donnant des spécifications rigoureuses a pour objectif de garantir que les modèles possèdent toutes les qualités que l’on exige d’eux, en particulier lorsqu’ils ont en charge de modéliser la fabrication de systèmes critiques développés dans des secteurs comme les transports ferroviaires, l’avionique, le spatial, les télécommunications ou l’énergie.
La vérification et la transformation de modèles s’intègrent tout naturellement dans le processus de développement, s’assurant qu’à chaque niveau de modélisation ou à chaque étape de transformation les modèles intermédiaires obtenus (ou réutilisés) ont les qualités requises. On peut ainsi assister et guider les concepteurs en leur proposant une démarche méthodologique de développement axée sur la réutilisation et l’intégration de briques et d’environnements logiciels éprouvés (patrons de conception, patrons métiers, composants logiciels, frameworks, … ).
Cette conférence a pour objectif de faire le point sur les méthodes et les techniques concernant la vérification et la transformation de modèles, et leurs impacts au travers de retours d’expérience sur des applications de systèmes critiques. Elle s’attachera à montrer la place de la vérification et de la transformation des modèles dans cette nouvelle approche des architectures dirigées par les modèles.
Ces journées ont été instituées sur l’initiative de quatre membres du consortium Neptune (Nice environment with a process and tools using norms and examples), et organisées avec le concours du CMSL (Centre pour la maîtrise des systèmes et du logiciel) du Cnam (Conservatoire national des arts et métiers) elles ont pour vocation de constituer un lieu de rencontre, au travers de présentations et tables rondes, pour les différents acteurs du monde du Génie Logiciel concernés par l’utilisation et l’évolution des techniques de vérification de modèles. Les journées ont ainsi un double rôle de veille technologique et d’évaluation critique.
Contact : Jean-Claude Rault, Génie logiciel.
Le Schene (Schéma de l’édition numérique pour l’enseignement) vise à mieux prendre en compte les demandes exprimées par les enseignants et à assurer aux éditeurs la visibilité nécessaire pour produire les contenus dont l’Éducation nationale a besoin. Il vient de publier les besoins pédagogiques repérés en matière de multimédia pour la classe de quatrième, le cycle central ou le collège, selon les disciplines. Sur cette base, un appel à propositions est lancé du 8 avril au 8 juillet 2005 afin d’orienter la production de ressources numériques en fonction de ces priorités. Après cette phase expérimentale, le processus doit s’étendre à tous les niveaux et disciplines du collège et du lycée et prendre en compte les domaines transversaux et non-disciplinaires. Il couvrira ainsi à moyen terme l’ensemble des besoins du secondaire. En savoir plus
Le projet français innovant Eurover (European rover) vise à construire un rover (petit robot qui peut aller là où l'homme ne peut s'aventurer, par exemple sur la planète Mars). Le projet sera conduit avec des groupes d'élèves de plusieurs pays spécialisés dans la mécanique et l'électronique. Ils utiliseront une plate-forme en ligne commune pour apprendre et communiquer. Responsable : Frédéric Xerri.
Le FFFOD propose le 10 mai prochain une matinée d’étude en partenariat avec le Cned et le Préau/CCIP sur le thème L’accompagnement à distance de la VAE, une chance pour son développement. Elle se tiendra de 9h à 12h30 à la CCIP (Chambre de commerce et d'industrie de Paris), 27 avenue de Friedland, 75008 Paris.
De plus en plus d’organismes de formation proposent d’accompagner les candidats à la Validation des Acquis de l’Expérience. Certains le proposent à distance partiellement ou totalement. La distance dans l’accompagnement à la VAE est facilité lorsque l’accompagnateur est lui-même un organisme de formations à distance. C’est, dans tous les cas et pour tous les organismes, la réponse à des contraintes géographiques, de disponibilité et de coûts et un moyen de développer sensiblement en en industrialisant l’accompagnement l’usage de la VAE.
Inscription à la journée (avant le 3 mai).
European Schoolnet est un réseau de réseaux européens
dont le but est de promouvoir l'utilisation des Technologies de l'Information
et de la Communication dans les écoles d'Europe en :
- encourageant la collaboration entre les écoles,
- offrant un large éventail de contenus et de services éducatifs,
- promouvant la pratique et l'expérience,
- améliorant les processus de concertation et de normalisation dans l'enseignement.
Pour recevoir La
lettre.
Nous avons signalé dans notre numéro 47
d'une autre structure, Europschoolnet.
.
Rubrique réalisée avec la collaboration de Jacques Baudé
Le CNRS , l’Inserm, l’Inra et l’Inria annoncent la création d’archives institutionnelles. D'ici à la fin de l'année, chaque organisme mettra en place sur son site web un espace dédié à la consultation gratuite d'articles parus dans des revues scientifiques, ainsi que des documents de travail. Leurs chercheurs pourront choisir de les rendre totalement publics ou de les réserver à la communauté scientifique. Le communiqué.
Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.
Prochaines séances du séminaire Histoire de l'Informatique
: historiographie, méthodes et sources :
- 20 avril. Le logiciel libre : histoire et modèle économique.
- 18 mai Programmes nationaux de diffusion de l'informatique dans la société.
Comparaison de la Grande Bretagne (BBC Computer literacy project) et de la France
(plans Informatique à l'école).
- 1er juin Les politiques européennes en informatique, par Arthe
van Laer, qui consacre sa thèse à ce sujet.
Contacter avant de venir pour la première fois au séminaire Pierre Mounier-Kuhn.
Il s'agit d'une théorie tout à fait sérieuse (semble-t-il), mais l'idée que le virtuel et le trou noir, ces deux antithèses du "réel" puissent ainsi se conjuguer nous a semblé justifier un passage dans cette rubrique. Nous laissons à nos lecteurs facétieux le soin d'en proposer des versions moins politiquement correctes, surtout en ces temps de campagne électorale. Voici le texte envoyé par l'Ambassade de France :
Les recherches du Brookhaven national laboratory sur le Relativistic heavy ion collider (RHIC) ont-elles conduites à la formation d'un mini trou noir ? C'est ce que pense Horatiu Nastase, chercheur à l'Université Brown (Rhode Island)... d'un point de vue théorique évidemment. Depuis plusieurs années, des expériences de collisions de noyaux d'atomes d'or à des vitesses proches de la lumière (99,995%) et à très hautes températures (de l'ordre du milliard de degrés) sont menées au RHIC dans le but d'étudier ce qu'on appelle le plasma quark-gluon, un état de la matière semblable à celui ayant existé quelques millionièmes de seconde après le Big Bang.
Selon les travaux du physicien, qui n'ont pas encore été soumis
à un journal pour publication mais sont disponibles en ligne, la violente
décélération des ions dans le collisionneur tandis qu'ils
se percutent en une fraction de seconde (1/10 puissance 23) est comparable à
l'environnement gravitationnel extrême rencontré au voisinage d'un
trou noir interstellaire. Au moment du choc, l'interaction forte qui assure
la cohésion du noyau atomique en liant les protons et les neutrons entre
eux créerait en effet très brièvement une sorte de vortex
capable d'avaler une partie des noyaux d'atomes d'or. De plus, tout comme un
trou noir luit très faiblement selon la théorie du rayonnement
de Hawking, le pseudo mini trou noir créé par le RHIC émet
un ensemble de particules connues sous le nom de pions (un pion est un méson
échangé par les nucléons). Une précision toutefois
(et de taille) : bien que les modèles mathématiques soient analogues,
les forces (respectivement gravité et interaction forte) en jeu dans
ces deux phénomènes sont très différentes ; il n'y
donc aucune chance pour que l'accélérateur de particules donne
un jour naissance à un véritable trou noir vorace ! Le phénomène
assimilé à un mini trou noir ne peut en effet que s'évanouir
très vite (NDLR : Ouf !).
Selon le New
York Times. Autres sources : BNL,
Arxiv.
Une autre sorte de trou virtuel, variété digitale, pour âge mental jeune (mais enfin, les informaticiens sont-ils (sommes-nous) tous adultes...). Nous vous laissons l'ouvrir.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.