Association francophone
pour la recherche et l'enseignement en
sciences et technologies de l'information


  Abonnement/Désabt. 

  Accueil Asti 

  Accueil Gerbert 

  Numéros précédents 

 Dictionnaire 

Stic-Hebdo

No 54. 23 mai 2005

Traitement du signal, image et art

Le jeudi 9 Juin 2005, au Cnam Paris. Le programme complet.

Sommaire : Trois questions à Pierre Mounier-Kuhn | L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Dans les entreprises et les administrations : | Manifestations | Bibliographie | Détente


"Il est rare que l'on puisse directement tirer des leçons d'une expérience historique. Nous vivons dans le complexe, l'histoire est une science du complexe. Elle a surtout l'avantage de nous apprendre à réfléchir, à aiguiser notre esprit d'analyse, à nous méfier de la facilité."

Trois questions à Pierre Mounier-Kuhn

Ingénieur CNRS, Centre de recherches en histoire de l'innovation, Université Paris-Sorbonne.

Stic Hebdo : Vous allez contribuer en octobre à la session du congrès Asti 2005  Conservation des fonds et objets historiques des Stic . L'histoire des Stic a-t-elle vraiment un public aujourd'hui ?

Pierre Mounier-Kuhn. Nous en sommes au septième Colloque sur l’histoire de l’informatique en France et nous préparons le huitième, en plus des réunions qui ont été consacrées à un thème particulier comme les débuts des réseaux de données, les systèmes d’information et de commandement, l’affaire Unidata ou l’imagerie numérique.

Beaucoup plus de gens s’intéressent à l'histoire de l'informatique aujourd'hui qu'il y a quinze ou vingt ans. La « communauté » des historiens, de ceux qui écrivent sur ce sujet, est passée d'une cinquantaine de personnes dans le monde vers 1990 à environ 500, en y incluant les anciens de l'informatique qui ont fait des travaux bien documentés (par exemple Herbert Grosch qui a publié en 2003 une deuxième édition de ses mémoires, dont une version est en ligne sur Internet). On peut multiplier le chiffre par dix ou vingt si l'on inclut tous ceux qui s'intéressent à l'histoire des Stic, viennent à nos colloques ou lisent nos ouvrages ; il faut y ajouter les historiens d'autres spécialités pour qui nos travaux sont des sources utiles : les historiens des techniques contemporaines, des mathématiques, de l’organisation du travail et des entreprises, ou des politiques publiques, par exemple.

Cet engouement est apparu d’abord dans les pays anglo-américains, à la fin des années soixante-dix. Dans la décennie suivante il s'est étendu à l'Europe continentale, puis au Japon et à d'autres pays, notamment au bloc soviétique. Phénomène facile à comprendre : les pionniers du calcul électronique arrivaient à l’âge de la retraite ; ils prenaient la mesure de l’aventure qu’ils avaient vécue, de leur contribution au bouleversement des sociétés industrielles. Ils souhaitaient à la fois :
- fixer la mémoire des moments intenses, passionnants, de leur existence, et des évènements dont ils avaient été témoins ,
- partager cette expérience, la confronter, la transmettre aux générations futures,
- essayer éventuellement de tirer les leçons du passé.

Ce désir des « anciens » convergeait avec un intérêt croissant des historiens pour les sciences et des techniques, considérées non plus en elles-mêmes, mais avec la volonté de les intégrer à l'histoire des entreprises et des sociétés contemporaines — c’est notre vieux rêve braudélien de faire une histoire totale !

D’autres personnes, ou parfois les mêmes, s’efforçaient de sauvegarder le patrimoine matériel : sauver de la casse les vieilles machines mécanographiques ou les ordinateurs de premières génération, essayer de les remettre en état de marche, organiser expositions et démonstrations. C’est un travail énorme, coûteux, les bénévoles qui s’en chargent et les rares entreprises ou administrations qui les soutiennent méritent toutes les louanges. En France, on peut citer notamment l’Aconit (Grenoble) et la Fédération des équipes Bull (qui participe aussi à la session du congrès de Clermont-Ferrand). Cet effort est allé de pair avec la conservation d’archives d’entreprises, comme celle du Groupe Bull organisée depuis 1976, qui me semble exemplaire.

Ce phénomène se reproduit depuis une dizaine d’années pour l'histoire de la micro-informatique, où interviennent trois types de personnes :
- les pionniers, qui depuis longtemps ont commencé à témoigner,
- les journalistes et les historiens, qui essayent de distinguer des lignes de force dans cette histoire du temps présent,
- les collectionneurs de microordinateurs. Ce sont des érudits passionnés et bricoleurs, typiquement des garçons qui avaient 16 ans en 1980 et qui ont été « mordus » par un Apple II, un Amstrad ou un Goupil… Ils en sont restés atteints pour la vie. La collectionnite de « vieuxmicros » (c’est le nom d’une foire annuelle qui les rassemble) se complique souvent d’une passion dévorante pour les anciens jeux vidéo ou informatiques : c’est toute une culture adolescente des années 80 qui est ainsi préservée. Ils s’intéressent à la technique comme objet de consommation, aux usages, beaucoup plus qu’aux entreprises productrices ou qu’à l’arrière-plan scientifique. Quand ils écrivent, c'est pour comparer les performances du 68000 comparées au 8080, ou du TO7 par rapport à l'Apricot. Leurs préoccupations sont donc d'un autre ordre que les nôtres. Entre historiens et collectionneurs, on se salue cordialement, mais on se parle peu. Ils sont très proches de l’esprit des restaurateurs de vieilles voitures, qui s’intéressent peu à l'histoire de l'industrie automobile : leur plaisir, c’est ressusciter une machine sauvée de la casse, goûter l’intelligence incorporée dans des innovations passées, le pittoresque des avant-gardes périmées. Ce monde diffère nettement de la grande informatique, même entre restaurateurs : on ne trouve pas un Gamma 60 ou un IBM 704 dans les vide-greniers, et l'on ne peut s'y intéresser sans étudier aussi l'histoire de l'entreprise qui l’a produit.

S.H. : Quels sont thèmes les plus étudiés aujourd'hui ?

P.M.-K. Dans une première phase, on a raconté l'histoire des machines, des premiers ordinateurs, des équipes qui les ont développés et de leurs utilisateurs pionniers. On s’intéressait surtout au matériel, au monde du calcul scientifique, de la recherche. Ainsi qu’à l'histoire des débuts de l'industrie informatique, avec beaucoup d'articles et quelques livres sur Univac, ICL, IBM (notamment l’excellent IBM’s Early Computers, de Charles J. Bashe, Lyle R. Johnson, Emerson W. Pugh and John H. Palmer, MIT Press 1985). Citons aussi The soul of a new machine (par Tracy Kidder, Atlantic monthly press, 1981), qui raconte l'histoire d'un ordinateur et de l’entreprise qui l’a produit (Data General), de façon plus intéressante que les sagas ou l'auto-célébration qui tiennent trop souvent lieu d’histoire. Sur Bull, il y a eu beaucoup d'articles, mais pas encore de livres — ça vient…

Ensuite, on s'est de plus en plus intéressé au logiciel. Il y avait déjà eu deux grands colloques History of programming languages (1978, 1993, le troisième est prévu à San Diego en juin 2007). On est venu aux systèmes d'exploitation, avec de nombreux travaux sur OS/360, Unix, GCOS7 récemment, et bien entendu MS/Windows. Il s'agit là la gestion de systèmes complexes, des désastres et quelques réussites. Un grand colloque organisé au Nixdorf computer museum, en 2000, a fait une synthèse de ces travaux.

L’histoire de l'industrie du logiciel s’écrit différemment de celle de l'industrie des ordinateurs, parce qu'elle est beaucoup plus éclatée, dispersée, volatile. Les entreprises y ont beaucoup bougé, connu de nombreuses restructurations, et souvent une croissance rapide qui les amenait à déménager fréquemment, ce qui signifie presque toujours : destruction d'archives. Elles n'ont d’ailleurs pas une tradition de conservation d'archives. Les firmes qui ont une culture de consultants ne gardent que leurs rapports annuels, et encore... Il y a tout de même eu quelques monographies américaines bien faites, et en France les ouvrages réalisés pour Stéria et Cap Gemini. La meilleure synthèse sur le paysage américain est Une histoire de l'industrie du logiciel, de Martin Campbell-Kelly (que j'ai traduite pour Vuibert en 2003).

Au même moment, nous lancions en France notre série de conférences sur l'histoire des SSII, qui devrait déboucher prochainement sur des publications. Le schéma est différent de celui des Etats-Unis, parce que les sociétés françaises sont restées plus axées sur les services, avec relativement peu d’activité « progiciel ».

Il faudrait aussi étudier l’histoire des applications, des utilisateurs ; l'histoire des périphériques ; et l'histoire de l'industrie électronique. Malheureusement, en France, nous manquons de volontaires pour écrire des monographies de laboratoires ou d’entreprises. Il y a des livres généraux sur l'histoire de la technologie électronique (comme celui d'Henri Lilen, que vous avez interviewé dans votre numéro 51). Mais on connaît mal le chemin très heurté qui a mené, en 50 ans, des bons tubes hyperfréquences de la CSF aux désastres des « plans composants » et au redressement dans le cadre de STM…

S.H. : L'histoire peut-elle fournir un "retour d'expérience" pour éviter les erreurs du passé et mieux préparer l'avenir ?

P.M.-K. Oui et non… Quiconque lance une opération d’envergure se réfère nécessairement à des expériences passées. Par exemple, toutes les régions, toutes les technopoles qui ont cherché à promouvoir un dynamisme économique par les Stic ont cherché un modèle historique dans la Silicon Valley. Mais il est rare que l'on puisse tirer des leçons directes d'une expérience historique. Sinon, tous les élèves de l’Ecole de Guerre seraient devenus victorieux, et les historiens économistes feraient fortune en Bourse ! Nous vivons dans le complexe, et l'histoire est une science du complexe. Elle a surtout l'avantage de nous apprendre à discerner, à aiguiser notre esprit d’analyse, à nous méfier de la facilité, des formules creuses et des modes intellectuelles, des raisonnements par analogie. Le métier d'historien est un métier de renseignement et d'analyse. Il faut collecter systématiquement les informations, évaluer leurs sources, les croiser, comprendre pourquoi tel témoin nous dit ceci ou cela. Ou bien pourquoi nous ne trouvons aucun renseignement sur tel aspect des choses… L’interlocuteur le plus sincère est toujours pris dans un paradigme qui détermine largement sa pensée, dans des intérêts, même très légitimes.

L'histoire des Stic nous aide notamment à comprendre comment se prennent les décisions, qu’il s’agisse d’un choix technologique, d’une stratégie d’entreprise ou du processus qui a mené au Plan Calcul : quel était le paysage mental des décideurs, le « tableau de bord » de leurs informations et des représentations qu’ils se faisaient de leur environnement ? Qu’est-ce qui, pour eux à ce moment-là, était évident, concevable, tentant ou au contraire impensable, dans l’angle mort de leur visibilité ? Ce ne sont ni les évidences, ni les impensables d'aujourd'hui. Et cela nous aide à mettre ainsi en perspective nos idées actuelles. Ce qu’on appelle le « recul historique », c’est par ce genre de réflexion qu’on le construit — pas du tout en attendant que le temps passe… et que les archives disparaissent !

J’ai tâché d’appliquer ce principe lors du colloque pour le 30e anniversaire du micro-ordinateur, que nous avons organisé au Musée des Arts et Métiers en 2003. C’était une belle occasion d’inviter François Gernelle à remettre solennellement un Micral N aux collections nationales : il avait été à la peine, il était juste qu’il soit à l’honneur ! Mais je tenais à éviter le genre saga, la sempiternelle aventure des jeunes génies qui seuls ont perçu l'avenir et l’ont réalisé dans leur garage, alors que les institutions établies, sclérosées bien entendu dans leur myopie ou leurs intérêts sordides, passaient à côté.

Un historien pose le problème d’une façon plus ouverte : Apparaît une invention, le microprocesseur, produit par Intel et Motorola à partir de 1972. Que fait-on avec, dans quels contextes, pour quels usages? Certains ont développé des mini-ordinateurs moins chers pour le marché professionnel ; d’autres, des micro-ordinateurs pour les hobbyistes ou la bureautique ; d'autres encore, des calculettes ou de la conduite de procédés (débouchés initiaux du microprocesseur) ; les constructeurs de grande informatique l’ont aussi utilisé, mais d'une autre façon. Non par myopie, mais en raison de calculs économiques rationnels, d’investissements et de savoir-faire collectifs, qu’on ne change pas aussi facilement qu’un étudiant qui casse sa tirelire pour construire une maquette.

Ainsi l’histoire sert à balayer des mythes et à prendre une vue équilibrée des réalités. Donc à échapper aux manipulations.
Pour prendre l’exemple d’un grand mythe, lourd de conséquences, on peut rappeler l’image répandue en France dans les années 1950-1960 sur le capitalisme traditionnel, qu’on accusait d’être responsable du retard économique du pays, par son malthusianisme supposé. Le corollaire était évidemment que les hauts fonctionnaires étaient mieux placés pour prendre en main l’industrie, soit dans l’administration, soit dans les états-majors de quelques grands groupes travaillant avec l’Etat. Les PME étaient considérées, par définition, comme des symboles d’arriération. Ce modèle a effectivement marché pour l’électronucléaire. Mais pas en informatique.

Chez Bull, qui était effectivement, jusqu’à la crise de 1964, une entreprise familiale, catholique, paternaliste, bref politiquement incorrecte, on a accusé la famille Caillies, propriétaire des papeteries Aussedat, de vouloir prolonger la mécanographie classique pour continuer à vendre des cartes perforées. C’est l’explication de l’ « affaire Bull » la plus répandue dans l’opinion. On oubliait que ces provinciaux vieille France exportaient dans quarante pays en 1962 (tandis que les grands groupes comme la CGE n’avaient aucune présence internationale), et avaient construit des ordinateurs dès 1956 (ce que la recherche publique avait raté...) Certes les patrons de « la Bull » avaient commis des erreurs — mais pas celles qu’on leur attribuait. Quand on les étudie de près, on voit que ces groupes familiaux ont toujours arbitré en faveur d'une politique de croissance. Bref, pris dans ce schéma mythique, les pouvoirs publics ont décidé de créer un champion national en informatique pour concurrencer localement IBM, en ont exclu Bull, et l’ont confié à de grands groupes d’électronique qui s’intéressaient fort peu au digital, encore moins au logiciel, encore moins au marché « gestion ». Le résultat de ce meccano industriel fut le Plan Calcul.

Toute cette idéologie, inspirée par des penseurs formés dans la crise des années trente, était l’évidence, on l’enseignait à Science-Po jusqu’aux années 80, elle était le cadre mental de la planification et des grands programmes, et dans certains domaines elle a d’ailleurs été corrélée à de bons résultats, à côté de catastrophes en électronique. Aujourd'hui, au contraire, cette conception paraît absurde, alors que l'on a pris conscience de l'importance des PME, des start-up, pour le dynamisme économique, l’innovation, le transfert de la recherche à l’industrie. Et du commerce à l’échelle mondiale. Quels sont donc, aujourd’hui, les impensés, les angles morts de notre vision ? Peut-être ce à quoi nous tournons désormais le dos… Certains, comme le patron de SAP, commencent à réclamer le lancement de grands programmes européens. Mais là je sors de mon sujet…

Propos recueillis par Pierre Berger


Actualité de la semaine

Appel à projets 2005 des Réseaux nationaux de recherche

RNTL (Réseau national en technologies logicielles), visant à soutenir la constitution de projets innovants de recherche et de développement coopératif entre entreprises et équipes de la recherche publique. Trois objectifs prioritaires,
- systèmes embarqués,
- réseaux d'information et de connaissances,
- réalité virtuelle, interface homme-machine et simulation.
Date limite de soumission électronique des dossiers : 20 juin. Le site.

RIAM (Réseau national de recherche et d'innovation en audiovisuel et multimédia). Les thèmes de l'appel s'organiseront autour de quatre domaines
- nouveaux modes de distribution de contenus audiovisuels et multimédia,
- numérisation de la chaîne audiovisuelle et du cinéma,
- protection des contenus numériques et gestion des droits associés,
- jeux vidéo et réalité virtuelle,
et d'une thématique transverse visant à mieux cerner certains aspects des usages et marchés de demain.
Date limite de soumission électronique et postale des dossiers : 15 juin Le site.

Predit (Programme de recherche et d'innovation technologique dans les transports terrestres) :
- technologies pour la sécurité,
- intégration des systèmes d'information et de communication.
Date limite de soumission : 25 juin. Le site.

PNano (Programme national en nanosciences et nanotechnologies).
Date limite de soumission électronique des dossiers : lundi 6 juin avant midi. Le site.

Europe, 6eme et 7eme PCRDT

- IST (Société de l'information) : 5ème et dernier appel FP6-2005-IST-5 Budget : 638 Millions d'euros - Date limite : 21 sept. à 17h. Soumission électronique uniquement. Thèmes : 12 objectifs stratégiques et projets FET (voir le programme de travail 2005-2006) Instruments financés : projets intégrés, réseaux d'excellence, projets de recherche ciblés, actions de coordination, actions de soutien spécifique
Pour plus de précisons.
- Si vous recherchez des partenaires, pensez à faire appel au service gratuit du réseau Idéal-ist.

- Infrastructure : FP6-2005-Infrastructures-7 concernant le Développement de réseaux de communication (Geant, Grids). Budget : 55 Millions d'euros - Date de clôture : 8 sept. à 17h. Soumission électronique uniquement. Instruments financés : actions de coordination, actions de soutien spécifique, initiative infrastructure intégrée Le site.

(Communiqué par la Diffusion Paris 7 )


Théories et concepts

La haute technologie à l'écoute de la Terre

La communauté scientifique s'intéresse de plus en plus à l'installation de réseaux de capteurs, caméras et autres unités informatiques miniaturisés, connectés par des communications sans fil et alimentés par des batteries ou des cellules solaires, pour la surveillance des écosystèmes terrestres. Le secteur, qui en est encore à ses débuts, est en plein essor grâce aux évolutions récentes de l'électronique et des matériaux.

Aux Etats-Unis, la NSF (National science foundation) a par ailleurs dépensé ces dernières années près de 100 millions de dollars pour aider la recherche sur de nouveaux réseaux et envisage d'investir plus d'un milliard de dollars dans de grands projets environnementaux. Le DOD (département de la Défense) a également contribué à ce mouvement à travers l'Arpa (Advanced research projects agency), qui a financé les études de miniaturisation de toutes sortes de capteurs, et de grands groupes industriels semblent désormais prêts à s'associer à ce type de réseaux (Intel travaille ainsi avec l'UCLA (université de Californie à Los Angeles) sur l'étude de la James Reserve initiée il y a trois ans). Pour les scientifiques, les données susceptibles d'être recueillies par ces observatoires d'un nouveau genre, sur le long terme ou à l'occasion de campagnes limitées dans le temps, sont inestimables, et ce dans de nombreux domaines (contamination des sols, cycles océaniques, formation des continents, comportement des espèces invasives ou encore stockage du carbone atmosphérique). Parmi les ambitieux programmes en cours d'élaboration, on peut citer EarthScope, un projet de 200 millions de dollars pour lequel quelques 3000 stations d'enregistrements des déformations de la croûte terrestre vont être installées d'ici 2008 pour un fonctionnement prévu jusqu'en 2023.

Les sciences de la vie ont également leur projet de grande envergure : Neon (National ecological observatory network), estimé à 500 millions de dollars, prévoit la mise sous surveillance de 15 zones types (urbaines, suburbaine, sauvage, agricole, etc.) de 300 kilomètres de diamètre chacune, par tout un ensemble de capteurs et caméras. La construction pourrait débuter en 2007 pour une durée de 5 ans et pour une mise en oeuvre effective complète vers 2020.

Enfin côté océan, Américains et Canadiens ont décidé de s'associer pour l'étude des profondeurs du Pacifique sur 3200 kilomètres, depuis la Californie jusqu'au Canada. La construction du segment canadien du câble en fibre optique du projet Neptune a déjà commencé, tandis que le financement américain devrait démarrer en 2007. D'un coût de 200 millions de dollars environ, Neptune pourrait être mis en service en 2012 pour une durée de 30 ans.


Selon le New York Times. Autres pointeurs : Earthscope, Neoninc, Neptune Canada et Neptune Washington.

Vision et perception

En mai et juin, les unités de recherche Inria Rocquencourt et Futurs (Saclay) organisent un Thématiques Inria Vision et perception. Ce cycle de conférences est ouvert à tous et destiné à rendre la science accessible au plus grand nombre. Au programme, les mardis à 14 heures :
- 31 mai . Henri Maître, professeur au département TSI de l'ENST Le traitement des images au service des œuvres d’art : 20 ans de recherches coopératives à Télécom Paris.
- 14 juin . Olivier Faugeras, directeur de recherche, Inria Rocquencourt, Odyssee, vision humaine et vision machine : ressemblances, dissemblances, défis et synergies.
- 28 juin. Peter Belhumeur, professor of computer science, Columbia university An electronic field guide: Plant exploration and discovery in the 21st Century

Résumé des conférences et affiche

Bilan "société de l'information" au CNRS

Le CNRS organise un colloque pour faire le bilan des travaux du PIR (programme interdisciplinaire de recherche) intitulé "société de l'information" les 19, 20 et 21 mai 2005 à l'ENS-LSH de Lyon. Dans le cadre de ce programme qui couvrait la période 2001-2004, 122 projets ont été financés à hauteur de 3 millions d'euros.

Le PIR "société de l'information"visait à anticiper les conséquences de la révolution technologique soulevée par les TIC (rupture technologique, innovation technique, nouvelle organisation économique.) en associant chercheurs en sciences humaines et sociales et en informatique. Ainsi, dans le domaine de la cognition, le projet Colin (Production des connaissances à partir de sources en ligne) a confronté les jugements produits par des adultes novices ou experts en documentation face à différents échantillons de pages internet. Résultat: "Seuls les experts utilisent des critères précis et homogènes pour évaluer l'information. Il conviendrait donc de former le public à ces techniques afin de renforcer son autonomie face au 'bruit' documentaire caractéristique d'internet" . Educnet (cf. "Les 30 dernières dépêches AEF").

Les Français et l'ordinateur

Si l'usage des nouvelles technologies progresse en France, le « fossé numérique » lié essentiellement à l'âge et au niveau d'étude, reste important. La proportion moyenne de Français qui allument « régulièrement ou tous les jours » (60%) un ordinateur cache de grandes disparités : parmi les diplômés du supérieur ou les 18-24 ans, 9 personnes sur 10 utilisent régulièrement ou quotidiennement un ordinateur alors que cette situation ne concerne que 13% des plus de 65 ans et des non diplômés. L'usage d'Internet obéit aux mêmes logiques ... TNS-Sofres.


Enseignement

Conception de contenus numériques de formation

La direction de la Technologie du ministère de l'Education nationale organise des universités de printemps sur la conception de contenus numériques de formation. Les personnels concernés sont les enseignants intéressés par la conception, la production et la diffusion des contenus numériques de formation et les personnels techniques dont les activités sont liées à l'enseignement. Elles ont lieu à Rennes du 25 au 27 mai; Bordeaux: du 8 au 10 juin; Strasbourg: du 15 au 17 juin 2005. Inscription.

Les TIC à la prochaine rentrée

Pour la préparation de la rentrée scolaire 2005, une circulaire ( N°2005-067 DU 15-4-2005 MEN DESCO) a été adressée aux rectrices et recteurs d'académie, aux inspectrices et inspecteurs d'académie, directrices et directeurs des services départementaux de l'éducation nationale: Le site. Extraits concernant les TIC.

Evaluation du B2i (Brevet informatique et internet)

Selon le MEN (direction de l'évaluation et de la prospective), le B2i ne concerne encore, dans les collèges où il est mis en oeuvre, que le quart des enseignants. Il a peu d'impact sur l'image de l'établissement et sur les relations que le collège peut entretenir avec l'école et le lycée ... L'implication d'un plus grand nombre d'enseignants nécessiterait notamment un plus grand usage des TIC dans les disciplines. Le document (FTP PDF).

Passeport TIC en Belgique francophone

La communauté francophone de Belgique a mis en place un "Passeport TIC" fixant un ensemble de compétences dans le domaine des TIC à la fin du premier degré de l'enseignement secondaire. Ce projet pilote entre dans la phase finale de sa deuxième année d'expérience. En cette fin d'année, ils seront donc des milliers d'élèves à faire la preuve de l'intégration des compétences TIC qu'ils auront eu l'occasion de développer. Le site. Le projet

Internet et libertés

Internet : chance ou danger pour les droits de l'homme ? est le thème retenu pour le prix René Cassin organisé, pour l'année 2005-2006, par le ministère de l'Education nationale. Ce thème est dans l'esprit de l'un des objectifs du B2i (Brevet informatique et internet). Le document.

Rubrique réalisée avec la collaboration de Jacques Baudé

La recherche en pratique

Rapport sur la politique française dans le domaine du calcul scientifique

Pour Emmanuel Sartorius (ingénieur général des télécommunications) et Michel Héon (Inspecteur général de l'administration de l'éducation nationale et de la recherche) " Désormais incontournables, aussi bien dans le domaine de la recherche que dans celui de l'industrie ... modélisation et simulation se sont introduites naturellement entre théorie et expérience, qui sont au cour de la démarche scientifique. Elles constituent désormais un moyen privilégié d'investigation pour les chercheurs. Elles sont devenues une condition nécessaire du progrès scientifique dans des domaines aussi variés que la climatologie, la chimie quantique, la biologie, la fusion contrôlée ou les nanotechnologies ". Le rapport (50 pages en PDF)

Jean Grisel(Diffusion Paris 7) nous signale en outre ses deux annexes : - Prospective (PDF, 45 pages), vision de l'Inria (PDF, 9 pages)

Inquiétudes autour du financement de la recherche en informatique américaine

Au cours d'une audition sur l'avenir du secteur informatique aux Etats-Unis, le président républicain du Comité des sciences de la Chambre des représentants s'est ému de ce que les financements fédéraux semblent se détourner de la recherche fondamentale. Il s'était déjà manifesté à plusieurs reprises depuis le début de l'année pour réclamer un fort accroissement du financement de ce type de recherche. L'attribution des fonds de la Darpa (Defense advanced research projects agency) a tout particulièrement été discutée.

Deux spécialistes, dont le président de la National academy of engineering, témoignant devant le comité ont dénoncé le déséquilibre dans les choix de la Darpa entre les projets à court et long terme, déséquilibre qui pourrait mettre en danger l'avance technologique américaine. De son côté le directeur de l'agence, également présent à l'audition, s'est défendu en expliquant que l'approche pluridisciplinaire adoptée pour distribuer ses fonds pouvait être à l'origine de variations au sein de chaque domaine spécifique, mais que sa politique générale n'avait pas été modifiée. Selon lui, les montants alloués aux universités pour la recherche fondamentale ont augmenté depuis 1999, à la fois en dollars constants et en pourcentage du budget de l'agence.

Le budget total de la recherche fondamentale aurait ainsi triplé, passant de 54,9 millions de dollars en 1999 à 169,9 millions de dollars en 2005. Mais les critiques notent que, si l'argent destiné à la recherche en informatique (tous types de travaux confondus) a progressé de 546 à 583 millions de dollars entre 2001 et 2005, dans le même temps, la part attribuée aux universités a diminué de 214 à 123 millions de dollars. Pour le président de la prestigieuse ACM (Association for computing machinery), ces chiffres illustrent l'apparent désintérêt de la Darpa envers la recherche fondamentale universitaire en informatique et le manque actuel de financements qu'aucun autre budget fédéral n'est encore venu compenser. L'enjeu est important puisque les financements de l'agence, qui joue un rôle similaire au PCRD en Europe, ont par le passé contribué à faire naître le TCP/IP, l'Arpanet (ancêtre de Internet), l'Unix BSD, etc. Selon le Washington Post
Autre pointeur House

Comment comprendre le défi de Google et comment y répondre ?

Comment la France, étant en pointe en 1990 dans les programmes de numérisation (notamment Gallica), est-elle devenue suiviste sinon en retrait 10 à 15 ans plus tard ? Des réponses dans Archive SIC (Archive ouverte en sciences de l'information et de la communication)


Dans les entreprises

La technologie Inria au cœur des jeux vidéos de nouvelle génération

L'Inria et le studio Eden Games, filiale du groupe Infogrames/Atari, ont conclu un accord pour l'utilisation d'une technologie d’optimisation de simulation de son dans le moteur de jeu développé par Eden pour les consoles de nouvelle génération. Le premier jeu à utiliser cette technologie est « Test Drive Unlimited », l'un des titres de lancement phares de la nouvelle console Xbox 360 de Microsoft. « Test drive unlimited » est dévoilé aujourd’hui au salon E3 à Los Angeles. Il sera suivi l'année prochaine d'un nouvel opus du célèbre « Alone in the dark », également pour plate-formes de jeux vidéos de nouvelle génération.

Mise au point sous la direction de Nicolas Tsingos, chercheur dans l'équipe Reves (Rendu et environnements virtuels sonorisés) à l'Inria Sophia-Antipolis, la technologie utilisée permet de décupler le nombre de sources sonores simulées interactivement tout en optimisant la perception du rendu audio et le recours aux puissances de calcul des nouvelles consoles.

La technologie développée permet d'identifier en temps-réel durant la simulation les sources sonores audibles ainsi que leur importance pour l'auditeur. En effet, l’oreille humaine ne perçoit pas toujours tous les sons, ceux de faible volume étant souvent masqués par des sons plus forts. C’est pourquoi le système conçu par les chercheurs Inria étudie les différentes sources sonores et leur attribue des mesures d’importance respectant la perception humaine. Les sons inaudibles sont alors éliminés et les ressources de calcul de la console sont concentrées de manière ciblée sur les sources sonores les plus pertinentes.

La technologie optimise également les effets de spatialisation du son ou l’effet « surround » qui permet de respecter la localisation et la propagation des sons dans l’espace. Au lieu de traiter individuellement chaque son, ce qui nécessite beaucoup de puissance de calcul, cette technologie regroupe par paquets les sources sonores qui sont proches les unes des autres tout en respectant les critères d’importance qui leurs sont attribués. Grâce à ces groupes de sons ou « imposteurs sonores » la technologie simplifie la représentation des sons, rend leur traitement plus facile à simuler tout en garantissant un rendu sonore réaliste.

Ces deux types de fonctionnalités (attribution de critères d’importance aux sons et création d’imposteurs sonores) optimisent les ressources de calcul des consoles et permettent ainsi de traiter davantage de sons pour améliorer le réalisme des scènes représentées.

« La technologie de l'Inria nous a permis de rendre l'univers sonore de nos jeux vidéo beaucoup plus réaliste » commente Jean-Yves Geffroy, directeur technique chez Eden Games.


Manifestations

Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.

Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.

Université de printemps de la Fing : Innovation et Internet

L'université de printemps sera diffusée en direct (streaming) sur le site de la Fing (Fondation internet nouvelle génération) . Il sera également possible d'y participer à distance par messagerie instantanée et/ou connexion webcam directe (Yahoo, Skype, Messenger, etc.). Les 8, 9 et 10 juin prochains à Aix-en-Provence. Renseignements et inscriptions.

Salon européen de la recherche et de l'innovation

Le Salon Européen de la Recherche et de l'Innovation se tiendra les 3, 4 et 5 juin à Paris Expo, Porte de Versailles. Il rassemblera, des chercheurs, des étudiants, de jeunes ingénieurs, des chefs d'entreprise et le grand public désireux de faire le point en matière de découvertes scientifiques et d'innovation. On y trouvera des conférences et tables rondes ouvertes à tous : nanotechnologies et matériaux intelligents, exploration spatiale et préservation de la biodiversité, catastrophes naturelles et gestion de l'eau potable, intelligence artificielle et cryptographie, médecine du futur et sécurité alimentaire, sciences humaines, etc. Le site.

Diffusion des arts numériques

Le laboratoire Paragraphe organise une journée d'étude le jeudi 9 juin 2005 (de 9h30 à 17h) sur le thème : La diffusion des arts numériques : Quelle importance des individualités, des réseaux et des collectifs ?" . Elle se déroulera à l'Université Paris 8 - Saint-Denis (Salle B106, Batiment B, 1er étage).
Le programme détaillé.

Alors qu'évoluent les critiques et les malentendus dont elle est parfois encore l'objet, la création numérique contemporaine ne peut désormais plus être ignorée. Ses formes multiples (installations, net-art, performances, littérature, CD-Rom...) ne facilitent pas une véritable cohérence dans sa perception. Quelles sont alors ses modalités de diffusion actuelles permettant de la faire connaître, et pourquoi pas reconnaître, par les publics anciens et nouveaux amateurs d'art ?

Animée et organisée par Florent Pasquier, la journée proposera de faire le point sur les questions liées à la diffusion des arts en "ique", sous forme de table-ronde réunissant plusieurs intervenants du secteur .

Introduction à la journée : La médiation des arts en "ique" : Florent Pasquier, Elodie Chagnas.

Galeries : François Coulon (Totonium, www.francoiscoulon.com), Christophe Cartier Visuelimage), Stéphane Maguet ( Numeris Causa).

Institutionnels : Jean-Christophe Theobalt, ministère de la Culture et de la communication, ECM (Le ministère), Beaubourg, Janique Laudouar (Numedia-Scola ), Jean-Damien Collin (Espace Gantner), Jacques Parsi (Cnac)

Associations et médias de diffusion : Robin Hunzinger ( La revue des ressources), Thierry Destriez (Heure exquise), Xavier Cahen ( Pour infos).

Organisateurs d'évènements et de festivals : Florent Aziosmanoff Art 3000, Le Cube, Nov'Art (Le Cube), Pierre-Emmnauel Reviron (Arborescence), Aliette Guibert-Certhoux ( Critical secret), Agathe Ottavi (Dedale)


Bibliographie

Interactions humaines dans les réseaux, par L. Lancieri. Hermès/Lavoisier, 216 pages, 40 euros.

Les réseaux ne peuvent plus être considérés comme des supports de communication "froids", leurs fonctionnements et leurs dynamiques sont largement dépendants du facteur humain. Dans cet ouvrage, l'auteur montre ce que le facteur humain change dans le fonctionnement du réseau et ce que le réseau change dans les interactions ou les habitudes humaines. Il nous montre comment modéliser les interactions humaines dans les réseaux et ceci à partir des traces de consultation de documents et de grandeurs de caractérisations validées par le contrôle a posteriori de la capacité prédictibe du modèle. Il propose des modes d'exploitation concrets de ces interactions complexes. Le miroir actif est un exemple de réutilisation des phénomènes de coopérations implicites dans l'entreprise. La conjonction de l'activité humaine et du fonctionnement d'un dispositif informatique simple permet d'optimiser la recherche et la rapidité d'accès à l'information. On pourra tirer profit de cet ouvrage dans des contextes comme le commerce électronique, la CRM (customer relation management, gestion de la relation client) ou encore l'enseignement assisté par ordinateur.

Les sites web. Procédures de description, d'évaluation comparative et de conception. par P. Stockinger. Hermès/Lavoisier, 256 pages, 50 euros.

Ce livre est consacré à une présentation systématique et pratique de la description sémiotique et comparative des sites web. Il comprend quatre parties principales dans lesquelles sont développés des cadres théorique et méthodologique pour l'analyse du contenu des prestations web mises à disposition de la communauté de visiteurs ou d'utilisateurs d'un site, de l'appropriation d'une prestation par les visiteurs ou utilisateurs ainsi que de l'expression et de la mise en scène multimodales d'une prestation sous forme d'une interface de communication et d'interaction entre le site et ses visiteurs.

L'approche de la description (ou scénarisation) sémiotique d'un site web ou d'une de ses parties est illustrée par de nombreux d'exemples concrets de sites de muses, de communes et villes et de la presse écrite.

Le paiement en ligne. Sécurisation juridique et technique. par C.R. Joly. Hermès/Lavoisiser, 300 pages, 65 euros.

Le commerce électronique a déjà conquis des parts de marché sur le commerce traditionnel mais c'est la confiance, notamment dans le paiement en ligne, qui lui permettra de conforter son développement. Le paiement électronique fait l'objet d'un cadre juridique spécifique tant au niveau national qu'européen. Au sommaire :
- les instruments de paiement électronique,
- la preuve du paiement en ligne,
- les instruments numériques de sécurisation du paiement en ligne,
- la mise à disposition de moyens de paiement,
- dispositions protectrices du consommateur,
- réglementation des infractions relatives au paiement et à la protection des données de la cartes bancaire,
- le recours à des tiers de confiance.

Qualité des systèmes d'information. Numéro spécial de la revue RSTI-Ingénierie des systèmes, sous la direction de J. Akoka et I. Comyn-Wattiau. Hermès/Lavoisier, 234 pages, 100 euros.

Au sommaire : A framework to evaluate the quality of information systèmes models. OWPL. Une méthodologie et des modèles légers pour initier une démarche d'amélioration des pratiques logicielles. APL. Méthode d'évaluation Noemi. Une méthode d'évaluation de la qualité des processus informatiques en moyennes et petites entreprises. Qualité de conception des bases de données relationnelles avec UML. L'influence du processus sur la qualité du produit. Un état de l'art sur la qualité des données. Analyzing and evaluating data freshness in data integration systems. Fraîcheur et validité de données répliquées dans des environnements transactionnels. Quality-of-service support in web services architecture. QOS-based distributed query processing.


Détente

Nettoyez par l'intérieur

Il faut de temps en temps nettoyer également les écrans de l'intérieur. Cliquez pour nettoyer en ligne.


L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.