Association francophone
pour la recherche et l'enseignement en
sciences et technologies de l'information


  Abonnement/Désabt. 

  Accueil Asti 

  Accueil Gerbert 

  Numéros précédents 

 Dictionnaire 

Stic-Hebdo

No 55. 30 mai 2005

Journée Creis "Données personnelles, entre droit et marché"

Cette journée se déroulera le vendredi 10 juin à l'Université Paris 6 - Amphi Esclangon, pied de la tour 56, angle rue Jussieu et rue Cuvier, Place Jussieu A noter au programme :

Vote électronique et protection des données personnelles. Entre logiques techniques et électorales de sécurisation et logiques industrielles et marketing ( Marin Ledun)

Interconnexion et identités électroniques : vers un système de fichiers répartis (Amar Lakel)

La Santé (Gilles Hebrecht)

DMP (Dossier médical personnel) et protection des données de santé (Arnaud Belleil)

La nouvelle loi Informatique et libertés. Félix Paoletti

Le correspondant informatique et libertés : Une nouvelle fonction pour quelles missions? (Emmanuelle Barbot)

Assemblée générale. Remise du Prix du Creis.

Programe détaillé L'accès à cette journée est libre, mais afin de faciliter les conditions d'accueil nous vous remercions de vous inscrire en envoyant un courriel.

 

Sommaire : Trois questions à Laurent Hanaud | L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Dans les entreprises et les administrations : | Manifestations | Bibliographie | Détente


"N'attendez pas d'une certification qu'elle vous dise exactement quoi faire. Demandez-vous plutôt ce que vous devez apporter à votre client."

Trois questions à Laurent Hanaud

Membre du comité d' Adeli .

Stic Hebdo : Dans quelque jours vous participerez à Itil 2005, et vous êtes un des rédacteurs de l'Odoscope. Mais vous êtes aussi un spécialiste de  l'infogérance, domaine qui jusqu'à présent semblait plutôt réfractaire à des démarches formalistes comme les certifications. L'état de l'art est-il en train de changer

Laurent Hanaud : Dans le monde de la certification des services, oui, notamment avec Itil (Information technology infrastructure library). La nouveauté vient du modèle ESCM (e-Sourcing capability model), sous l'autorité de l'université Carnegie-Mellon, qui le pilote dans le cadre de l'IT-SQC (Information technology services qualification center). Ont contribué aussi à son élaboration Accenture, EDS, IBM Global s

Services et Satyam. La véritable innovation apportée par ce modèle est de vouloir distinguer le rôle du client et celui du prestataire de services. Avant de contacter les fournisseurs, le client doit savoir exactement ce qu'il veut pour définir un catalogue de services.  Il y a donc deux volets : SP (service provider) et CL (client).

La structure de cette certification repose sur un modèle d'aptitude et certifie le prestataire en évaluant son aptitude à livrer le service. Dans son état actuel, le volet CL n'a pas encore été formalisé. Seuls les partenaires ont été désignés pour l'élaborer et le diffuser. Par contre, le volet SP est déjà publié pour une bonne partie. Reste à développer deux éléments traitant des équivalences entre d'une part l'ESCM-SP et d'autre part Cobit et CMMI (voir plus loin) .

Pour résumer, il s'agit d'un cadre d'évaluation qui définit d'un côté les domaines d'aptitude, de l'autre le cycle de vie d'un contrat d'infogérance, en quatre phases (initialisation, livraison, achèvement et activités récurrentes (ongoing)). On croise phases et domaines et l'on obtient les points d'évaluation, qui peuvent être cotés chacun à trois niveaux (2 à 4). Aujourd'hui, ce système n'est pas encore finalisé.

S.H. : N'est-ce pas ajouter une certification de plus à une panoplie déjà large, comme le montre votre Odoscope ?

L.H.. Carnegie-Mellon a l'expérience du domaine, puisque c'est déjà cette université qui soutient le CMM (Capability maturity model), dans le cadre du SEI, pour le développement logiciel.  L'ESCM ne cherche pas à réinventer la poudre. Il établit des équivalences avec les modèles qui peuvent déjà s'appliquer à l'infogérance :  Cobit, BS 15000/Itil, CMMI et ISO 9001.

Cobit (Control objectives for information and related technology) est un modèle de gouvernance. Il a été initialement développé par l'IT Governance Institute et est le référentiel de l' Isaca (Information systems audit and control association). Il pour finalité de répondre à la question suivante : "Quel est le bon niveau de contrôle sur mon informatique, de manière à ce qu'elle aide mon entreprise à réaliser ses objectifs ?" On voit bien la complémentarité des deux modèles. De plus, l'intérêt pour ce modèle est étroitement lié à la loi américaine Sarbanes-Oxley  (voir le forum spécialisé ). Cette loi a pour objectif de mieux encadrer la véracité des chiffres fournis par les entreprises. Or l'administration américaine a confié le contrôle de sa mise en application à l'Isaca. Du coup, ce dernier a fait décliner un modèle Cobit version Sox.

Itil (IT infrastructure library), développé par l'OGC (Office of government commerce), certifie les personnes impliquées dans la fourniture de services informatiques. Sa finalité est de constituer un référentiel des meilleures pratiques dans ce domaine, afin d'aider les directions informatiques à y atteindre leurs objectifs de qualité et de maîtrise des coûts. D'autre part, il s'intègre à un modèle plus général, le BS 15000, destiné à certifier les organismes. Aussi, inutile de dire que bon nombre d'activités couvertes dans ce cadre le sont aussi par l'ESCM-SP. La différence se situe davantage dans l'approche. Dans le premier, elle est plus centrée sur l'activité en elle-même et ses aspects techniques ; dans le deuxième, sur la relation contractuelle.

Sur ce dernier point, j'ajouterais que les anglo-saxons n'ont pas comme chez nous cette dualité très forte de maîtrise d'oeuvre/maîtrise d'ouvrage. De par leur système juridique, ils accordent plus d'importance au concept de "consideration". Ceci implique une participation très forte du client, appelé "sponsor" et non "maître d'ouvrage". A titre d'exemple, cette implication se retrouve dans le projet Prince (Project in controlled environment) développé par l'OGC. Il s'agit d'un modèle de gestion de projet, où le chef de projet n'est pas le patron. Il est mandaté par une direction générale, qui lui donne son ordre de mission. Celle-ci est composée en partie de représentants du client, qui suivent le déroulement des opérations. Ils y sont totalement impliqués.

ISO 9001 est le standard international bien connu.

Certes, comme vous le faites remarquer, la panoplie est très large. Mis nous nous rendons compte aussi que tous ces modèles répondent à des problématiques différentes, ce qui les rend complémentaires. Et les développeurs de ces systèmes ne s'y trompent pas. Ils les font évoluer les uns par rapport aux autres sous l'effet d'un jeu de la demande et de la concurrence. Cela peut paraître complexe. Mais c'est un monde qui évolue rapidement, ce qui nous conduira à publier une deuxième édition de l'Odoscope. Cet ouvrage a représenté un gros travail, de l'ordre d'un an, avec bon nombre de nuits blanches pour l'ensemble de ses auteurs (Jacqueline Sidi, Martine Otter et moi-même). Il est loin d'être terminé.

S.H. : Quelle est la véritable utilité des certifications ?

L.H. Tout d'abord, faire reconnaître les compétences, c'est la volonté avouée. Ceci dit, il y a de nombreux types de certification, et nous avons répertorié dans l'Odoscope celles qui concernent la maîtrise des systèmes d'information. Nous en résumons les grandes lignes dans la figure ci-contre. Ce qu'apporte une certification bien faite, ce n'est pas un beau diplôme sur papier, mais c'est surtout un cadre de référence, à commencer par l'utilisation d'un vocabulaire commun.

Autre point, une certification bien faite est là pour apporter des briques. C'est à l'utilisateur de savoir les mettre en oeuvre en fonction des activités de son client, de ses fonctions vitales, du niveau de service dont il a besoin.  Le "référentiel" du modèle est... une bible. Et il faut bien l'assimiler si l'on veut être certifié. Mais il ne dit pas tout : il apporte des éléments, ensuite il faut construire.

En paraphrasant le célèbre discours de Kennedy "Ne vous demandez  pas ce que la nation peut vous apporter, mais ce que vous pouvez apporter à la nation", autrement dit "N'attendez pas que telle ou telle certification vous dise exactement quoi faire. Demandez-vous plutôt ce que vous devez apporter à votre client pour ensuite savoir comment le faire avec l'aide du référentiel de la certification". Bien comprendre le client, c'est fondamental. Mais il faut aussi que le client comprenne que cette construction n'est pas forcément simple, sinon on va à l'échec. Il faut s'impliquer des deux côtés de la barrière".

Propos recueillis par Pierre Berger


Théories et concepts

Des nouveautés pour les claviers

Dans ITR Manager Guy Hervier recense différentes innovations récentes dans le domaine des claviers "Quels sont les éléments de l’ordinateur que l’on utilise le plus et auquel on pense le moins ? Sans doute le clavier et la souris. Ces deux éléments essentiels de l’interface homme/machine n’ont connu que des évolutions mineures, malgré quelques tentatives des certains fournisseurs, notamment Microsoft. Pour les utilisateurs intensifs, que ce soit pour de la saisie de données, de la rédaction de documents ou du développement de logiciels, une mauvaise ergonomie du clavier peut être source de problèmes de santé non négligeables. Das Keyboard, un nouveau produit qui vient d’être lancé, présente deux caractéristiques : les touches sont vierges et la résistance opposée à la frappe est variable en fonction des touches. Son concepteur, Daniel Guermeur, ancien programmeur et fondateur de la société Metadot, affirme qu’il est possible améliorer la vitesse de frappe en quelques semaines. D’autres solutions qui rompent avec les claviers existants sont également proposées par TypeMatrix ou Kinesis".

L'article comporte certains rappels historiques. On pourra les compléter en consultant l'article Clavier de notre dictionnaire.

Mémoires à changement de phase

Les sociétés informatiques IBM (Etats-Unis), Infineon (Allemagne) et Macronix (Taiwan) ont annoncé la mise en place d'un programme commun de recherche fondamentale sur les mémoires à changement de phase (PCM). Ce type de mémoire utilise un matériau capable, sous l'action d'une variation rapide de température par exemple, de changer de structure en passant d'un état amorphe à un état cristallin. Un laser enregistre ces changements et permet de les interpréter comme des données binaires 0 ou 1.

Les PCM présentent ainsi l'avantage, par rapport aux mémoires vives actuelles, de conserver les informations même en l'absence d'alimentation électrique et offrent des vitesses potentielles de lecture et d'écriture, et une densité de stockage d'information supérieures aux mémoires non volatiles de type Flash. La collaboration des trois compagnies se traduira par l'affectation à ce projet de 20 à 25 chercheurs répartis dans deux laboratoires d'IBM, le TJ Watson research center (Yorktown) et l'IBM Almaden research (San Jose). Les résultats concrets de ces travaux ne sont pas cependant attendus avant une vingtaine d'années. D'autres fabricants de semi-conducteurs comme Intel, ST Microelectronics et Philips travaillent également de leur côté sur la question. Communiqué par l'ambassade de France, d'après le New York Times.

Appel à communications. Ecritures du téléphone. Par Olivier Leplatre. L'Harmattan 394 pages, 31 euros.

"Ce livre contacte le téléphone dans ses écritures et sous toutes ses formes : textes littéraires, toiles de peintures, écrans de cinéma, papiers photographiques... Il s'en prend à la machine pour la démonter en figures de sens : boite, sonnerie, fil, voix, cabine sont les zones d'analyse et les pièces de l'enquête... S'y réunissent, en guise de correspondants : Fr. Ponge, Fr. Kafka, M. Proust, M. Duras, J. Tati, A. Hitchcock, P. Greenaway, Arman, S. Dali ou A. Newman, entre autres. Dans le souci d'une méthode fidèle à son objet, l'auteur expérimente une téléphonie critique." (Présentation de l'éditeur).

Sciences et technologies de l'information et de la communication.

Une conférence vidéo de Gilles Kahn, membre de l'Académie des sciences. (30 mars 2004) sur le site de l'IN2P3. (Il est nécessaire de disposer Real Player (téléchargeable gratuitement) de régler correctement son pare-feu).

Nouveau banc d'essai pour la métrologie des serveurs

Le TPCC (Transaction processing performance council), un consortium d'industriels de l'informatique pour la normalisation des bancs d'essai des performances des serveurs, s'apprête à lancer un nouveau protocole standardisé de tests transactionnels baptisé TPC-E et attendu pour 2006. En effet, l'ancienne version, le TPC-C, a été créé en 1992 et montre aujourd'hui ses limites. Le TPC-C (version 5.4 actuellement) permet en principe de déterminer les capacités d'un système matériel/logiciel, sous la charge de travail d'une série d'opérations, censée être représentative des applications. Par exemple, un commerçant en ligne peut en théorie avoir une estimation du nombre d'opérations complètes de commandes réalisées par son serveur en une minute et en déduire un ratio entre le coût du matériel et ses performances pour le comparer à celui d'autres machines. Ces tests ne servent donc pas seulement aux ingénieurs pour évaluer une nouvelle architecture, ils ont aussi une influence directe sur les consommateurs qui les utilisent pour faire leurs achats.

Malheureusement, les chiffres actuels fournis par les outils TPC-C sont jugés trop peu représentatifs par certains. Au milieu des années 1990, les résultats moyens étaient de quelques centaines de transactions par minutes (tpmC) pour environ 200 dollars par tpmC. De nos jours, les outils et serveurs atteignent en général les millions de tpmC pour quelques dollars par tpmC. L'évolution technique n'explique pas seule cette explosion des chiffres. De nombreux constructeurs utilisent des configurations matérielles et logicielles très éloignées de la réalité ordinaire (comme des serveurs avec 4548 disques durs ou des terminaux bon marché !).

Par ailleurs, les tests TPC-C peuvent être répartis entre plusieurs ordinateurs en cluster, faussant les résultats entre serveurs multiprocesseurs et en cluster (c'est pourquoi le TPC-C a ensuite été scindé en versions pour les clusters et non-clusters). Le consortium espère avec le TPC-E faire taire tous les critiques et mieux rendre compte de la réalité de fonctionnement d'une machine. Il travaille également au remplacement d'autres protocoles de mesure, comme le TPC-W (dédié aux serveurs d'application Web et lui aussi critiqué car la mesure intégrait bien plus que les applications mais seulement côté serveur) par le TPC-App et le TPC-H (dédié aux serveurs de données et qui ne mesurait que 25 types de requêtes) par le TPC-DS.

Communiqué par l'Ambassade de France, d'après le New York Times (NDLR : Il est surprenant de voir une quotidien de grande diffusion s'intéresser à un dispositif on ne peut plus technique et spécialisé). Le site du TPCC.

Psychologie des grands calculateurs et joueurs d'échecs. Alfred Binet. Introduction de C. Bouriau et S. Nicolas. Commentaire du grand maître international d'échecs Eric Prie. L'Harmattan, 366 pages, 32 euros.

L'ouvrage que publie Alfred Binet en 1894 est, en même temps qu'une analyse approfondie d'individualités psychologiques remarquables, une importante contribution à la psychologie de l'expertise en calcul et aux échecs à laquelle les chercheurs se réfèrent encore actuellement. On trouve dans la première partie du livre la description de deux des plus grands calculateurs mentaux de l'époque, Jacques Inaudi et Périclès Diamandi. Dans la seconde partie, Binet nous communique le résultat d'une enquête dans le monde des joueurs d'échecs afin de savoir quels sont les procédés qu'emploient ceux qui jouent à l'aveugle.


Enseignement

Le e-learning. La distance en question dans la formation. Proxima 1, par Michel Bernard. L'Harmattan, 96 pages, 12 euros.

A chaque apparition d'une nouvelle technique de communication, l'espoir naît de pouvoir mieux résoudre les problèmes d'accès au savoir. L'ingénierie éducative s'est évertuée à rendre le contenu des programmes éducatifs de plus en plus attractifs sous une forme accessible. Après les échecs, comparativement aux prévisions mirobolantes, de l'enseignement par correspondance, de la télévision éducative et du multimédia éducatif, qu'en est-il du e-learning ? Après une revue du phénomène, deux usages des TIC dans l'enseignement sont analysés.

Quand l'Internet profite au soutien scolaire à très grande distance

Grâce au développement de l'Internet, les étudiants américains ont désormais la possibilité de suivre des cours de soutien auprès de professeurs basés à l'étranger, notamment en Inde. Bien qu'embryonnaire (on évalue à 20000 le nombre d'élèves suivis par des tuteurs indiens), le marché présente un certain potentiel. De nombreuses entreprises de soutien scolaire proposent en effet leurs services dans le cadre de la loi No child left behind de 2001. Selon cette loi signée par le président Bush en 2002, lorsqu'un établissement ne remplit pas pendant trois années consécutives les objectifs de réussite définis par son académie, ses élèves à plus faibles revenus ont droit à un soutien gratuit pris à l'extérieur de leur école.

Certaines critiques dénoncent un fonctionnement à double vitesse interdisant aux districts les moins performants de proposer leurs propres programmes d'aide tandis que les fonds destinés aux élèves en difficultés partent à l'étranger. La question du contrôle de la qualification des enseignants et des méthodes suivies est également sensible. L'AFT (American federation of teachers) estime que l'essor du tutorat "offshore" amplifie les problèmes de ce type déjà rencontrés sur le territoire américain.

Reste une certitude : le système universitaire indien produit de nombreux professionnels de qualité, en particulier dans le domaine des sciences, présentant pour les sociétés un intérêt économique évident : une heure de soutien avec un professeur étranger peut être facturée 20 dollars au lieu de 45 à 80 dollars en temps normal. Les avocats du système relèvent par ailleurs qu'il est très bien adapté pour des élèves du second cycle, mais doit être considéré avec précaution pour des élèves du premier cycle. Signalé par l'ambassade de France, d'après le CS Monitor.

Bureaux virtuels pour l'enseignement supérieur.

On trouvera des informations pour leur état d'avancement, le séminaire "Bilan des ENT", un état des lieux en mars dernier et une démonstration des projets sur le site Educnet.

Culture multimédia

"Certains sites Web ou cédéroms (ou DVD) sont devenus des ressources incontournables des enseignants documentalistes et comme ces pages ont pour objectif de s'adresser à tous les collègues... nous avons choisi un titre qui pourra sembler un peu provocateur et, surtout, nous vous proposons une série de références utilisables aussi bien par des élèves encadrés que par tout enseignant, pour des recherches, des documents de cours, etc. Pour que la documentation soit l'affaire de tous !" Une double page de l'US-Mag n°61.

Rappel. Qu'est-ce que Tématice et EduTice ?

Tématice est une réalisation de la Maison des sciences de l'homme de Paris, soutenue par le ministère délégué à la Recherche, et en partenariat avec le Centre pour la communication scientifique directe du CNRS (CCSD/CNRS), l'INRP, l'EPI et l'Atief.

L'archive ouverte EduTice (Éducation et Tic) est une composante autonome du système d'archives ouvertes central HAL du CCSD/CNRS qui couvre toutes les disciplines et tous les champs scientifiques.

Deux courts articles, l'un signé Françoise Thibault de l'équipe Tématice, l'autre de la rédaction EPI, font le point dans la mise à jour de mai du site de l' association.

Vidéo-conférences

Pour les jours où les programmes télévisés ne proposent vraiment rien d'intéressant (pour ce qui concerne les sciences, c'est pratiquement tous les jours !) voici quelques pointeurs : IN2P3 Canal-U ENS Lyon.

Rubrique réalisée avec la collaboration de Jacques Baudé


La recherche en pratique

Diffusion électronique des thèses

Une journée est organisée le 7 juillet, de 9h à 17h, au ministère délégué à la Recherche (Amphithéâtre Poincaré - 1 rue Descartes 75005 Paris) par le secteur Recherche de l'ADBS, gratuite et ouverte à tous, mais inscription obligatoire - contrôle à l'entrée. Informations et inscriptions.

Espace européen de l'enseignement supérieur

Il reste des place au séminaire organisé au Cnam le 2 juin (ce mercredi) par l'Amue sur le thème Construire l'espace européen de l'enseignement supérieur : dispositifs et pratiques d'un pays à l'autre". Détails et inscriptions.

Où trouver un texte juridique sur internet ?

On trouve sur le site Defidoc un tableau est essentiellement comparatif qui permet de s'orienter dans les différents serveurs (Légifrance, etc.) pour la recherche d'un texte. Il ne prétend pas décrire l'exhaustivité des fonds. "

Conservatoire numérique des arts et métiers

Le Conservatoire numérique des arts et métiers est une bibliothèque numérique consacrée à l'histoire des sciences et des techniques, constituée à partir du fonds ancien de la bibliothèque du Cnam.


Manifestations

Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.

Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.

Le Paris ACM Siggraph à la Cyberbase

Programe détaillé.

Architectures orientées services

IBM organise ce jeudi 2 juin, de 8h45 à 17h00 à Paris La Défense un séminaire sur les SOA (Architectures orientées services) qui, selon le constructeur, constituent l'évolution naturelle des systèmes d'information, qui tendent vers plus de standardisation (J2EE, Web Services...) et de flexibilité, au service des priorités métier de l'entreprise. La plate-forme IBM WebSphere et, au-delà, l'offre IBM Software participent à cette transformation, en vous proposant, au sein d'une architecture de référence, des services de développement, d'intégration, de déploiement et d'administration organisés autour d'un bus de connexion. Programme et inscriptions


Bibliographie

Programmation synchrone de systèmes réactifs avec Esterel et les SyncCharts, par Luigi Zaffalon. Presses polytechniques et universitaires romandes, 488 pages, 56 euros)

Il est des systèmes qui exhibent une caractéristique majeure constituée par une interaction forte et soutenue avec leur environnement. Ils sont très diffus, voire insoupçonnés, dans des domaines d'application aussi divers que le transport et l'automobile (automotive), la communication (y compris le web), le monitorage médical, le contrôle/commande de procédés industriels, les systèmes mobiles (assistants et téléphones portables), les interfaces homme-machine, les circuits VSLI ou encore l'électronique de loisirs. De tels systèmes sont dits réactifs.

Des outils et des formalismes basés sur des approches asynchrones et synchrones permettent de développer et de vérifier de tels systèmes. L'approche synchrone, basée sur une hypothèse de temps de traitement nul, est plus récente et présente divers avantages. Mathématiquement fondée, elle est notamment utilisée dans le développement du logiciel des nouveaux Airbus.

Le contenu de cet ouvrage est destiné à des étudiants avancés, il nécessite la maîtrise préalable de la programmation. Il peut être utilisé comme support de cours de programmation de systèmes réactifs ou comme ouvrage de référence pour des professionnels souhaitant élargir leurs connaissances, qu'ils évoluent dans les domaines du logiciel ou des systèmes numériques.

Temps et documents. Numéro spécial de Document numérique. Sous la direction de C. Roisin et F. Sèdes. Hermès/Lavoisier, 168 pages, 55 euros.

Au sommaire : Formalismes de manipulation du temps par l'auteur dans les documents multimédias. Indexation de séquences vidéo. Indices liés au temps. Le temps dans les documents audiovisuels. Les temps du document et la recherche de l'information. Documents statiques et multimodalité. L'alignement temporel pour structurer des archives multimédias de réunions. Manuscrits, genèse et documents numérisés. Edite, une étude informatisée du travail de l'écrivain. La temporalité des corpus archéologiques. Temporalisation d'un document XML. Documents audiovisuels instrumentés. Temporalités et détemporalisations dans les hypervidéos.

Le travail avec les technologies de l'information. Sous la direction de E. Kessous et J.L. Metzger. Hermès/Lavoisier. 320 pages, 65 euros.

A partir d'études de terrain, quatorze chercheurs, issus de disciplines voisines, livrent des analyses concernant aussi bien les transformations de l'organisation du travail dans de grandes entreprises de services, que les modifications des pratiques professionnelles de travailleurs indépendants. Ces études sont également l'occasion de présenter la pluralité des méthodes et des paradigmes utilisés en sciences sociales. Le lecteur pourra ainsi comparer, pour un même type de situation (les centres d'appel, par exemple), les différents modes d'analyse proposés.

Complexité et systémique, par Y. Narbonne. Hermès/Lavoisier, 176 pages, 40 euros.

La systémique est une approche globale, transdisciplinaire et transtechnologique. Elle permet des apprentissages de type "relier les connaissances". En prenant comme exemple des réseaux de différente nature (eau, électricité, route, chemin de fer, etc.), l'ouvrage montre que le descriptif de ces réseaux plus ou moins simples, composés tous de noeuds et de liens, sur lesquels circulent des flux, facilite grandement la tâche pour une compréhension de réseaux plus complexes comme les télécommunications ou Internet.

Informatique répartie. Hors-série de la Revue des sciences et technologies de l'information. Sous la direction de D. Trystram, Y. Slimani et M. Jemni. Hermès/Lavoisier, 286 pages, 75 euros.

Cet ouvrage a été constitué à partir de la synthèse de cours dispensés en avril 2002 aux 14e rencontres du parallélisme qui ont eu lieu en Tunisie. Le programme avait été conçu pour couvrir les principaux aspects de l'état des recherches et réalisations dans les domaines de l'architecture des ordinateurs, du parallélisme et du système, en vue d'en faire un état de l'art complet et d'en analyser les tendances actuelles et futures.

Ingénierie des protocoles, qualité de service, multimédia et mobilité. CFIP'2005. Sous la direction de R. Castanet. Hermès/Lavoisier, 560 pages, 105 euros.

L'ingénierie des protocoles (conception, logiciels, spécification, validation, évaluation, mise en oeuvre, test, déploirement) liée au domaine des réseaux, fait l'objet tous les 18 mois d'une rencontre CFIP (Colloque francophone sur l'ingénierie des protocoles de communication) , qui offre à la communauté francophone des enseignants, des chercheurs et des industriels ayant un intérêt pour les domaines des réseaux informatiques, des réseaux de télécommunication, des applications et systèmes distribués, et plus particulièrement des protocoles de communication, de faire le point des recherches et des prototypes en cours de développement. Cet ouvrage contient les actes du colloque qui s'est tenu à Bordeaux du 29 mars au 1er avril 2005.

Optimisation combinatoire. Sous la direction de V.T. Paschos. Deux volumes, resp. 360 pages, 120 euros, et 300 pages, 120 euros. Hermès/Lavoisier;

Volume 1. Concepts fondamentaux. Cet ouvrage est divisé en trois parties : éléments de la théorie de la complexité, méthodes classiques de résolution exacte des problèmes, notions et méthodes de la programmation mathématique. La première partie présente les fondements de la théorie de la complexité déterministe et probabiliste. La deuxième partie présent les méthodes par séparation et évaluation et la programmation dynamique. La troisième partie est centrée sur la programmation mathématique, le coeur de l'optimisation combinatoire et de la recherche opérationnelle. Dans ce volet, un grand nombre de modèles linéaires pour un aussi grand nombre de problèmes d'optimisation combinatoire est exposé et commenté.

Volume 2. Concepts avancés. Ce volume est dédié à l'approximation polynomiale et la robustesse des solutions et des algorithmes. Ce sont des thématiques considérées aux frontières entre la recherche opérationnelle et l'optimisation combinatoire, l'informatique théorique et les mathématiques discrètes.

Des octets aux modèles. Vingt ans après : où en sont les objets ? Numéro spécial de la revue RSTI-L'objet. Sous la direction de J.P. Briot. 166 pages, 50 euros.

Les objets sont-ils victimes de leur succès ? Le principe des objets était très simple, et il l'est resté. Cette mécanique légère est aujourd'hui écrasée sous des applications aux proportions démesurées. En même temps, les conditions d'exercice ont changé : aujourd'hui, tout système informatique qui se respecte est réparti sur la planète, et de ce fait fonctionne en permanence. Tout ceci fait apparaître les limitations de la mécanique des objets, et l'émerveillement d'il y a vingt ans a fait place à la critique, puis au doute : les objets ont-ils échoué ? Cet ouvrage propose une gamme de réponses à cette interrogation, qui vont de l'analyse des usages (du tertiaire à l'industrie du divertissement) à la révolution des modèles, des composants et des aspects, en passant par la description des concepts (en mathématiques et en représentation des connaissances). On voit ainsi se dessiner des ouvertures, avec de nouveaux objets, installés dans un contexte économique et technique renouvelé, et peut-être aussi la programmation après les objets.

La fracture numérique. Numéro spécial de la revue Réseaux. Coordonné par A. Rallet. Hermès/Lavoisier, 368 pages, 65 euros.

Au sommaire : La fracture numérique, une faille sans fondement ? Comment pourrait-on mesurer la double fracture numérique ? L'évolution du rôle du capital scolaire dans le modèle sociétal français d'accès à l'informatique au travail. "Massification" ou "démocratisation" de l'accès ? Les dimensions spatiales de la fracture numérique en France. Des technologies inégalitaires ? L'intégration de l'internet dans l'univers domestique.


Détente

Toujours jeune grâce aux TIC

Ce film présente l'intérêt de l'usage des nouvelles technologies en environnement gériatrique. Il n'y a pas d'âge pour découvrir les possibilités d'usage d'Internet pour rompre les limites de communication dans une maison de retraite. A 90 ans, l'usage de la souris et d'une webcam associée à un environnement informatique adapté permet à Mamie de garder le contact ". Surtout si elle reçoit Stic-Hebdo. Cliquez.


L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.