Hebdo No 134. 24 novembre 2003

Sommaire : Trois questions à Alain Girault (Inria Rhone-Alpes)| Courriels | L'actualité de la semaine | Théories et concepts | Enseignement | Entreprises | Manifestations | Bibliographie | Détente


Deux assemblées générales se tiennent le 12 décembre prochain:
- Le matin, de 10 à 12 heures, AG de l'Asti
- L'après-midi, à 14 heures, Cour St Nicolas (Paris 12e), AG de l'Adeli, suivie d'une conférence-débat "Simulation de la sécurité des commandes du Falcon".

Le 10 décembre, à 9h 30, avant son assemblée générale, l'Ahti organise au Musée des Arts et Métiers un colloque pour le 30e anniversaire du premier microordinateur.
Le père du Micral N, François Gernelle, remettra son propre exemplaire au Musée.

"Il s'agit de mettre le calcul à proximité des capteurs et des actionneurs, par une répartition adaptée à la réalité du processus physique, et qui garantisse un comportement identique au programme centralisé fourni au départ."

Trois questions à Alain Girault

Chargé de recherche Inria, dans le projet Pop Art de l'Inria Rhône-Alpes

Asti-hebdo : Vous venez de recevoir le prix C-S pour vos travaux sur la répartition automatique de programmes synchrones. Pouvez-vous nous rappeler ce qu'est un langage synchrone ?

Alain Girault : La programmation synchrone est une discipline presque franco-française. Elle a vu le jour dans les années 1980. Trois langages sont apparus à cette époque, indépendamment les uns des autres : Esterel (Ecole des Mines de Paris et Inria), Lustre (CNRS Grenoble, le laboratoire est devenu aujourd'hui Verimag) et Signal/Polychrony (Inria/Irisa). Ces trois langages existent toujours, ainsi qu'un bon nombre de variantes. Dans la même famille on peut signaler aussi les Automates de Modes, Lucid Synchrone, le Grafcet (destiné aux automates programmables) ou encore Statechart (pour la spécification graphique). Ces langages se définissent comme des langages temporels de haut niveau munis d'une sémantique formelle.

Il s'agit de langages temporels de haut niveau en ce sens qu'ils comportent des primitives temporelles de haut niveau. A bas niveau, l'assembleur n'offre aucune possibilité de manipulation du temps. En C, on trouve des bibliothèques de manipulation de temps (gestion de timers, d'interruptions). Ada propose certaines primitives de haut niveau pour la gestion du parallélisme et plus généralement du temps, mais elles ne sont pas parfaites : par exemple, wait 4 a pour effet d'attendre 4 secondes, mais bizarrement, wait 4; wait 5 n'est pas équivalent à wait 9 ! En effet, le ";" qui sépare les deux instructions mises en séquence peut être interrompu par une autre tâche exécutée en parallèle. Au contraire, les langages synchrones offrent des primitives de manipulation du temps qui sont idéales. Ils sont faits pour construire et composer facilement des comportements temporels comme la préemption (arrêter une tâche dès que tel événement se produit), la suspension (l'arrêter temporairement de manière à pouvoir en reprendre l'exécution), diffuser des messages, gérer des boucles temporelles, démarrer plusieurs comportements en parallèle...

Pour les processus temporels, les langages synchrones (de la même manière qu'Ada, par exemple, pour les procédures) épargnent au concepteur les préoccupations de bas niveau, lui permettent de se concentrer sur les comportements de leur programme, le forcent à se poser les bonnes questions, à utiliser les bonnes primitives... Avec notamment l'avantage d'éliminer la plupart des bogues temporelles, qui sont particulièrement difficile à repérer. En effet, quand on débogue un programme ordinaire, on peut y placer des points d'arrêt, analyser un état cohérent de la mémoire. Dans un programme parallèle, même si l'on mettait un point d'arrêt sur chaque ligne d'exécution, ils n'interviendraient pas forcément au même moment, on ne pourrait être sûr d'avoir un état global du système où l'on puisse observer une situation cohérente en mémoire. Ces problèmes sont résolus par les langages synchrones, parce que le programmeur peut travailler avec des primitives temporelles idéales et que les compilateurs synchrones produisent du code objet déterministe.

Deux choses doivent être bien distinguées : le parallélisme d'expression et le parallélisme d'exécution. Le premier s'exprime au niveau langage et est utile au programmeur pour qu'il conçoive son programme en terme de plusieurs sous-programmes parallèles, parce que son application comporte plusieurs problèmes à résoudre en parallèle (par exemple le pilote automatique d'un avion doit commander en parallèle les moteurs et le gouvernail et les ailerons de profondeur). Le second concerne l'architecture physique sur laquelle sera déployée le programme. Ces deux parallélismes ne sont donc pas nécessairement reliés. Il se peut très bien qu'une application intrinsèquement parallèle soit en pratique traitée par un processeur unique. Ce n'est pas le problème du programmeur. La programmation synchrone lui permet justement de s'abstraire de cette préoccupation. Il n'a pas à se demander comment ses différentes lignes d'exécution seront sérialisées sur la ou les machines cibles. C'est au compilateur de s'en charger.

L'autre caractéristique des langages synchrones, c'est d'être munis d'une sémantique formelle. Certains langages ont une sémantique dénotationnelle, qui s'écrit sur papier, et qui permet de dire "le programme fait exactement cela". Par exemple en Pascal, si l'on écrit if (exp) then inst1 else inst2, la sémantique du langage dit que l'on évalue d'abord l'expression booléenne exp et que sa valeur détermine si on exécute la première ou la deuxième instruction. Par contre, en C, il n'y a pas de sémantique dénotationnelle : sur des procédures compliquées, avec des jeux de pointeurs un peu subtils, par exemple, on ne peut pas savoir exactement à l'avance ce que fera le programme. La seule manière de le savoir est de compiler (la sémantique définie par le compilateur est la sémantique opérationnelle). Et deux compilateurs différents ne donneront pas le même résultat. La sémantique dénotationnelle des langages synchrones est formelle, écrite en termes de type mathématique. La lecture du code source indique sans ambiguïté les équations qui régissent le comportement du programme. Ces langages peuvent donc servir de langage de spécification (et d'ailleurs ils le sont en pratique dans l'industrie).

A ceux de vos lecteurs qui voudraient approfondir le concept, je conseille la visite du site Synalp. Ils y trouveront un résumé, des articles de référence et d'utiles pointeurs vers des compilateurs, des outils, des laboratoires, des entreprises...

A.H. : Une fois les programmes écrits en langage synchrone, vous intervenez avec votre outil Ocrep pour les répartir. Pourquoi et comment ?

A.G. : L'objectif n'est pas une optimisation par équilibrage de charge pour maximiser le parallélisme. Dans le type d'applications qui me concerne (avec beaucoup de contrôle et relativement peu de calculs sur des données), les spécialistes de l'équilibrage de charge m'ont confirmé que la parallélisation n'améliore pas le temps de calcul global, parce que les communications coûtent cher (en temps) : un accès en mémoire locale coûte dix fois plus cher qu'un calcul, un accès en mémoire partagée cent fois, et un accès distant mille fois. Cela n'est intéressant que pour des algorithmes qui sont massivement parallèles par nature. Et pas du tout pour les applications dont je m'occupe principalement, qui sont des programme de conduite de systèmes dont la structure de contrôle est a priori tout à fait quelconque, "avec des goto dans tous les sens", si je puis dire.

Il s'agit surtout de mettre le calcul à proximité des capteurs et actionneurs, par une répartition fonctionnelle qui adapte l'architecture à la réalité du processus physique à piloter. Ce qui est essentiel, c'est de garantir que l'ensemble des programmes répartis a exactement le même comportement fonctionnel que le programme centralisé d'origine, en particulier grâce à une synchronisation appropriée et au respect de contraintes comme l'exécution en mémoire bornée.

L'industriel utilisateur du programme, par exemple un constructeur aéronautique pour une commande de vol, ou un opérateur de télécommunications pour un système enfoui, spécifie le nombre de sites sur lesquels il veut que le programme soit réparti, en tenant compte principalement de l'affectation à chaque site des capteurs et des actionneurs. Il peut donner un certain nombre de directives de répartition (telle fonction doit impérativement être effectuée sur tel site). Typiquement il y a entre deux et une dizaine de sites de calcul. Il ne s'agit donc pas de répartir du traitement massivement parallèle ou de piloter un grille de calcul avec des milliers ou des centaines de milliers de processeurs.

Ocrep accepte en entrée un programme intermédiaire résultat de la compilation de Lustre ou d'Esterel. Ce programme intermédiaire se présente sous la forme d'un automate d'états finis déterministe. Le concept d'automate d'états finis est simple dans son principe : a minima, un tel automate comporte trois ensembles de valeurs (entrées, sorties, états) et deux fonctions qui définissent la transition et le transfert (l'état suivant et la valeur de sortie sont déterminées par la valeur en entrée et l'état courant). On peut en donner de nombreuses définitions, généraliser à autant d'entrées et sorties que l'on veut ou, dans mon cas, considérer qu'il y a du code dans l'automate. Autrement dit, que les fonctions de transition et de transfert s'exécutent en employant du code défini pour chaque état. C'est une structure de contrôle des plus générales.

Une fois obtenu, cet automate, modèle formel fini, permet d'appliquer des outils d'exploration exhaustive, c'est à dire d'en parcourir tous les états (sous certaines conditions d'abstraction) et de vérifier la conformité avec les spécifications formelles.

C'est cet automate qui est ensuite automatiquement découpé en un nombre d'automates correspondant aux directives de l'utilisateur, chacun avec ses capteurs et actionneurs, et communiquant entre eux harmonieusement. Il ne reste plus qu'à générer, une fois encore automatiquement, le code final de chaque site à partir de chacun des automates. Les programmes communiquent entre eux par des fonctions send et receive (ces dernières sont bloquantes tant qu'elles n'ont pas reçu la valeur attendue). Ocrep garantit que le comportement de cet ensemble de programmes est fonctionnellement équivalent au comportement du programme centralisé. Harmonieusement signifie d'ailleurs qu'il n'y a pas d'inter-blocage que toute valeur envoyée au moyen d'un send est reçue de l'autre côté au moyen d'un receive et est affectée à la variable correspondante.

Le principe de la méthode consiste, à partir des capteurs et actionneurs associés à un site déterminé, à déduire les parties de programme qui doivent être implantées sur chaque site. Par exemple, pour la conduite d'un moteur, le capteur de pression dans l'injecteur et l'actionneur de commande de la pompe doivent tous deux être gérés par le site d'injection.

De proche en proche, on s'élève dans la construction. Il faut résoudre les conflits de localisation, certains calculs dépendant d'entrées reliées à d'autres sites. Vient un moment où les fonctions restantes peuvent être indifféremment confiées à n'importe lequel des sites. C'est en ce point que l'on pourrait éventuellement faire appel aux algorithmes d'équilibrage de charge, ou à tout autre algorithme approprié.

Une fois le découpage effectué, il faut résoudre les dépendances de données introduites justement par ce découpage. Cela se fait au moyen des instructions send et receive, qui sont insérées dans le code au moyen de deux analyses flots-de-données : une première analyse "en remontant" afin d'insérer les send le plus tôt possible, suivie d'une seconde analyse "en descendant" afin d'insérer les receive le plus tard possible. Ce fonctionnement permet d'être le moins sensible possible à la latence du réseau de communication. Après suivent diverses optimisations qui permettent de supprimer les messages redondants, de réduire la structure de contrôle locale des automates, et enfin de resynchroniser les automates répartis afin de garantir une exécution en mémoire bornée, ce qui est essentiel vu le domaine d'application des systèmes embarqués.

A.H. : Pourquoi un industriel comme C-S vous a-t-il décerné son prix ?

A.G. : Chaque année, après appel à candidature, l'entreprise C-S réunit un jury composé de membres de la société d'une part et de membres de l' Académie des Technologies d'autre part, qui compte par exemple parmi ses membres notre ministre de la recherche Claudie Haigneré et plusieurs prix Nobel et académiciens dont le directeur scientifique de l'Inria Gilles Kahn.

Les langages synchrones intéressent de nombreux industriels. Airbus, par exemple, a largement utilisé Lustre pour la spécification formelle des logiciels de commande de vol. Ils se servent aujourd'hui de Scade, version industrielle de Lustre, qui permet de générer automatiquement du code à partir des spécifications (Scade est commercialisé par Esterel Technologies). Le générateur de code Scade est certifié, conformément à la norme DO-178B de l'aviation civile. Esterel trouve plus sa place dans la conception et la validation formelle des circuits intégrés et des "System-on-Chip" (également commercialisé par Esterel Technologies). Enfin Sildex est la version industrielle de Signal, utilisé entre autres par Snecma pour la conception des moteurs (Sildex est commercialisé par TNI Valiosys).

Quant aux technologies que j'ai développé, France-Télécom en a été le premier acquéreur, en les intégrant dans son produit Saxo-RT, à base d'un compilateur Esterel. Vous trouverez sur ma page personnelle des précisions sur mes travaux actuels.

Propos recueillis par Pierre Berger


Courriels

Dans votre numéro 132, du 10 novembre dernier, vous avez repris une information parue dans le Monde informatique du 7 novembre sur UML 2 et nous nous permettons d'apporter quelques éléments complémentaires à propos de notre client Telelogic que l'article semble avoir totalement occulté et qui commercialise aujourd'hui un outil qui prend en compte UML2 et bénéficient d'ailleurs de clients tels que Texas, Cellon, Locheed Martin (Tau G2).

La firme propose des séminaires sur le développement d'applications temps réel ou embarquées, avec UML 2.0 dans un processus piloté par les exigences. Prochaines sessions : Bruxelles (8 décembre 2003), Toulouse (9 décembre ), Sophia Antipolis (10 décembre ) et Paris (11 décembre).

Actualité de la semaine

Kasparov contre X3D Fritz : match nul

Deux parties nulles, une partie chacun. Match nul. Voir le site de la Fédération française d'échecs ou World chess rating. Les initiés demanderont pourquoi l'on ne fait pas une cinquième partie pour conclure. Réponse : ces tournois comportent toujours un nombre pair de parties, car les blancs sont avantagés !

Adeli planche au Sisqual

Pour le dixième anniversaire du Sisqual, salon des solutions pour la qualité et le management, Adeli a animé une matinée de conférences-débats sur le thème difficile et stimulant : La maîtrise de la qualité des systèmes d'information dans un environnement technologique effervescent. Sont intervenus, Alain Coulon, secrétaire d'Adeli, Yves Constantinidis, consultant BSGL Conseil, Jacqueline Sidi, consultante Cap Gemini Ernst & Young, Martine Otter, présidente d'Adeli, Dominique Vauquier, responsable méthodes Unilog Management, Bastien Decoudu, Directeur général de Quotium Technologies, Pierre Wang, consultant Test à la Société Générale.

Dans le domaine de la qualité du logiciel, il y a actuellement confusion entre la fin et les moyens, a déclaré de manière un peu provocatrice Yves Constantinidis. Cette confusion entre but, moyen et preuve est exacerbée par la volonté de certification à tout prix…La certification du processus devient un but en soi. Or, les études montrent qu'entre la qualité du processus et la qualité du produit, la corrélation est faible. Il faut donc se recentrer sur l'objectif initial : un produit logiciel de qualité. Si on veut améliorer la qualité du produit, il faut se concentrer sur le produit et pas sur le processus. La norme ISO/CEI 9126 définit avec précision les caractéristiques de la qualité d'un produit logiciel. En normalisant le vocabulaire, elle permet au maître d'ouvrage et au maître d'œuvre de négocier la qualité.

Adoptant le mode du dialogue philosophique, Jacqueline Sidi et Martine Otter ont ensuite montré comment s'orienter dans le paysage des modèles de reconnaissance de la qualité (ISO 9001, EFQM, ISO 15504, ISO 12119, etc..). La commission "Efficience des Systèmes d'Information" de l'Association a en effet ressenti le besoin de clarifier ce paysage complexe. Elle a donc identifié les différents modèles de reconnaissance des hommes, des systèmes, des produits utilisés dans le contexte des SI et interrogé leurs utilisateurs sur l'usage qu'ils en faisaient. Elle a ainsi obtenu une cartographie qui permet de mettre en évidence les champs d'application de ces modèles. Sous le titre Odoscope, le rapport final sera présenté au 1er trimestre 2004. Les résultats de ces travaux fourniront aux managers un outil d'aide à la décision dans le choix du modèle le mieux adapté à leurs objectifs stratégiques. L'esprit critique des conférencières s'est en particulier exercé sur la certification de personnes, "tendance à subir"? Serait-ce le signe d'un retour en force de la taylorisation?

Faire place Net: entre l'internaute et l'architecte, comment construire la qualité des services Internet? a demandé Dominique Vauquier. Selon lui, dans la conception des services x-net, un premier principe d'hygiène consiste à distinguer la surface et la profondeur, c'est-à-dire l'interface homme-machine, d'un côté, et la substance du système de l'autre. La qualité du service rendu dépend en grande partie du comportement du système, donc de sa structuration.

Dans l'examen des attentes de l'internaute, une attention particulière est accordée à la fonction de recherche. L'expression des besoins peut s'appuyer sur l'approche par les cas d'utilisation, mise au point par Ivar Jacobson et dotée d'une notation dans UML. L'urbanisation est une discipline de conception qui a pour but de mettre le système d'information en adéquation avec les besoins et la stratégie de l'organisme. Des méthodes précises d'architecture logique et de conception des services sont en train d'émerger aujourd'hui : UML fournit un bon outil à l'appui de ces méthodes. La conception à base de "web services" s'inscrit tout à fait dans la tendance de l'urbanisation des SI. En conclusion, Dominique Vauquier a montré qu'il fallait s'organiser et mobiliser les compétences pour traiter à la fois la surface et la profondeur.

A la question comment valider la qualité des nouvelles applications informatiques stratégiques, Bastien Decoudu a répondu en montrant le rôle des tests dans le processus Qualité. Il a cité les tests, du concept, d'usabilité, de fonctionnalités, de compatibilité et s'est attaché à illustrer en particulier le test de charge. Un test de charge reproduit le nombre et le comportement d'utilisateurs réels et les simule dans un contexte identique à celui de la production. L'effet de la charge sur les temps de réponse et les ressources de l'application est alors mesuré et analysé, en terme de fiabilité, robustesse, optimisation, performance. Un logiciel de test pour simuler 1000 utilisateurs coûte entre 40000€ et 130000€. Pierre Wang est ensuite venu apporter son témoignage. Consultant test dans une équipe de 7 personnes, il valide entre 40 et 50 applications par an à la Société Générale.

Mireille Boris

Des Etats Généraux pour l'association Micado

Les Etats généraux de la CFAO, qui ont réuni le 20 novembre près de 150 personnes, sont devenus les Etats généraux de Micado, pour deux raisons :
- l'association ne s'enfermant pas dans une définition étroite de la discipline élargit sa réflexion au travail collaboratif et à l'entreprise étendue,
- lieu d'expertise, terrain neutre de réflexion et d'échange, l'association s'affirme de plus en plus comme un pôle de recherche et de créativité, ainsi que le confirme son président, directeur de l'IFTS de Charleville, Yvon Gardan.

Les intervenants des ne parlent plus au nom de leur entreprise mais en tant que membres des commissions de travail de l'association dont ils rapportent les travaux. La réunion s'est déroulée dans le cadre du Midest, salon international de la sous-traitance industrielle, à Villepinte, pour mettre l'accent sur le contexte de l'entreprise étendue et du travail collaboratif entre donneurs d'ordre et sous-traitants. Chaque thème débattu était le résultat des travaux des commissions Simulation numérique, Travail collaboratif, CAO et fabrication rapide, Tolérancement, Usine numérique, Intégration et interopérabilité qui réunissent utilisateurs, offreurs, chercheurs.

Pour compléter ces travaux, Jean-Jacques Urban-Galindo, responsable du projet "ingénierie numérique" à PSA Peugeot Citroën a présenté sa vision de l'intégration numérique. Dans son intervention sur la "Co-conception à distance en Europe, une réalité" il a montré à quel point, après le plateau physique, le plateau virtuel était devenu une réalité de l'entreprise. Il réunit aujourd'hui les savoir-faire des gens de l'entreprise et des fournisseurs en faisant abstraction de la géographie : mise à disposition de bibliothèques, messagerie sécurisée, télé-co-conception, simulation d'atelier. 3000 utilisateurs bénéficient avec Enovia VPM de Dassault Systèmes de la maquette numérique dont est gérée la confidentialité des données. 121 sites de bureaux d'études fournisseurs sont opérationnels et reliés au constructeur via le réseau ENX de la communauté automobile. Ils seront 140 à la fin de l'année. Avec des données sur le modèle Step AP214, la co-conception avec les fournisseurs européens est opérationnelle. Les contacts humains n'ont pas disparu. Au contraire. Pour réussir l'expérience, ils doivent être extrêmement serrés.

Jean-Marc Crépel, de Renault, était le rapporteur de la Commission simulation numérique et calcul, la plus ancienne et une des plus actives. Dans un contexte d'intégration des spécialistes du calcul aux équipes de conception, la commission apporte son expérience et ses réflexions au travers de cinq grands thèmes, la complémentarité des essais physiques et de la simulation numérique, la fonction calcul et ses variantes de mise en œuvre, les formations et les compétences recherchées pour la fonction calcul, gestion et capitalisation des compétences dans les entreprises, la rentabilité de la fonction calcul au niveau d'un projet. Ces thèmes seront repris et développés le 3 juin 2004 pour une grande conférence Micado intitulée Organisation et rentabilité de la fonction calcul dans l'entreprise.

La commission Travail collaboratif, au delà de ses réflexions, a une initiative originale. Elle a développé un logiciel d'aide à la décision CAP_Collaboration qu'elle va proposer en libre accès via le portail de l'association, www.afmicado.com . Bernard Blancheteau (Thalès Research & Technology), Didier Large (DL Consulting), Olivier Rérole (Adepa), Christian Rouchon (Dassault Aviation), Thierry Schmitt (IBM PLM) étaient les rapporteurs. Le but de cet outil d'évaluation est de fournir une première estimation sur la mise en œuvre opérationnelle de moyens et de ressources pour faire de la collaboration. La construction de la base d'informations et des moyens d'évaluation repose sur une démarche structurée inspirée du modèle de capacités CMMI (Capability maturity model integration, du Software engineering institute de Pittsburg, Pennsylvanie).

Le développement du logiciel a été confié à l'IFTS, Institut de formation technique supérieure de Charleville-Mézières qui devrait le mettre à disposition de béta-testeurs en février 2004. L'outil finalisé doit être présenté lors du Micad 2004. La Commission a travaillé sur l'ensemble des problématiques qui pouvaient se poser à toute entreprise soumise à des exigences en matière de collaboration, la compréhension partagée sur la collaboration, l'allocation des responsabilités entre les acteurs, les processus de collaboration, l'allocation des tâches de conception, le suivi de ces tâches, les infrastructures techniques. L'outil d'évaluation doit permettre à l'entreprise de connaître les insuffisances de ses capacités au travail collaboratif et de disposer d'une comparaison avec l'ensemble des résultats issus des autres consultations. Cet outil va permettre entre autres à deux entreprises de comparer leur aptitude à faire du travail collaboratif.

Outre ses Etats généraux, le grand rendez-vous de l'association est le Micad. Les thèmes abordés lors de l'édition 2004 (30, 31 mars et 1er avril 2004) porteront aussi bien sur la technologie elle-même que sur ses applications, - intégration, gestion des connaissances. La plate-forme utilisateurs s'attachera à démontrer l'intégration numérique dans différents secteurs industriels : automobile, aéronautique, textile, associant grands groupes et PME/PMI.

Mireille Boris


Théories et concepts

AFP, format d'impression

Bien qu'il s'agisse d'un format "propriétaire" IBM, le format et les fonctions de présentation AFP (Advanced function presentation) pour résoudre un ensemble de problèmes posés par l'impression de documents en sortie d'ordinateurs sont toujours sur le marché. Cette architecture s'est considérablement enrichie au point d'accepter tous les autres formats comme l'EPS, le PDF, le Tiff, le GIF et le Jiff... C'est devenu un standard incontournable". (Revue Reproduire, numéro d'octobre 2003).

Site à réutilisation de donnés

Ruoa.org, premier portail de l'enseignement supérieur fonctionnant en ré-utilisation de données, vient d'être mis en ligne, signale l'Amue. Mais nous n'avons pas trouvé sur le site d'explication de ce concept, sinon le fait qu'à partir d'un seul site web, les étudiants peuvent s'orienter parmi les 4 000 formations des neuf universités de l'Ouest Atlantique.

Livre blanc IP V6

La Task force IP V6 France rend accessible sur le web son livre blanc. (format PDF). Signalé par la Diffusion Paris 7.

Intelligent manufacturing systems

IMS Forum 2004 est une conférence organisée par IMS, organisme international. La Commission européenne en est le correspondant pour l'Europe. Elle est organisée par Marco Taisch et, pour la Commission, Paolo Garello.

Traduire le langage des signes

La revue Avantages signale dans son numéro de décembre les travaux de José Fernandez Rebollar. Il a réalisé des gants sensitifs assortis d'un logiciel qui permet de traduire, en principe dans n'importe quelle langue phonétique, les 200 mots de la langue des signes. Renseignements pris sur Altavista, le bulletin de la George Washington university (Washington DC) indique qu'il s'agit d'un étudiant de cette université, dont le site héberge sa page web personnelle.

Informatiser la société ?

C'est un panorama pédagogique (et typographiquement un peu trop tassé) que nous prose Félix Paoletti, avec la collaboration de Guy Chaty, avec L'homme et l'ordinateur. Les enjeux de l'informatisation de la société. (L'Harmattan). L'éditeur le présente ainsi "Les ordinateurs et l'informatique sont aujourd'hui omniprésents dans toutes les sphères de la société. Mais l'introduction de l'informatique dans le monde du travail rime-t-elle avec l'amélioration des conditions de travail ? Ou bien a-t-elle au contraire pour conséquence de rigidifier les procédures de travail et les rapports humains ? L'informatique est-elle un moyen de diffusion ou d'uniformisation de la culture ? Est-elle un instrument de gestion efficace ou un puissant instrument de contrôle et de surveillance des citoyens et travailleurs ? ".

Comme le montre la liste des chapitres (histoire, enjeux économiques, enjeux sociaux, enjeux politiques, enjeux culturels), on pourrait considérer le livre comme une utile liste de contrôle pour ceux qui ont à donner un enseignement sur ce thème. La bibliographie est un peu bizarre, donnant des références difficiles à trouver ou loin du thème, alors que l'on aurait plutôt attendu une sélection des classiques les plus utiles à l'enseignant.

Art global

Mario Costa est l'un des chantres les plus connus de l'esthétique de la communication et des arts électroniques en général. L'ouvrage Internet et la globalisation esthétique. L'avenir de l'art et de la philosophie à l'époque des réseaux qu'il vient de publier à L'Harmattan est une suite d'articles de réflexion souvent audacieux. Comme le dit l'éditeur : "L'auteur, théoricien de l'esthétique de la communication et du sublime technologique, essaie de démontrer qu'aujourd'hui l'eshétique et la philosophie tout entières doivent tenir compte et se confronter à certains états induits par les technologies ; l'existence d'une communication vide, le bouleversement radical de l'art et de l'esthétique, la présence dissimulée mais toujours prépondérante de la technologie dans la configuration de l'ontologie contemporaine. "


Enseignement

Accès des étudiants aux TIC

L'Amue organise un séminaire Stratégies et moyens mis en oeuvre pour démultiplier l'accès des étudiants et des personnels aux TIC. Il aura lieu le 16 décembre à la Maison des Universités. Des précisions

Projet I-Prof

Au JO du 4 novembre 2003 est paru un arrêté portant création d'un traitement d'informations dénommé I-Prof proposant à chaque enseignant un ensemble de services internet personnalisé relatif à sa carrière administrative.
Pour en savoir plus .

Vocal et pédagogie

Relation pédagogique et médiation de la voix, par Yvette Vavasseur. L'Harmattan 2003. La voix constitue un médiateur puissant de la communication humaine. La question abordée ici vise à se pencher sur la façon dont s'opèrent les médiations vocales. L'auteur en vient à forger une conception théorique dont le point central est le concept de "vocalité". A cette occasion son successivement abordés l'approche de la voix dans les modèles cybernétiques de la communication, les modalités de son "intervention" dans les échanges de savoir ainsi que les registres symboliques dans lesquels elle intervient. L'auteur montre comment la voix opère dans les processus de formation.

Les TIC pour communiquer les savoirs

Les nouveaux outils de communication des savoirs, par Serge Agostinelli. L'Harmattan 2003. Cet ouvrage s'intéresse à l'étude des phénomènes de médiation des savoirs au cours d'une activité individuelle ou collective instrumentée par les technologies de l'information et de la communication (TIC). Un ensemble de pistes de réflexion qui envisagent les TIC comme une pluralité de dispositifs produits de l'activité humaine, déclencheurs d'une activité intellectuelle mais aussi, comme des moyens d'établir des rapports humains dans une collection de situations contrastées.

La recherche en pratique

Logiciel gratuit pour l'analyse visuelle de données

Ilog rend disponible son logiciel Discovery de visualisation d'information. Ce code, gratuit pour l'instant, s'adresse à la fois aux chercheurs en interaction homme-machine (car il utilise des techniques d'interaction nouvelles), et aux personnes ayant des données a analyser, car permet l'analyse interactive de grands corpus de données au moyen de techniques purement visuelles (graphes et histogrammes, mais aussi "treemaps", histogrammes parallèles, coordonnées parallèles, grilles de graphes...).

Communiquez grâce aux "thésards disparus"

"Le cercle des thésards disparus" propose en ligne un "regroupement d’informations utiles à destination des thésards." Un forum de discussion "leur permet de rompre leur isolement en posant des questions et en s'échangeant des informations." Il est également possible, depuis ces pages, de s'inscrire à une liste de diffusion, de consulter ou d’enrichir la "boîte à idées", de prendre connaissance de dates de conférences scientifiques ou encore, d’accéder à des ressources documentaires. Lire l’article sur le site Jeunes docteurs. Accéder au site


Entreprises

Les PME et PMI n'utilisent pas assez le Web

Selon François Devé, président de l' ANDSI , "Les PME et PMI n'utilisent pas tout le panel des technologies web" (Le Monde informatique, spécial PME-PMI, 21 novembre 2003).

Services web : il est temps de s'y mettre

"Le manque de fonctionnnalités avancées ne doit pas masquer les avantages des services web : réduction des coûts d'intégration, réutilisabilité de l'existant, connectivité sur Internet... Tout plaide pour un redéploiement, certes progressif, mais dès aujourd'hui" écrit Olivier Rafal en introduction d'un dossier sur l'intégration (LMI du 21 novembre).

Google : une réussite (contestée) grâce aux chercheurs

"Le succès fulgurant de Google", titre Bertrand Le Gendre (Le Monde du 19 novembre), pour qui l'hégémonie de ce moteur de recherche tient "au génie de deux doctorants en sciences de l'informatique de l'université Stanford (Californie). Déçus par les moteurs de recherche alors sur le marché... Larry Page et Sergey Brin, mettent au point l'invention qui a fait leur fortune", en l'occurrence un classement des sites selon le nombre de liens pointés vers eux.

De son côté Bertrand Lemaire (Le monde informatique) conteste : "Présentée souvent comme exemplaire, la réussite de Google n'est pas sans taches. Malgré un chiffre d'affaire estimé à un milliard de dollars par an… Ainsi, le 13 octobre 2003, le tribunal de grande instance de Nanterre a condamné la société exploitant le célèbre moteur de recherche pour contrefaçon de marque à 70 000 euros de dommages et intérêts, tout en condamnant l'un des fondements de son modèle économique, à savoir la vente de liens sponsorisés basés sur les mots-clés d'une recherche.".

Les PME sont-elles branchées ?

TIC et PME : des usages aux stratégies. Sous la direction de Martine Boutry (L'Harmattan). L'insuffisante intégration des technologies de l'information et de la communication dans les PME et la faible appropriation de ces techniques par les acteurs de ces entreprises sont-elles inéluctables ? Six chercheurs ont croisé leurs regards pour identifier les variables stratégiques, organisationnelles ou environnementales. Il n'y a pas de modèle de "PME branchée". En revanche, les auteurs mettent en lumière des profils plus prometteurs que d'autres, et attirent l'attention sur le fait que le PME ne sont pas des acteurs économiques "désargentés" ni des opérateurs ayant toujours le nez sur le guidon.

Centres d'appel ... bien des questions

Les centres d'appel : un secteur clair-obscur, par Noël Lechat et Jean-Claude Delaunay (L'Harmattan). Les centres d'appels téléphoniques représentent, aujourd'hui en France, un phénomène en plein développement. L'objectif du présent ouvrage a été de rassembler des réflexions et des recherches sur les "aspects du travail" dans ces centres. La démarche, tout en cernant concrètement les conditions de travail des salariés des centres d'appels, a permis d'aller au-delà de ce constat sur le fondement de deux quesitons. Le travail déployé donne-t-il naissance à des métiers nouveaux ? Ou n'engendre-t-il, au contraire, que des façons nouvelles d'exercer des métiers anciens?

Ethique et entreprise

L'éthique d'entreprise à la croisée des chemins. Sous la direction de Jacques Lauriol et Hervé Masure (L'Harmattan). Cet ouvrage propose une présentation complète mais non exhaustive de l'état actuel de la recherche sur l'éthique d'entreprise en France. Ce thème apparaît selon deux axes principaux : l'éthique en tant que courant de recherche ; l'éthique comme outil ou méthode de gestion et de direction, qui traite de questions stratégiques, mais aussi de questions managériales au travers des dispositifs qui doivent être mobilisés pour définir et orienter des comportements éthiques. Cet ouvrage présente également un état des lieux des principes et pratiques rassemblés sous la notion d'éthique d'entreprise. Les problèmes liés aux TIC sont traités par Henri Isaac (Paris Dauphine). Il en dresse un inventaire : traçabilité des activités, modification de l'espace temps, virtualité, vie privée, droits de propriété, régulation-autorégulation des usages. Puis il fait des proposition pour un gestion éthique des technologies de l'information, dessine les contours d' "une direction de la vie privée" et met en tableau les mécanismes de la confiance. Bref, un texte dense (18 pages, en petits caractères) et des propositions, ainsi qu'une bibliographie spécifique et originale. .


Manifestations

Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.

Projection de l'Electronic theater du Siggraph

Une projection de l'Electronic theater du Siggraph 2003, qui s'est tenu à San Diego l'été dernier, aura lieu ce mardi 25 Novembre à 19h dans l'amphi A
du Groupe ESIEA au 9, rue Vésale à Paris.

Trophée LMI/CIO

Le monde informatique et CIO lancent un appel à candidature pour leurs trophées Entreprises et société de l'information qui "symbolisent l'alchimie gagnante entre la maîtrise des enjeux technologiques et stratégiques de l'entreprise". Pour concourir, il faut télécharger le dossier de candidature sur www.weblmi.com. et le renvoyer complété avant le 30 janvier.


Le livre de la semaine

Panorama de la littérature sur le jeu vidéo

Jeu, virtuel et réel

La pratique du jeu vidéo. Réalité ou virtualité ? sous la direction de Mélanie Roustan (L'Harmattan). Communiqué de l'éditeur : "Les jeux vidéo constituent aujourd'hui un phénomène social massif. En choisissant comme clef d'entrée le virtuel, cet ouvrage permet à différentes disciplines d'aborder le jeu vidéo en tenant compte de la diversité de ses contenus et de ses pratiques. Anthropologie, sociologie, psychanalyse, psychologie, ergonomie, histoire, esthétique ou sciences du sport, les points de vue et les échelles d'observation se croisent pour dresser le portrait composite d'un loisir ancré au coeur de notre société."

Mélanie Roustan (doctorante en anthropologie) a regroupé une quinzaine de contributions sur ce sujet. La relative brièveté de l'ensemble en fait surtout un panorama des ouvrages, thèmes et concepts, qui permet d'en apprécier la variété : engagement du corps, dimensions sociales, aspects culturels. L'objectif est de "faire dialoguer dans la diversité (et une cohérence minimale) des chercheurs d'approche très différente mais partageant tous un certain goût pour l'empirie". Ceux qui aimeraient une théorie très construite, voire une définition un peu formelle de concepts comme le "gameplay" resteront sur leur faim. En revanche, ce type de travail collectif à l'avantage de relativiser les différents points de vue et donc d'échapper aux idées toutes faites que l'on entend trop souvent à ce sujet. P.B.


Détente

Rétro-gaming

"Il y a vingt ans, le logo d'Atari était partout synonyme d'innovation dans le domaine du jeu vidéo. Aujourd'hui, la mode du jeu vintage est telle que les T-shirts arborant le fameux logo refleurissent, tout comme les petits space-invaders sur les murs de nos villes. Le minimalisme chic du pixel fait fureur." in I-mode mag, décembre 2003.

Supermamie veut monter l'escalier

Aidez-la !

Politically correct Unix. System VI release notes

Un substantiel "jeu de mots intraduisible en français". Avec nos excuses à la francophonie.

In order for Unix(tm) to survive into the nineties, it must get rid of its intimidating commands and outmoded jargon, and become compatible with the existing standards of our day.  To this end, our technicians have come up with a new version of Unix, System VI, for use by the PC - that is, the "Politically Correct."

Utilities

"man" pages are now called "person" pages. Similarly, "hangman" is now the"person_executed_by_an_oppressive_regime."

To avoid casting aspersions on our feline friends, the "cat" command is now merely "domestic_quadruped."

To date, there has only been a Unix command for "yes" - reflecting the male belief that women always mean yes, even when they say no.  To address this imbalance, System VI adds a "no" command, along with a "-f[orce]" option which will crash the entire system if the "no" is ignored.

The bias of the "mail" command is obvious, and it has been replaced by the more neutral "gendre" command.

The "touch" command has been removed from the standard distribution due to its inappropriate use by high-level managers

"compress" has been replaced by the lightweight "feather" command. Thus, old information (such as that from Dead White European Males)
should be archived via "tar" and "feather".

The "more" command reflects the materialistic philosophy of the Reagan era.  System VI uses the environmentally preferable "less" command.

The biodegradable "KleeNeX" displaces the environmentally unfriendly"LaTeX".

Shell commands

To avoid unpleasant, medieval connotations, the "kill" command has been renamed "euthanise."

The "nice" command was historically used by privileged users to give themselves priority over unprivileged ones, by telling them to be "nice". In System VI, the "sue" command is used by unprivileged user to get for themselves the rights enjoyed by privileged ones.

"history" has been completely rewritten, and is now called "herstory."

"quota" can now specify minimum as well as maximum usage, and will be strictly enforced.

The "abort()" function is now called "choice()."

Terminology

From now on, "rich text" will be more accurately referred to as "exploitive capitalist text".

The term "daemons" is a Judeo-Christian pejorative.  Such processes will now be known as "spiritual guides."

There will no longer be a invidious distinction between "dumb" and "smart" terminals.  All terminals are equally valuable.

Traditionally, "normal video" (as opposed to "reverse video") was white on black.  This implicitly condoned European colonialism, particularly with respect to  people of African descent.  Unix System VI now use "regressive video" to refer to white on black, while "progressive video" can be any color at all over a white background.

For far too long, power has been concentrated in the hands of "root" and his "wheel" oligarchy.  We have instituted a dictatorship of the users.  All system administration functions will be handled by the People's Committee for Democratically Organizing the System (PC-DOS).

No longer will it be permissible for files and processes to be "owned" by users.  All files and processes will own themselves, and decide how (or whether) to respond to requests from users.

The X Window System will henceforth be known as the NC-17 Window System.

And finally, UNIX itself will be renamed "PC" - for Procreatively Challenged.


L'équipe ASTI-HEBDO : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris, Claire Rémy et Armand Berger. Asti-Hebdo est diffusé par l'Inist.