Sommaire : Trois questions à Alain Girault (Inria Rhone-Alpes)| Courriels | L'actualité de la semaine | Théories et concepts | Enseignement | Entreprises | Manifestations | Bibliographie | Détente
|
|
|
|
Deux assemblées générales se tiennent
le 12 décembre prochain: - Le matin, de 10 à 12 heures, AG de l'Asti - L'après-midi, à 14 heures, Cour St Nicolas (Paris 12e), AG de l'Adeli, suivie d'une conférence-débat "Simulation de la sécurité des commandes du Falcon". |
Le 10 décembre, à 9h 30, avant son assemblée générale, l'Ahti organise au Musée des Arts et Métiers un colloque pour le 30e anniversaire du premier microordinateur. Le père du Micral N, François Gernelle, remettra son propre exemplaire au Musée. |
"Il s'agit de mettre le calcul à proximité des capteurs et des actionneurs, par une répartition adaptée à la réalité du processus physique, et qui garantisse un comportement identique au programme centralisé fourni au départ."
Asti-hebdo : Vous venez de recevoir le prix C-S pour vos travaux sur la répartition automatique de programmes synchrones. Pouvez-vous nous rappeler ce qu'est un langage synchrone ?
Alain Girault : La programmation synchrone est une discipline presque franco-française. Elle a vu le jour dans les années 1980. Trois langages sont apparus à cette époque, indépendamment les uns des autres : Esterel (Ecole des Mines de Paris et Inria), Lustre (CNRS Grenoble, le laboratoire est devenu aujourd'hui Verimag) et Signal/Polychrony (Inria/Irisa). Ces trois langages existent toujours, ainsi qu'un bon nombre de variantes. Dans la même famille on peut signaler aussi les Automates de Modes, Lucid Synchrone, le Grafcet (destiné aux automates programmables) ou encore Statechart (pour la spécification graphique). Ces langages se définissent comme des langages temporels de haut niveau munis d'une sémantique formelle.
Il s'agit de langages temporels de haut niveau en
ce sens qu'ils comportent des primitives temporelles de haut niveau. A
bas niveau, l'assembleur n'offre aucune possibilité de
manipulation du temps. En C, on trouve des bibliothèques de
manipulation de temps (gestion de timers, d'interruptions). Ada
propose certaines primitives de haut niveau pour la gestion du
parallélisme et plus généralement du temps, mais
elles ne sont pas parfaites : par exemple, wait 4
a
pour effet d'attendre 4 secondes, mais bizarrement, wait 4; wait
5
n'est pas équivalent à wait 9
! En effet,
le ";
" qui sépare les deux instructions mises
en séquence peut être interrompu par une autre tâche exécutée en
parallèle. Au contraire, les langages synchrones offrent des
primitives de manipulation du temps qui sont
idéales. Ils sont faits pour construire et composer
facilement des comportements temporels comme la préemption
(arrêter une tâche dès que tel
événement se produit), la suspension (l'arrêter
temporairement de manière à pouvoir en reprendre
l'exécution), diffuser des messages, gérer des boucles
temporelles, démarrer plusieurs comportements en
parallèle...
Pour les processus temporels, les langages synchrones (de la même manière qu'Ada, par exemple, pour les procédures) épargnent au concepteur les préoccupations de bas niveau, lui permettent de se concentrer sur les comportements de leur programme, le forcent à se poser les bonnes questions, à utiliser les bonnes primitives... Avec notamment l'avantage d'éliminer la plupart des bogues temporelles, qui sont particulièrement difficile à repérer. En effet, quand on débogue un programme ordinaire, on peut y placer des points d'arrêt, analyser un état cohérent de la mémoire. Dans un programme parallèle, même si l'on mettait un point d'arrêt sur chaque ligne d'exécution, ils n'interviendraient pas forcément au même moment, on ne pourrait être sûr d'avoir un état global du système où l'on puisse observer une situation cohérente en mémoire. Ces problèmes sont résolus par les langages synchrones, parce que le programmeur peut travailler avec des primitives temporelles idéales et que les compilateurs synchrones produisent du code objet déterministe.
Deux choses doivent être bien distinguées : le parallélisme d'expression et le parallélisme d'exécution. Le premier s'exprime au niveau langage et est utile au programmeur pour qu'il conçoive son programme en terme de plusieurs sous-programmes parallèles, parce que son application comporte plusieurs problèmes à résoudre en parallèle (par exemple le pilote automatique d'un avion doit commander en parallèle les moteurs et le gouvernail et les ailerons de profondeur). Le second concerne l'architecture physique sur laquelle sera déployée le programme. Ces deux parallélismes ne sont donc pas nécessairement reliés. Il se peut très bien qu'une application intrinsèquement parallèle soit en pratique traitée par un processeur unique. Ce n'est pas le problème du programmeur. La programmation synchrone lui permet justement de s'abstraire de cette préoccupation. Il n'a pas à se demander comment ses différentes lignes d'exécution seront sérialisées sur la ou les machines cibles. C'est au compilateur de s'en charger.
L'autre caractéristique des langages synchrones, c'est d'être
munis d'une sémantique formelle. Certains langages ont une
sémantique dénotationnelle, qui s'écrit sur
papier, et qui permet de dire "le programme fait exactement
cela". Par exemple en Pascal, si l'on écrit if (exp)
then inst1 else inst2
, la sémantique du langage dit que
l'on évalue d'abord l'expression booléenne exp
et
que sa valeur détermine si on exécute la première
ou la deuxième instruction. Par contre, en C, il n'y a pas de
sémantique dénotationnelle : sur des
procédures compliquées, avec des jeux de pointeurs un
peu subtils, par exemple, on ne peut pas savoir exactement à
l'avance ce que fera le programme. La seule manière de le
savoir est de compiler (la sémantique définie par le compilateur est
la sémantique opérationnelle). Et deux compilateurs
différents ne donneront pas le même résultat. La
sémantique dénotationnelle des langages synchrones est
formelle, écrite en termes de type mathématique. La
lecture du code source indique sans ambiguïté les
équations qui régissent le comportement du
programme. Ces langages peuvent donc servir de langage de
spécification (et d'ailleurs ils le sont en pratique dans
l'industrie).
A ceux de vos lecteurs qui voudraient approfondir le concept, je conseille la visite du site Synalp. Ils y trouveront un résumé, des articles de référence et d'utiles pointeurs vers des compilateurs, des outils, des laboratoires, des entreprises...
A.H. : Une fois les programmes écrits en langage synchrone, vous intervenez avec votre outil Ocrep pour les répartir. Pourquoi et comment ?
A.G. : L'objectif n'est pas une optimisation par
équilibrage de charge pour maximiser le
parallélisme. Dans le type d'applications qui me concerne (avec
beaucoup de contrôle et relativement peu de calculs sur des données),
les spécialistes de l'équilibrage de charge m'ont
confirmé que la parallélisation n'améliore pas le temps de
calcul global, parce que les communications coûtent cher (en
temps) : un accès en mémoire locale coûte dix
fois plus cher qu'un calcul, un accès en mémoire
partagée cent fois, et un accès distant mille fois. Cela n'est
intéressant que pour des algorithmes qui sont massivement
parallèles par nature. Et pas du tout pour les applications
dont je m'occupe principalement, qui sont des programme de conduite de
systèmes dont la structure de contrôle est a priori tout
à fait quelconque, "avec des goto
dans tous
les sens", si je puis dire.
Il s'agit surtout de mettre le calcul à proximité des capteurs et actionneurs, par une répartition fonctionnelle qui adapte l'architecture à la réalité du processus physique à piloter. Ce qui est essentiel, c'est de garantir que l'ensemble des programmes répartis a exactement le même comportement fonctionnel que le programme centralisé d'origine, en particulier grâce à une synchronisation appropriée et au respect de contraintes comme l'exécution en mémoire bornée.
L'industriel utilisateur du programme, par exemple un constructeur aéronautique pour une commande de vol, ou un opérateur de télécommunications pour un système enfoui, spécifie le nombre de sites sur lesquels il veut que le programme soit réparti, en tenant compte principalement de l'affectation à chaque site des capteurs et des actionneurs. Il peut donner un certain nombre de directives de répartition (telle fonction doit impérativement être effectuée sur tel site). Typiquement il y a entre deux et une dizaine de sites de calcul. Il ne s'agit donc pas de répartir du traitement massivement parallèle ou de piloter un grille de calcul avec des milliers ou des centaines de milliers de processeurs.
Ocrep accepte en entrée un programme intermédiaire résultat de la compilation de Lustre ou d'Esterel. Ce programme intermédiaire se présente sous la forme d'un automate d'états finis déterministe. Le concept d'automate d'états finis est simple dans son principe : a minima, un tel automate comporte trois ensembles de valeurs (entrées, sorties, états) et deux fonctions qui définissent la transition et le transfert (l'état suivant et la valeur de sortie sont déterminées par la valeur en entrée et l'état courant). On peut en donner de nombreuses définitions, généraliser à autant d'entrées et sorties que l'on veut ou, dans mon cas, considérer qu'il y a du code dans l'automate. Autrement dit, que les fonctions de transition et de transfert s'exécutent en employant du code défini pour chaque état. C'est une structure de contrôle des plus générales.
Une fois obtenu, cet automate, modèle formel fini, permet d'appliquer des outils d'exploration exhaustive, c'est à dire d'en parcourir tous les états (sous certaines conditions d'abstraction) et de vérifier la conformité avec les spécifications formelles.
C'est cet automate qui est ensuite automatiquement
découpé en un nombre d'automates correspondant
aux directives de l'utilisateur, chacun avec ses capteurs et
actionneurs, et communiquant entre eux
harmonieusement. Il ne reste plus qu'à
générer, une fois encore automatiquement, le code final
de chaque site à partir de chacun des automates. Les programmes
communiquent entre eux par des fonctions send
et
receive
(ces dernières sont bloquantes tant
qu'elles n'ont pas reçu la valeur attendue). Ocrep garantit que le comportement de cet ensemble
de programmes est fonctionnellement équivalent au comportement
du programme centralisé. Harmonieusement signifie d'ailleurs
qu'il n'y a pas d'inter-blocage que toute valeur envoyée au moyen
d'un send
est reçue de l'autre côté au moyen d'un
receive
et est affectée à la variable
correspondante.
Le principe de la méthode consiste, à partir des capteurs et actionneurs associés à un site déterminé, à déduire les parties de programme qui doivent être implantées sur chaque site. Par exemple, pour la conduite d'un moteur, le capteur de pression dans l'injecteur et l'actionneur de commande de la pompe doivent tous deux être gérés par le site d'injection.
De proche en proche, on s'élève dans la construction. Il faut résoudre les conflits de localisation, certains calculs dépendant d'entrées reliées à d'autres sites. Vient un moment où les fonctions restantes peuvent être indifféremment confiées à n'importe lequel des sites. C'est en ce point que l'on pourrait éventuellement faire appel aux algorithmes d'équilibrage de charge, ou à tout autre algorithme approprié.
Une fois le découpage effectué, il faut résoudre les dépendances de
données introduites justement par ce découpage. Cela se fait au moyen
des instructions send
et receive
, qui sont
insérées dans le code au moyen de deux analyses
flots-de-données : une première analyse "en remontant"
afin d'insérer les send
le plus tôt possible, suivie
d'une seconde analyse "en descendant" afin d'insérer les
receive
le plus tard possible. Ce fonctionnement permet
d'être le moins sensible possible à la latence du réseau de
communication. Après suivent diverses optimisations qui permettent de
supprimer les messages redondants, de réduire la structure de contrôle
locale des automates, et enfin de resynchroniser les automates
répartis afin de garantir une exécution en mémoire bornée, ce qui est
essentiel vu le domaine d'application des systèmes embarqués.
A.H. : Pourquoi un industriel comme C-S vous a-t-il décerné son prix ?
A.G. : Chaque année, après appel à candidature, l'entreprise C-S réunit un jury composé de membres de la société d'une part et de membres de l' Académie des Technologies d'autre part, qui compte par exemple parmi ses membres notre ministre de la recherche Claudie Haigneré et plusieurs prix Nobel et académiciens dont le directeur scientifique de l'Inria Gilles Kahn.
Les langages synchrones intéressent de nombreux industriels. Airbus, par exemple, a largement utilisé Lustre pour la spécification formelle des logiciels de commande de vol. Ils se servent aujourd'hui de Scade, version industrielle de Lustre, qui permet de générer automatiquement du code à partir des spécifications (Scade est commercialisé par Esterel Technologies). Le générateur de code Scade est certifié, conformément à la norme DO-178B de l'aviation civile. Esterel trouve plus sa place dans la conception et la validation formelle des circuits intégrés et des "System-on-Chip" (également commercialisé par Esterel Technologies). Enfin Sildex est la version industrielle de Signal, utilisé entre autres par Snecma pour la conception des moteurs (Sildex est commercialisé par TNI Valiosys).
Quant aux technologies que j'ai développé, France-Télécom en a été le premier acquéreur, en les intégrant dans son produit Saxo-RT, à base d'un compilateur Esterel. Vous trouverez sur ma page personnelle des précisions sur mes travaux actuels.
Propos recueillis par Pierre Berger
Deux parties nulles, une partie chacun. Match nul. Voir le site de la Fédération française d'échecs ou World chess rating. Les initiés demanderont pourquoi l'on ne fait pas une cinquième partie pour conclure. Réponse : ces tournois comportent toujours un nombre pair de parties, car les blancs sont avantagés !
Pour le dixième anniversaire du Sisqual, salon des solutions pour la qualité et le management, Adeli a animé une matinée de conférences-débats sur le thème difficile et stimulant : La maîtrise de la qualité des systèmes d'information dans un environnement technologique effervescent. Sont intervenus, Alain Coulon, secrétaire d'Adeli, Yves Constantinidis, consultant BSGL Conseil, Jacqueline Sidi, consultante Cap Gemini Ernst & Young, Martine Otter, présidente d'Adeli, Dominique Vauquier, responsable méthodes Unilog Management, Bastien Decoudu, Directeur général de Quotium Technologies, Pierre Wang, consultant Test à la Société Générale.
Dans le domaine de la qualité du logiciel, il y a actuellement confusion entre la fin et les moyens, a déclaré de manière un peu provocatrice Yves Constantinidis. Cette confusion entre but, moyen et preuve est exacerbée par la volonté de certification à tout prix…La certification du processus devient un but en soi. Or, les études montrent qu'entre la qualité du processus et la qualité du produit, la corrélation est faible. Il faut donc se recentrer sur l'objectif initial : un produit logiciel de qualité. Si on veut améliorer la qualité du produit, il faut se concentrer sur le produit et pas sur le processus. La norme ISO/CEI 9126 définit avec précision les caractéristiques de la qualité d'un produit logiciel. En normalisant le vocabulaire, elle permet au maître d'ouvrage et au maître d'œuvre de négocier la qualité.
Adoptant le mode du dialogue philosophique, Jacqueline Sidi et Martine Otter ont ensuite montré comment s'orienter dans le paysage des modèles de reconnaissance de la qualité (ISO 9001, EFQM, ISO 15504, ISO 12119, etc..). La commission "Efficience des Systèmes d'Information" de l'Association a en effet ressenti le besoin de clarifier ce paysage complexe. Elle a donc identifié les différents modèles de reconnaissance des hommes, des systèmes, des produits utilisés dans le contexte des SI et interrogé leurs utilisateurs sur l'usage qu'ils en faisaient. Elle a ainsi obtenu une cartographie qui permet de mettre en évidence les champs d'application de ces modèles. Sous le titre Odoscope, le rapport final sera présenté au 1er trimestre 2004. Les résultats de ces travaux fourniront aux managers un outil d'aide à la décision dans le choix du modèle le mieux adapté à leurs objectifs stratégiques. L'esprit critique des conférencières s'est en particulier exercé sur la certification de personnes, "tendance à subir"? Serait-ce le signe d'un retour en force de la taylorisation?
Faire place Net: entre l'internaute et l'architecte, comment construire la qualité des services Internet? a demandé Dominique Vauquier. Selon lui, dans la conception des services x-net, un premier principe d'hygiène consiste à distinguer la surface et la profondeur, c'est-à-dire l'interface homme-machine, d'un côté, et la substance du système de l'autre. La qualité du service rendu dépend en grande partie du comportement du système, donc de sa structuration.
Dans l'examen des attentes de l'internaute, une attention particulière est accordée à la fonction de recherche. L'expression des besoins peut s'appuyer sur l'approche par les cas d'utilisation, mise au point par Ivar Jacobson et dotée d'une notation dans UML. L'urbanisation est une discipline de conception qui a pour but de mettre le système d'information en adéquation avec les besoins et la stratégie de l'organisme. Des méthodes précises d'architecture logique et de conception des services sont en train d'émerger aujourd'hui : UML fournit un bon outil à l'appui de ces méthodes. La conception à base de "web services" s'inscrit tout à fait dans la tendance de l'urbanisation des SI. En conclusion, Dominique Vauquier a montré qu'il fallait s'organiser et mobiliser les compétences pour traiter à la fois la surface et la profondeur.
A la question comment valider la qualité des nouvelles applications informatiques stratégiques, Bastien Decoudu a répondu en montrant le rôle des tests dans le processus Qualité. Il a cité les tests, du concept, d'usabilité, de fonctionnalités, de compatibilité et s'est attaché à illustrer en particulier le test de charge. Un test de charge reproduit le nombre et le comportement d'utilisateurs réels et les simule dans un contexte identique à celui de la production. L'effet de la charge sur les temps de réponse et les ressources de l'application est alors mesuré et analysé, en terme de fiabilité, robustesse, optimisation, performance. Un logiciel de test pour simuler 1000 utilisateurs coûte entre 40000€ et 130000€. Pierre Wang est ensuite venu apporter son témoignage. Consultant test dans une équipe de 7 personnes, il valide entre 40 et 50 applications par an à la Société Générale.
Mireille Boris
Les Etats généraux de la CFAO, qui ont réuni le 20 novembre
près de 150 personnes, sont devenus les Etats généraux
de Micado, pour deux raisons :
- l'association ne s'enfermant pas dans une définition étroite
de la discipline élargit sa réflexion au travail collaboratif
et à l'entreprise étendue,
- lieu d'expertise, terrain neutre de réflexion et d'échange,
l'association s'affirme de plus en plus comme un pôle de recherche et
de créativité, ainsi que le confirme son président, directeur
de l'IFTS de Charleville, Yvon Gardan.
Les intervenants des ne parlent plus au nom de leur entreprise mais en tant que membres des commissions de travail de l'association dont ils rapportent les travaux. La réunion s'est déroulée dans le cadre du Midest, salon international de la sous-traitance industrielle, à Villepinte, pour mettre l'accent sur le contexte de l'entreprise étendue et du travail collaboratif entre donneurs d'ordre et sous-traitants. Chaque thème débattu était le résultat des travaux des commissions Simulation numérique, Travail collaboratif, CAO et fabrication rapide, Tolérancement, Usine numérique, Intégration et interopérabilité qui réunissent utilisateurs, offreurs, chercheurs.
Pour compléter ces travaux, Jean-Jacques Urban-Galindo, responsable du projet "ingénierie numérique" à PSA Peugeot Citroën a présenté sa vision de l'intégration numérique. Dans son intervention sur la "Co-conception à distance en Europe, une réalité" il a montré à quel point, après le plateau physique, le plateau virtuel était devenu une réalité de l'entreprise. Il réunit aujourd'hui les savoir-faire des gens de l'entreprise et des fournisseurs en faisant abstraction de la géographie : mise à disposition de bibliothèques, messagerie sécurisée, télé-co-conception, simulation d'atelier. 3000 utilisateurs bénéficient avec Enovia VPM de Dassault Systèmes de la maquette numérique dont est gérée la confidentialité des données. 121 sites de bureaux d'études fournisseurs sont opérationnels et reliés au constructeur via le réseau ENX de la communauté automobile. Ils seront 140 à la fin de l'année. Avec des données sur le modèle Step AP214, la co-conception avec les fournisseurs européens est opérationnelle. Les contacts humains n'ont pas disparu. Au contraire. Pour réussir l'expérience, ils doivent être extrêmement serrés.
Jean-Marc Crépel, de Renault, était le rapporteur de la Commission simulation numérique et calcul, la plus ancienne et une des plus actives. Dans un contexte d'intégration des spécialistes du calcul aux équipes de conception, la commission apporte son expérience et ses réflexions au travers de cinq grands thèmes, la complémentarité des essais physiques et de la simulation numérique, la fonction calcul et ses variantes de mise en œuvre, les formations et les compétences recherchées pour la fonction calcul, gestion et capitalisation des compétences dans les entreprises, la rentabilité de la fonction calcul au niveau d'un projet. Ces thèmes seront repris et développés le 3 juin 2004 pour une grande conférence Micado intitulée Organisation et rentabilité de la fonction calcul dans l'entreprise.
La commission Travail collaboratif, au delà de ses réflexions, a une initiative originale. Elle a développé un logiciel d'aide à la décision CAP_Collaboration qu'elle va proposer en libre accès via le portail de l'association, www.afmicado.com . Bernard Blancheteau (Thalès Research & Technology), Didier Large (DL Consulting), Olivier Rérole (Adepa), Christian Rouchon (Dassault Aviation), Thierry Schmitt (IBM PLM) étaient les rapporteurs. Le but de cet outil d'évaluation est de fournir une première estimation sur la mise en œuvre opérationnelle de moyens et de ressources pour faire de la collaboration. La construction de la base d'informations et des moyens d'évaluation repose sur une démarche structurée inspirée du modèle de capacités CMMI (Capability maturity model integration, du Software engineering institute de Pittsburg, Pennsylvanie).
Le développement du logiciel a été confié à l'IFTS, Institut de formation technique supérieure de Charleville-Mézières qui devrait le mettre à disposition de béta-testeurs en février 2004. L'outil finalisé doit être présenté lors du Micad 2004. La Commission a travaillé sur l'ensemble des problématiques qui pouvaient se poser à toute entreprise soumise à des exigences en matière de collaboration, la compréhension partagée sur la collaboration, l'allocation des responsabilités entre les acteurs, les processus de collaboration, l'allocation des tâches de conception, le suivi de ces tâches, les infrastructures techniques. L'outil d'évaluation doit permettre à l'entreprise de connaître les insuffisances de ses capacités au travail collaboratif et de disposer d'une comparaison avec l'ensemble des résultats issus des autres consultations. Cet outil va permettre entre autres à deux entreprises de comparer leur aptitude à faire du travail collaboratif.
Outre ses Etats généraux, le grand rendez-vous de l'association est le Micad. Les thèmes abordés lors de l'édition 2004 (30, 31 mars et 1er avril 2004) porteront aussi bien sur la technologie elle-même que sur ses applications, - intégration, gestion des connaissances. La plate-forme utilisateurs s'attachera à démontrer l'intégration numérique dans différents secteurs industriels : automobile, aéronautique, textile, associant grands groupes et PME/PMI.
Bien qu'il s'agisse d'un format "propriétaire" IBM, le format et les fonctions de présentation AFP (Advanced function presentation) pour résoudre un ensemble de problèmes posés par l'impression de documents en sortie d'ordinateurs sont toujours sur le marché. Cette architecture s'est considérablement enrichie au point d'accepter tous les autres formats comme l'EPS, le PDF, le Tiff, le GIF et le Jiff... C'est devenu un standard incontournable". (Revue Reproduire, numéro d'octobre 2003).
Ruoa.org, premier portail de l'enseignement supérieur fonctionnant en ré-utilisation de données, vient d'être mis en ligne, signale l'Amue. Mais nous n'avons pas trouvé sur le site d'explication de ce concept, sinon le fait qu'à partir d'un seul site web, les étudiants peuvent s'orienter parmi les 4 000 formations des neuf universités de l'Ouest Atlantique.
La Task force IP V6 France rend accessible sur le web son livre blanc. (format PDF). Signalé par la Diffusion Paris 7.
La revue Avantages signale dans son numéro de décembre les travaux de José Fernandez Rebollar. Il a réalisé des gants sensitifs assortis d'un logiciel qui permet de traduire, en principe dans n'importe quelle langue phonétique, les 200 mots de la langue des signes. Renseignements pris sur Altavista, le bulletin de la George Washington university (Washington DC) indique qu'il s'agit d'un étudiant de cette université, dont le site héberge sa page web personnelle.
Comme le montre la liste des chapitres (histoire, enjeux économiques, enjeux sociaux, enjeux politiques, enjeux culturels), on pourrait considérer le livre comme une utile liste de contrôle pour ceux qui ont à donner un enseignement sur ce thème. La bibliographie est un peu bizarre, donnant des références difficiles à trouver ou loin du thème, alors que l'on aurait plutôt attendu une sélection des classiques les plus utiles à l'enseignant.
Ilog rend disponible son logiciel Discovery de visualisation d'information. Ce code, gratuit pour l'instant, s'adresse à la fois aux chercheurs en interaction homme-machine (car il utilise des techniques d'interaction nouvelles), et aux personnes ayant des données a analyser, car permet l'analyse interactive de grands corpus de données au moyen de techniques purement visuelles (graphes et histogrammes, mais aussi "treemaps", histogrammes parallèles, coordonnées parallèles, grilles de graphes...).
"Le cercle des thésards disparus" propose en ligne un "regroupement d’informations utiles à destination des thésards." Un forum de discussion "leur permet de rompre leur isolement en posant des questions et en s'échangeant des informations." Il est également possible, depuis ces pages, de s'inscrire à une liste de diffusion, de consulter ou d’enrichir la "boîte à idées", de prendre connaissance de dates de conférences scientifiques ou encore, d’accéder à des ressources documentaires. Lire l’article sur le site Jeunes docteurs. Accéder au site
De son côté Bertrand Lemaire (Le monde informatique) conteste : "Présentée souvent comme exemplaire, la réussite de Google n'est pas sans taches. Malgré un chiffre d'affaire estimé à un milliard de dollars par an… Ainsi, le 13 octobre 2003, le tribunal de grande instance de Nanterre a condamné la société exploitant le célèbre moteur de recherche pour contrefaçon de marque à 70 000 euros de dommages et intérêts, tout en condamnant l'un des fondements de son modèle économique, à savoir la vente de liens sponsorisés basés sur les mots-clés d'une recherche.".
L'éthique d'entreprise à la croisée des chemins. Sous la direction de Jacques Lauriol et Hervé Masure (L'Harmattan). Cet ouvrage propose une présentation complète mais non exhaustive de l'état actuel de la recherche sur l'éthique d'entreprise en France. Ce thème apparaît selon deux axes principaux : l'éthique en tant que courant de recherche ; l'éthique comme outil ou méthode de gestion et de direction, qui traite de questions stratégiques, mais aussi de questions managériales au travers des dispositifs qui doivent être mobilisés pour définir et orienter des comportements éthiques. Cet ouvrage présente également un état des lieux des principes et pratiques rassemblés sous la notion d'éthique d'entreprise. Les problèmes liés aux TIC sont traités par Henri Isaac (Paris Dauphine). Il en dresse un inventaire : traçabilité des activités, modification de l'espace temps, virtualité, vie privée, droits de propriété, régulation-autorégulation des usages. Puis il fait des proposition pour un gestion éthique des technologies de l'information, dessine les contours d' "une direction de la vie privée" et met en tableau les mécanismes de la confiance. Bref, un texte dense (18 pages, en petits caractères) et des propositions, ainsi qu'une bibliographie spécifique et originale. .
Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Une projection de l'Electronic theater du Siggraph 2003, qui s'est tenu à
San Diego l'été dernier, aura lieu ce mardi 25 Novembre à
19h dans l'amphi A
du Groupe ESIEA au 9, rue Vésale à Paris.
Le monde informatique et CIO lancent un appel à candidature pour leurs trophées Entreprises et société de l'information qui "symbolisent l'alchimie gagnante entre la maîtrise des enjeux technologiques et stratégiques de l'entreprise". Pour concourir, il faut télécharger le dossier de candidature sur www.weblmi.com. et le renvoyer complété avant le 30 janvier.
Mélanie Roustan (doctorante en anthropologie) a regroupé une quinzaine de contributions sur ce sujet. La relative brièveté de l'ensemble en fait surtout un panorama des ouvrages, thèmes et concepts, qui permet d'en apprécier la variété : engagement du corps, dimensions sociales, aspects culturels. L'objectif est de "faire dialoguer dans la diversité (et une cohérence minimale) des chercheurs d'approche très différente mais partageant tous un certain goût pour l'empirie". Ceux qui aimeraient une théorie très construite, voire une définition un peu formelle de concepts comme le "gameplay" resteront sur leur faim. En revanche, ce type de travail collectif à l'avantage de relativiser les différents points de vue et donc d'échapper aux idées toutes faites que l'on entend trop souvent à ce sujet. P.B.
In order for Unix(tm) to survive into the nineties, it must get rid of its intimidating commands and outmoded jargon, and become compatible with the existing standards of our day. To this end, our technicians have come up with a new version of Unix, System VI, for use by the PC - that is, the "Politically Correct."
Utilities
"man" pages are now called "person" pages. Similarly, "hangman" is now the"person_executed_by_an_oppressive_regime."
To avoid casting aspersions on our feline friends, the "cat" command is now merely "domestic_quadruped."
To date, there has only been a Unix command for "yes" - reflecting the male belief that women always mean yes, even when they say no. To address this imbalance, System VI adds a "no" command, along with a "-f[orce]" option which will crash the entire system if the "no" is ignored.
The bias of the "mail" command is obvious, and it has been replaced by
the more neutral "gendre" command.
The "touch" command has been removed from the standard distribution due
to its inappropriate use by high-level managers
"compress" has been replaced by the lightweight "feather" command.
Thus, old information (such as that from Dead White European Males)
should be archived via "tar" and "feather".
The "more" command reflects the materialistic philosophy of the Reagan era. System VI uses the environmentally preferable "less" command.
The biodegradable "KleeNeX" displaces the environmentally unfriendly"LaTeX".
Shell commands
To avoid unpleasant, medieval connotations, the "kill" command has been renamed "euthanise."
The "nice" command was historically used by privileged users to give themselves priority over unprivileged ones, by telling them to be "nice". In System VI, the "sue" command is used by unprivileged user to get for themselves the rights enjoyed by privileged ones.
"history" has been completely rewritten, and is now called "herstory."
"quota" can now specify minimum as well as maximum usage, and will be strictly enforced.
The "abort()" function is now called "choice()."
Terminology
From now on, "rich text" will be more accurately referred to as "exploitive capitalist text".
The term "daemons" is a Judeo-Christian pejorative. Such processes will now be known as "spiritual guides."
There will no longer be a invidious distinction between "dumb" and "smart" terminals. All terminals are equally valuable.
Traditionally, "normal video" (as opposed to "reverse video") was white on black. This implicitly condoned European colonialism, particularly with respect to people of African descent. Unix System VI now use "regressive video" to refer to white on black, while "progressive video" can be any color at all over a white background.
For far too long, power has been concentrated in the hands of "root" and his "wheel" oligarchy. We have instituted a dictatorship of the users. All system administration functions will be handled by the People's Committee for Democratically Organizing the System (PC-DOS).
No longer will it be permissible for files and processes to be "owned" by users. All files and processes will own themselves, and decide how (or whether) to respond to requests from users.
The X Window System will henceforth be known as the NC-17 Window
System.
And finally, UNIX itself will be renamed "PC" - for Procreatively
Challenged.