Association francophone
pour la recherche et l'enseignement en
sciences et technologies de l'information


Stic-Hebdo

No 14. 12 avril 2004

Sommaire : Trois questions à Jacques Sakarovitch | Théories et concepts | Enseignement | Manifestations | Détente

Abonnement/Désabt.

Accueil Asti

Accueil Gerbert

Numéros précédents

Dictionnaire


"Un aspect fascinant de la théorie des automates, c'est que, si l'on part des automates finis et que l'on cherche à généraliser le modèle, on surfe tout de suite à la limite entre ce qui est décidable et ce qui ne l'est pas. "

Trois questions à Jacques Sakarovitch

Auteur de "Eléments de théorie des automates"

Stic-hebdo : Vous avez récemment publié, chez Vuibert, vos "Eléments de théorie des automates". Une construction impressionnante, mais pourquoi traiter les automates d'un point de vue aussi restrictif, les réduisant presque aux langages, très en deçà de l'intérêt que ces fascinants objets suscitent, au moins depuis Vaucanson ?

Jacques Sakarovitch : Je suis étonné par cette observation. Les mots sont riches, pleins de sens. Cela ne me dérange pas qu'on se laisse entraîner par des images, des analogies. Tout est bon, alors, dans un sens comme dans l'autre. Mais dans un domaine donné, les mots ont un sens précis. Et dans le domaine de l'informatique, pour moi en tous cas, un automate est un certain modèle de calcul, pas un joueur de flûte ou un canard. C'est vrai que les informaticiens ont été particulièrement enclins à choisir des mots à fort pouvoir évocateur, quand ce n'est pas trompeur.

Je ne crois pas réduire les automates aux langages, bien au contraire. Je mets en avant, au centre du dispositif, l'objet automate, qui est une représentation (parmi d'autres) de l'objet langage (c'est à dire l'ensemble des suites de symboles qui sont reconnus, acceptés). L'automate est une façon de décrire, en termes finis (finitaires, si vous préférez), le langage qui est, en général, infini. C'est le moyen de calculer de façon effective sur des objets infinis.

Le concept d'automate, tel que je l'entends, est né à la fin des années 1950 avec les articles fondateurs de Kleene et Moore en 1956 et celui de Rabin et Scott en 1959. S'ensuit un développement enthousiaste porté à la fois par les besoins de modélisation de la programmation naissante et les préoccupations formalisatrices des linguistes comme Chomsky. Dans le foisonnement des travaux d'alors se dégagent des correspondances entre des modalités de calcul dans une machine de Turing et des façons de générer des séquences par des grammaires formelles pour donner naissance à ce qu'on appelle classiquement la hiérarchie de Chomsky, puis à divers raffinements.

Je me suis limité, dans mon livre (NDLR : qui fait quand même 816 pages en petits caractères), au premier niveau de cette hiérarchie. Dans la première partie, je décline trois façons de voir les automates, de manière de plus en plus générale. Il resterait à y ajouter une quatrième manière, qui serait l'expression de la théorie dans les termes de la logique. Ce thème a fait l'objet de nombreux travaux, et est tout à fait d'actualité avec les applications comme la vérification. Dans la seconde partie, je présente la théorie des relations (entre mots) qu'on peut réaliser par des automates finis.

S.H. : Vous employez le terme poétique de "hauteur d'étoile". Vous dites que c'est une vraie mesure de complexité. Ne pourrait-on fonder toute la science informatique à partir de la complexité ainsi entendue, et mesurée ?

J.S. : Encore le piège des mots. Cette expression très poétique vous a attiré vers l'un des problèmes les plus complexes de la théorie des automates et, à mon sens, pas encore complètement élucidé. La hauteur d'étoile est une "vraie" mesure de complexité en ce sens que l'on peut trouver des langages de hauteur d'étoile arbitrairement grande (résultat dû à Marcel-Paul Schutzenberger). Ce n'est pas une mesure de complexité utilisable, en ce sens que, même s'il a été établi (par un collègue japonais, K. Hashigushi) que c'est une quantité "calculable", on n'a pas encore d'algorithme raisonnable qui réalise ce calcul. Ce sujet est d'ailleurs toujours l'objet de recherches et très récemment D. Kirsten, un jeune chercheur allemand visiteur au Liafa (à Paris 7, dernier avatar de l'ancien laboratoire de M.-P. Schutzenberger) a annoncé un très beau résultat qui va sans doute permettre d'améliorer considérablement le résultat d'Hashigushi.

Ce qu'on appelle en général "complexité" et qui est sans doute une façon d'organiser la science informatique est autre chose, c'est la complexité des algorithmes et ce n'est pas mon sujet d'étude. Au delà de la complexité, on a la frontière entre le décidable et l'indécidable (la notion de complexité est une façon de mettre de l'ordre dans le décidable) et un aspect fascinant de la théorie des automates c'est que si l'on part des automates finis et que l'on cherche à généraliser le modèle, on surfe tout de suite à la limite entre ce qui est décidable et ce qui ne l'est pas.

Une façon de le voir (mais il y en aurait d'autres) est de reprendre la démarche qu'ont eu Rabin et Scott dans un article fondateur de la théorie. Vous prenez une machine et Turing et vous la restreignez au maximum : une unité de commande finie, une bande, une tête de lecture qui se déplace dans un seul sens sur cette bande : voilà un automate fini. Une telle machine peut être équivalente à une machine du même type mais déterministe et, par là, on peut décider si deux automates finis sont équivalents (c'est-à-dire acceptent le même langage). Vous permettez à la tête de lecture de se balader dans les deux sens, vous obtenez une machine qui n'est pas plus puissante qu'un automate fini. Vous rajoutez une autre bande et une autre tête de lecture et les têtes se déplacent dans un seul sens ; ce sont ce que j'appelle des transducteurs qui acceptent non plus des mots mais des couples de mots. Il n'est plus vrai qu'un transducteur est équivalent à un transducteur déterministe et l'équivalence des transducteurs est un problème indécidable. Si on se restreint aux transducteurs déterministes, l'équivalence est décidable, c'est l'un des plus beaux résultats de la théorie (la question était restée ouverte pendant près de 15 ans, et pendant plus de 30 pour les machines à plus de deux bandes) et surtout la preuve s'appuie non pas sur une construction bricolesque dont la complexité expliquerait qu'on ait mis longtemps à la produire, mais se déduit assez simplement d'un résultat d'algèbre, disons non élémentaire. Ce résultat montre que la théorie des automates est enracinée dans les vraies mathématiques.

Pour revenir à la complexité, la complexité des algorithmes, j'utilise cette notion à un niveau très élémentaire. Mais, même à ce niveau, elle joue un rôle intéressant de guide. Dans le domaine de la théorie des automates (à de très rares exceptions près), les résultats sont effectifs, c'est à dire qu'un théorème ne va pas seulement assurer l'existence de quelque chose, mais sa démonstration va produire ce quelque chose : les preuves sont des algorithmes. On a ainsi un deuxième critère pour juger d'une preuve : à côté de son degré de, disons, complication, il y a la complexité de l'algorithme qu'elle décrit. Et, avec beaucoup de précautions, j'ai envie de dire que c'est la preuve qui correspond à l'algorithme de bonne complexité qui met en lumière la vraie nature du problème, plutôt que la plus élégante, et que celle-là aussi a droit de cité dans le "Livre" (pour reprendre l'idée du mathématicien Erdös qu'existe un Livre où tous les théorèmes sont démontrés avec leur preuve parfaite et que c'est le travail du mathématicien que de retrouver les preuves inscrites ans le Livre, mais je m'égare...).

Je peux vous donner un exemple. Un joli théorème dit "Si la "sortie" d'un transducteur a toujours la même longueur que "l'entrée", alors il est possible de réaliser la même relation entre les mots d'entrée et de sortie avec un transducteur qui sort une lettre chaque fois qu'il en lit une". Eilenberg et Schutzenberger en ont donné une preuve élégante, mais j'en préfère une autre (j'ai donné les deux dans mon livre) qui opère par transformation d'automates, s'approchant ainsi au plus près de la propriété réelle.

S.H. : Vous intéressez vous aux applications de vos théories, ne serait-ce qu'à l'intention de vos étudiants ?

J.S. Bien sûr que je m'intéresse aux applications et elles sont nombreuses, dans le domaine de la vérification de programmes ou de protocoles comme dans celui du traitement des langues, pour donner deux exemples. Des chercheurs y travaillent dans des laboratoires d'industriels comme AT&T ou Rank Xerox (NDLR : dans notre numéro 134, nous avons interviewé sur ce sujet Alain Girault, de l'Inria Rhone-Alpes, qui les applique à la décomposition de programmes). Mais ce n'est pas cela que j'ai cherché à mettre dans mon livre, et d'ailleurs je ne sais pas si j'ai les compétences nécessaires pour le faire. Je pense que la théorie des automates, en tous cas à ses débuts, forme un socle de connaissances pour tout informaticien, c'est "l'algèbre linéaire" de l'informatique.

A partir de là, j'ai voulu développer la théorie pour elle-même. Non pas que je dédaigne les applications, au contraire, mais parce que j'ai voulu montrer que cette théorie se tient, existe par elle-même, faire apparaître sa cohérence interne. Plus important encore, j'ai voulu montrer que la théorie des automates (comme d'autres théories mathématiques), est une construction. Les théorèmes dépendent les uns des autres. La théorie des automates n'est pas une collection de résultats qu'on pourrait établir séparément en partant de rien.

Chaque résultat ouvre des possibilités ; mais il n'est vraiment compris que quand on sait ce que l'on va en déduire. C'est alors qu'on dégage la "vraie" propriété, qu'on lui donne la forme adéquate qui va permettre de poursuivre et de construire d'autres choses, de servir de base pour la suite. Le résultat est décanté, comme digéré ; parfois il a presque disparu, il tient dans le choix de bonnes hypothèses. C'est ce processus, cette mise en forme qui m'intéresse. Est-ce que j'y suis arrivé, ou pas ... c'est une autre question !

Propos recueillis par Pierre Berger


Théories et concepts

Saturation des messageries : on manque de théories pour construire des services adaptés

En dehors de la bonne volonté, sinon du volontarisme, de l'autorité et de l'expérience des managers, des consultants et des prestataires de services... les professions de l'informatique n'ont guère de moyens pour lutter sérieusement contre les maux dont sont atteintes les messageries. Victimes de leur succès elles sont parasitées par d'efficaces spammeurs relayés par des robots, vers et autres virus.

Lors d'une table ronde organisée par le Club de la presse informatique et des télécommnications,et animée par Philippe Janiaux, quelques firmes ont présenté leurs prestations : BT Syntegra, Cap Gemini Ernst & Young, Exalead, Focal, Mi8. Outre les logiciels antivirus et anti-spam, une part des solutions viennent d'une meilleure organisation des archivages ou, mieux encore, d'une intégration des messageries aux applications opérationnelles (mais on n'en est encore qu'au début) et aux outils de travail coopératif.

Avec sa franchise coutumière, François Jeanne (rédacteur du monde informatique) a lancé : "Je suis déçu. Je ne vois pas l'émergence d'une offre de services ni d'une théorie managériale adaptée". Lui-même se voit confronté à ces problèmes pour l'organisation du courrier et pour réduire la charge de son équipe écrasée par la masse des courriels, notamment en retour de voyage.

Avis aux chercheurs : on manque de théorie. Et sans doute d'approches transversales. On ne parviendra pas à de bonne solutions tant qu'on en restera à l'enveloppe des messages sans entrer dans leur contenu, ni sans s'intéresser de plus près, à un niveau théorique suffisant, au droit des travailleurs comme des citoyens. P.B.

Clavier virtuel

Plutôt que de taper sur des touches, pourquoi ne pas se contenter de bouger les doigts devant une petite caméra ? cette solution a de multiples avantages, la première étant de supprimer cet encombrant périphérique et de permettre à tout PDA et plus généralement tout appareil électronique portatif de se commander avec un véritables clavier. Ce produit est disponible sur le marché comme l'indique PC Impact. On trouve une assez abondante littérature sur la Toile en demandant "clavier virtuel" à un moteur de recherche.

Et pourquoi n'irait-on pas plus loin ? A partir du moment où la machine sait interpréter les gestes des doigts sur un clavier virtuel, pourquoi ne pourrait-elle comprendre une gamme de gestes beaucoup plus étendue. Un petit signe d'amitié, ou d'agacement... Comptons sur les laboratoires japonais pour explorer cette voie dans un avenir pas trop lointain. P.B.

Notons que l'expression "clavier virtuel" peut se prendre aussi dans un autre sens : l'affectation des touches par logiciel, par exemple pour employer un clavier Azerty habituel pour écrire en thai.

Conception des processus

Dominique Vauquier, dans la lettre Adeli d'avril 2004, recense Les six impasses de la conception des processus. Voici son introduction :
" La notion de processus se trouve à la convergence de plusieurs tendances actuelles : BPR, certification ISO 9000, grands projets (CRM, SCM, e-business...), technologies (worlflow, EAI...), apports des sciences humaines (théorie de l'organisation, nouveaux modèles, "organisation horizontale", "entreprise étendue"...). De nombreuses entreprises s'engagent dans des chantiers pour représenter leurs processus et les réformer. Il y a, en effet, beaucoup à attendre de ces efforts en vue de rendre les organismes plus performants. Cependant, faute d'une réflexion fondamentale, une grande partie de ces efforts ne produit pas tous les effets escomptés. La montagne, souvent, accouche d'une souris et les améliorations restent à la marge. La première partie de cet article recense quelques limites observées dans l'approche des processus. La deuxième partie énonce les principes d'une nouvelle approche des processus, plus innovante. "

Sous le titre Management relationnel et BPM Arnaud Trouvéa et Andrée Hayek, interviewés par Pierre Fischof expliquent que "Au delà d'une prolifération de sigles, les technologies de l'information mettent à la disposition des entreprises un nouvel espace de communications et permettent une remise en cause des bases anciennes de l'organisation. L'exploitation intelligente de cette opportunité est un atout considérable pour certaines entreprises. Celles-ci n'hésitent pas à revoir leur processus de management en bousculant les usages traditionnels avant qu'ils ne se montrent manifestement trop obsolètes".

Au sommaire du même numéro :
- Processus et procédure (Alain Coulon),
- Comment aligner le SI sur les processus métiers (Léon Lévy),
- L'homme et les technologies de l'information (Pierre Fischof),
- Les arts managers : un besoin d'unité (Jean Joskowicz),
- Respecter les procédures de changements logiciels, (propos d'un anonyme, recueillis par Mireille Boris et Pierre Fischof)
- Avez-vous confiance dans l'économie numérique ? (Martine Otter et Noé Lavallée).

Modélisation

Une présentation du concept par Michel Volle.

Ubiquité

Dans le cadre des rencontres internationales de prospective du Sénat, "les transports au XXIème siècle", l'Inria a présenté le résultat de ses travaux sur l'ubiquité (ubiquitas, ambient computing) par l'équipe Aces via une application concrète pour les transports en commun, particulièrement adaptée aux personnes mal-voyantes ou à mobilité réduite. Le communiqué

Bien commun

Même un concept aussi philosophique que le "bien commun" peut faire son entrée au royaume des Stic, à l'initiative de la Fing.

"De nombreux efforts techniques et sociaux, publics et privés, ont convergé au cours des dernières années vers la construction collective de l'internet, dans un consensus implicite et très original au service de l'intérêt général. Avec la généralisation du réseau et des moyens numériques, les enjeux s'accroissent pour concerner l'ensemble des acteurs de notre société, et les divergences, voire les conflits d'intérêts, semblent se multiplier, sur fond de redistribution des rôles."

La 2ème université de printemps de la Fing (Fondation Internet nouvelle génération) aura lieu à Aix-en-Provence (La Baume), les 5 (le soir), 6 et 7 mai 2004. Pour sa deuxième édition, elle convie acteurs et chercheurs à réfléchir sur le thème Le Bien Commun à l'épreuve du développement numérique, et à mettre en commun les apports des technologies, des réflexions politiques, économiques, juridiques et philosophiques.
Programme et inscriptions

Parutions à l'Harmattan

(Présentations de l'éditeur)

La disparition du travail manuel. Vers une métamorphose de la société. Gilles Marie. 164 pages, 14,50 euros.

L'évolution observée dans les usines nous permet d'affirmer que le travail manuel cède le pas au machinisme. L'expression généralisée de ce constat pourrait être que le travail manuel est une forme d'occupation provisoire, inventée par l'homme. Nous devons nous attendre à ce que la nature façonnée par lui, le réalise à sa place. Partant de cet axiome, nous affirmons que ce travail est voué à disparaître. Le présent ouvrage fait découvrir le chemin intellectuel qui a développé cette idée.

Retour vers l'usine. métaphysique. Hervé Palissot. 96 pages, 11 euros.

Le sensorialité humaine ne peut se débarrasser des ses aguets primitifs, de sa respiration ventrale, de sa silhouette offerte. Nous sommes technophiles actifs, collectionneurs de temps oubliés et de temps neufs ; cependant la nudité sera toujours notre vieille liberté. Outre toute industrie, outre tout système, outre l'abîme de l'âge, la gestualité du corps et celle de l'esprit demeurent évidentes, manifestes.

Le constructivisme. Tome 3. Modéliser pour comprendre. Jean-Louis Le Moigne. 335 pages, 28,40 euros

"Modéliser pour comprendre", et ainsi s'attacher à comprendre nos expériences de nos relations au monde en les représentant par d'artificieux systèmes de symboles, des modèles que nous construisons, par lesquels nous nous exerçons à raisonner et à échanger, nous parvenons à nous rendre intelligible l'étrange aventure de la connaissance dans laquelle, depuis l'origine, l'humanité s'est engagée ? Ce tome III poursuit cette "quête inachevée" dont les deux premiers tomes décrivent les premières étapes. Exerçons notre ingenium, cette étrange faculté de l'esprit humain qui est de relier".

De l'art vidéo au net art. Art sociologique et esthétique de la communication. Fred Forest. 302 pages, 29 euros.

Fred Forest s'est imposé comme le tout premier artiste vidéo en France et comme le pionnier du Net art. Il s'est employé à mener des expérimentations continues, explorant les capacités expressives des nouveaux médias de communication : la vidéo, le téléphone, la télévision, le câble, le fax, le minitel, etc. Il était prévisible que cet artiste des réseaux et du numérique se retrouve impliqué sur ce nouveau support que l'on nomme le web ou encore le cyberespace.

Le placement sous surveillance électronique. Christophe Cardet. L'Harmattan. 92 pages, 11 euros.

Après avoir retracé l'histoire de son développement en droit comparé et décrit minutieusement le dispositif technique sur lequel repose la mesure, cet ouvrage propose une analyse des textes applicables ainsi que des pratiques professionnelles en matière de placement sous surveillance électronique. C'est un guide utile à tous les acteurs de la mesure : condamnés, avocats, magistrats, surveillants, conseillers d'insertion et de probation, chefs d'établissement pénitentiaire, et un outil de sensibilisation pour le citoyen.

La revue électronique en ligne "Vivant"

Rendre plus compréhensibles les recherches concernant le monde vivant, domaine à la croisée de multiples enjeux scientifiques, sociaux, économiques, politiques, juridiques, et philosophiques : tel est l'objectif du nouveau magazine en ligne Vivant qui vient de paraître sur la toile.

Les deux premiers numéros sont en accès libre. Certains articles continueront d'être accessibles librement par la suite. Mais, comme toute presse indépendante, Vivant ne pourra vivre et se développer que grâce à ses lecteurs.
Voir abonnement J.B


Enseignement

Formation et gestion de l'information

Le site Defidoc, riche et bien documenté, offre une série de rubriques d'information professionnelle sur divers aspects de gestion de l'information. Celles-ci s'enrichiront et se multiplieront au fil des mois (on peut s'abonner à la "Lettre d'information"). Ces rubriques proposent des réflexions de fond sur les bases mêmes des activités de gestion de l'information. Certaines sont des rubriques pratiques pour les professionnels du terrain. Ce travail résulte de la rencontre et du partenariat de deux compétences complémentaires : deux formateurs et consultants indépendants qui ont décidé d'unir leurs expériences professionnelles pour offrir une gamme de services - et sur ce site, une série de documents - encore plus professionnalisés (cf. Qui sommes-nous ?). Mais d'autres plumes pourront
également s'y trouver, précisent les auteurs. Voir la liste des rubriques en page d'accueil. J.B.

Une lettre de la Commission européenne

"Coup d'œil sur l'éducation et la culture" vient de sortir son numéro 17 (mars 2004). Cette lettre d'information de la direction générale de l'éducation et de la culture de la Commission européenne est publiée tous les deux mois par l'unité Communication de la direction générale de l'éducation et de la culture; elle ne reflète pas nécessairement l'avis officiel de la Commission européenne. Sa reproduction est autorisée, moyennant mention de la source.

Ce que disent les Français de leur École

Le "Miroir du débat" présente ce qui s'est dit lors du débat national sur l' École qui vient de se dérouler de septembre 2003 à mars 2004 à la demande du président de la République et du Gouvernement. Il n'est pas l'expression de la pensée de la Commission, mais a l'ambition de refléter les propos qui se sont tenus durant ces six mois. Le document est téléchargeable (depuis le 6 avril 2004) au format PDF, par chapitre, partie ou dans son intégralité. Un livre au format de poche sera très largement diffusé fin mai.

Nouveau lancement d'eSchoolnet

Le portail eSchoolnet pour les enseignants, créé par le réseau scolaire européenne (European Schoolnet), a été relancé par le nouveau président de l'EUN Lilla Voss, le 10 février. L'objectif du nouveau portail est de mieux servir les enseignants à travers toute l'Europe.

Le nouveau eSchoolnet est construit autour de trois thèmes principaux - trouver, rencontrer et partager - qui ont émergé de discussions avec des enseignants à qui l'on avait demandé de préciser ce qu'ils voulaient trouver sur un portail européen pour la coopération scolaire. Les informations concernant l'éducation nationale, les initiatives et les organisations clé sont toutes présentées dans la section Focus Pays. Les informations internationales provenant des organisations pour l'éducation sont disponibles dans de nombreuses langues, dont évidemment le français. On peut s'inscrire gratuitement à la "Lettre aux professeurs".

Education et marché, parutions à l'Harmattan

(Présentations de l'éditeur)

L'offensive des marchés sur l'université. Points de vue du Sud. L'Harmattan. 174 pages, 15 euros.

La marchandisation de l'enseignement supérieur est-elle inexorable ? Les réalités, tant du Nord que du Sud de la planète, tendent à le laisser croire. Retrait du soutien de l'Etat, pénétration d'entreprises transnationales dans le financement des universités, privatisation de la recherche... Le risque d'une altération généralisée des missions humanistes de l'enseignement supérieur est considérable. Aujourd'hui, les mouvements altermondialistes se mobilisent pour sortir l'éducation de la logique marchande et brancher la recherche sur les besoins prioritaire de l'enseignement.

Les relations entre économie et éducation : vers de nouvelles régulations. Pierre Doray et Christian Maroy. L'Harmattan. 310 pages, 26,30 euros.

Sommes-nous devant l'émergence d'une nouvelle régulation des pratiques de formation professionnelle et technique qui s'articule entre autres autour de relations renouvelées entre les acteurs économiques et les intervenants du champ de la formation, les premiers étant appelés à intervenir de manière plus continue et régulière ? Les contributions réunies dans cet ouvrage permettent de préciser cette question par l'analyse de différentes dimensions du développement de la formation professionnelle et technique, que ce soit sur le plan de la planification des pratiques et de leur mise en oeuvre.

Nouveautés sur le site de l'EPI

Sur le site de l'EPI :

- Les TIC, la formalisation et le partage des savoirs. Vers une économie de la connaissance ? Jean-Pierre Archambault
- Conception d'une simulation sur la propagation des ondes mécaniques - ENS de Fes (Maroc)
- Sites visités : portail de l'internet scientifique, Defidoc, l'encyclopédie sonore
- Lu sur le Web : vocabulaire du courrier électronique, Autrans 2004 : les enjeux de la société cognitive, des logiciels et des ressources libres, les dossiers de l'ingénierie éducative.


Manifestations

Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.

ICSSEA 2004. Appel aux communications

Les 17èmes journées internationales Génie logiciel & ingénierie de systèmes et leurs applications se tiendront au Cnam du 30 novembre au 2 décembre prochains sur le thème Adaptabilité et Recomposition des Systèmes. L'appel :

À l'instar des éditions antérieures des journées, tous les sujets de l'ingénierie de systèmes et du génie logiciel ainsi que tout domaine d'application (systèmes d'informations, gestion de processus d'entreprises, intégration d'applications d'entreprises, informatique transactionnelle, services électroniques, systèmes reposant sur la Toile, systèmes répartis, systèmes temps réel et embarqués, multimédia, …) sont éligibles. Toutefois, les thèmes suivants, sous l’angle du développement réparti et coopératif, seront plus particulièrement appréciés :

· Variabilité du logiciel : spécification, configuration et reconfiguration (automatique, en ligne, guidée par des caractéristiques souhaitées) mécanismes de création de variantes, gammes de produits, impact sur les processus de développement et de validation, …
· Composants & réutilisation : cadres, composants, composition, COTS, composants répartis, personnalisation, interopérabilités de cadres, métamodèles, développement génératif, programmation générique, orientation « aspects », archivage, recherche et diffusion, Internet et réutilisation, maintenance, test en présence de composants tiers, validation et certification, …
· Ingénierie de systèmes : cahiers des charges, analyse, spécification, test, validation, …
· Ingénierie des processus : évaluation, amélioration, démarches, modèles, processus souples, « extreme programming », co-conception, ingénierie simultanée, source ouverte, développement réparti, équipes virtuelles, workflow,…
· Conduite de projets : estimation des coûts et des délais, indicateurs et tableaux de bord, retour d’expérience, gestion des connaissances de projets, gestion des risques, analyse de la valeur, gestion de la relation maître d’œuvre-maître d’ouvrage, …
· Ingénierie des exigences : élaboration, validation & vérification, modélisation, animation, maquettage, simulation, analyse par scénarios, analyse par les buts, approches linguistiques, méthodes formelles utilisables, raisonnement sous des points de vue multiples,…
· Architecture des systèmes et des logiciels : interopérabilité, urbanisation, intégration de modèles d’entreprise, couplage et découplage d’applications, intégration d’applications d’entreprise, évolution, prise en compte de caractéristiques non-fonctionnelles et de contraintes de la répartition, agents, orientation objets, applications mobiles et adaptatives,…
· Logiciel d’infrastructure : serveurs d’applications, machines virtuelles, intergiciel, compilateurs et systèmes d’exploitation, …
· Réingénierie : architecture, code, documentation, mécanismes de reconfiguration,…
· Contrôle et assurance de la qualité : validation & vérification, test, mesures, fiabilité, évaluation de caractéristiques non-fonctionnelles (performances, sûreté de fonctionnement, facilité d’utilisation …), de la satisfaction des clients, …
· Internet & génie logiciel : Outils et méthodes d'ingénierie de systèmes et de génie logiciel reposant sur la Toile (multimédia, XML …) et, inversement, pour le développement des « e-applications » : architecture, conception, test, estimation et évaluation (complexité, fiabilité, intégrité, maintenabilité, performances, qualité, évolution d’échelle, …)

Les interventions pourront soit décrire des réalisations industrielles, des retours d’expérience d'utilisations opérationnelles, des résultats significatifs de travaux de recherche appliquée, soit traiter d'aspects technico-économiques de l'ingénierie de systèmes et du génie logiciel.

Propositions à soumettre avant le 25 mai à Jean-Claude Rault


Le livre de la semaine

Une brique pour les services web

Services web avec J2EE et .Net. Conception et implémentations. Libero Maesano, Christian Bernard, Xavier Le Galles. Eyrolles. 1055 pages, 55 euros.

Les services web vont-ils vraiment se développer, malgré une conjoncture qui pousse plutôt les entreprises à consolider des systèmes traditionnels qu'à se plonger dans les arcanes de XML ? En tous cas les technologies prennent de la consistance. En 2002 Eyrolles en avait déjà publié un panorama, sous la signature de Jean-Marie Chauvet (Services web avec Soap, WSDL, UDDI, ebXML...). Déjà très technique, ce panorama fait presque figure de parcours littéraire par comparaison avec la massive densité de l'ouvrage de référence que nous propose Libero Maesano et ses coauteurs. On pourrait presque dire que le premier livre s'adressait à des maîtres d'ouvrage, et que celui-ci est destiné à prendre place à côté du clavier et de la souris sur le bureau des développeurs. Au sommaire : architecture orientée services, technologie des services web, plates-formes opérationnelles, études de cas.

L'avant-propos donne deux objectifs à l'ouvrage : fournir une présentation approfondie des technologies de services web et de leurs implémentations, présenter concrètement ces technologies "comme le support d'élection du modèle émergent de l'architecture orientée services". L'ambition n'est pas mince : "Nous ne nous hasardons pas à traiter les conséquences socio-économiques de l'adoption de la technologie qui fait l'objet de cet ouvrage. En revanche, nous essayons de montrer, par la pratique, l'architecture orientée services comme un nouveau paradigme qui implique un changement d'approche de la part des informaticiens : changement dans la relation avec utilisateurs mais aussi changement dans la manière de penser, concevoir, développer et exploiter les logiciels et les systèmes répartis".

Une telle ambition pourrait bien être un frein plutôt qu'une facteur favorable aux développements de ces concepts. Coincés entre les "cost cutters" mis à leurs trousses par les directions générales et des utilisateurs jamais contents, les informaticiens d'entreprise sont-ils prêts aujourd'hui à remettre en cause leur manière même de penser ? En tous cas, ils disposent maintenant d'outils qui leur permette d'explorer "mains au clavier" ces nouveaux univers. P.B.


Détente

Tout est dans le signe !

Une fée dit à un couple marié : "Pour avoir été un couple si exemplaire depuis 25 ans, je vous accorde à chacun un voeu". La femme dit alors : "je voudrais faire le tour du monde avec mon mari adoré". La fée agite sa baguette magique, et, abracadabra, des billets d'avion apparaissent dans la main de la femme.

Maintenant c'est au tour du mari : "Euh... c'est un instant très romantique, mais une opportunité comme celle-ci n'arrive qu'une fois dans la vie. Alors je suis désolé ma chérie, mais j'aimerais avoir une femme 30 ans plus jeune que moi."

La femme est terriblement déçue mais un voeu est un voeu... La fée fait un cercle avec sa baguette magique... abracadabra! Soudain, le mari a 90 ans! Les hommes sont peut-être égoïstes, mais les fées sont des femmes!!


L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Jacques Baudé, Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.