Association francophone
pour la recherche et l'enseignement en
sciences et technologies de l'information


  Abonnement/Désabt. 

  Accueil Asti 

  Accueil Gerbert 

  Numéros précédents 

 Dictionnaire 

Stic-Hebdo

No 48. 28 mars 2005

PRIX DE THESE DE L'ASTI

Tous les détails et le dossier de candidature

 

Sommaire : Trois questions à Jacques André| Théories et concepts | Enseignement | La recherche en pratique | Manifestations | Détente


"Le vrai problème, aujourd'hui, c'est qu'on veut pouvoir présenter la même information aussi bien sur un téléphone portable que sur un poste de travail ou un grand téléviseur."

Trois questions à Jacques André

Rédacteur en chef de la revue Document numérique

Stic Hebdo : Vous vous passionnez depuis des décennies pour l'application de l'informatique à la typographie. Où en est-on aujourd'hui ?

Jacques André. En un mot, la technique est arrivée à ses fins. Nous savons aujourd’hui générer des caractères aussi bien pour le papier pour l’écran. Et des progrès importants ont été accomplis dans les cinq dernières années pour améliorer leur lisibilité. Les caractères semblent toujours affichés en noir et blanc mais, en fait, ils sont affichés en différents niveaux de gris, pour résoudre le problème de l’aliasing (crénelage, effet d’escalier). C’est l’œil qui recrée l’impression de noir sur blanc. Ces travaux ont été engagés en particulier pour le lancement du livre électronique (qui a échoué), mais nos écrans sont plus lisibles que jamais.

Ce monde des caractères a une certaine ambiguïté, avec ses tendances contradictoires. D'un côté l'on a besoin de formaliser et de préciser des règles. De l'autre, l'on cherche une esthétique graphique qui se sent toujours entravée par les règles...

La réflexion n'est pas arrêtée ! Le lancement d'Unicode (un consortium privé) a poussé à une réflexion de fond sur le concept de caractère. Même avec un codage sur deux octets qui permet de représenter tous les caractères de toutes les langues, il a fallu donner des règles pour ne pas se laisser envahir par de multiples combinaisons de caractère (ligatures) ou variantes locales. De temps en temps, on voit apparaître de nouveaux caractères, que nous appelons d'ailleurs de leur nom américain (slash) voire espagnol (arrobas) car on n'a pas l'habitude en France de les nommer.

Mais on peut progresser encore. Par exemple pour l'espacement entre caractères. Vous vous rappelez des premières polices utilisées en informatique comme sur les machines à écrire, avec leur espacement fixe, qui donnait la même largeur à un i ou à un m, ce qui est évidemment beaucoup plus facile à composer. On a ensuite disposé de polices à espacement variable. Jusqu'au milieu des années 1990, ces polices se géraient avec des "tables de chasse" (affectant à chaque caractère un nombre donné de pixels en largeur). Cela suffit quand on ne mélange pas les fontes (variantes d'une même police). Aujourd'hui, on peut faire beaucoup mieux, et optimiser aussi bien le rendu des contours que les espaces entre caractères, directement au moment de leur génération. Pour cela, on dispose pour chaque caractère de tout un ensemble de propriétés géométriques (C'est le format OpenType).

S.H. : Est-ce encore un domaine de recherche à proprement parler?

J.A. En tous cas, ce n'est plus un domaine concerne vraiment les laboratoires universitaires d'informatique pure. Il appartient aux grands "fondeurs" de caractère, c'est à dire en pratique, non plus des fondeurs de plomb comme autrefois, mais les éditeurs de logiciels spécialisés (Adobe, Apple, Microsoft...).

Historiquement, Xerox a joué là un rôle important, comme dans un grand nombre d'aspects de la bureautique. Ce qu'on ignore souvent, en revanche, c'est que plusieurs chercheurs français ont apporté des contributions significatives, par exemple Patrick Baudelaire, qui a introduit les codes de Bézier dans le dessin des caractères.

On voit tout de même de temps en temps des innovations, comme Le Monde ou la RATP qui se sont fait réaliser des polices de caractères spécifiques. Il y a aussi des évolutions vers OpenType intéressantes pour les dessinateurs et maquettistes. Mais peu de systèmes l'utilisent à fond aujourd'hui. Ce standard permet par exemple de créer automatiquement des ligatures entre caractères, de tenir compte du contexte... on peut aller très loin.

Mais, de toutes façons, c'est un domaine où il est difficile de se faire une place, car le dessinateur de caractères se fait piller par les pirates exactement comme le musicien.

S.H. : Quels seraient les enjeux aujourd'hui ?

J.A. : Si tout est résolu à bas niveau, c'est à dire au niveau du caractère, il resterait beaucoup à faire au niveau le plus élevé, celui de la mise en pages. Pour les publications sur papier mais plus encore pour les pages web, qui ne sont pas satisfaisantes pour un oeil exigeant du point de vue graphique. L'impression sur papier a au moins l'avantage de pouvoir s'appuyer sur de longues traditions. Le vrai problème de l'affichage sur écran, maintenant, c'est que l'on veut pouvoir présenter la même information aussi bien sur un téléphone portable que sur un poste de travail ou un grand téléviseur.

Sous ces contraintes, bien peu de pages web sont "lisables" comme disait François Richaudeau (un des grands noms de la communication en France, et qui transposait le mot à partir de "mangeable"). Pour progresser, la recherche universitaire commence à faire intervenir des disciplines comme la psychologie et la physiologie de la lecture, l'ergonomie cognitive...

Propos recueillis par Pierre Berger


Théories et concepts

PLM, le concept prend forme

La gestion du cycle de vie du produit, ou PLM, est un concept tellement englobant qu'il est longtemps resté insaisissable. D'autant que chaque éditeur touchant de près ou de loin au domaine faisait valoir sa propre définition. Finalement, les usages commencent à en préciser les contours, autour de deux notions clés : l'intégration de bout en bout et le travail collaboratif. Un dossier de huit pages dans Le monde informatique du 25 mars, signé par Patrice Desmedt, Xavier Bouchet, Anne-Marie Rouzeré et Maryse Gros.

Un algorithme de simulation du cerveau

Des chercheurs d'IBM ont présenté à l'International conference on adaptive and natural computing algorithms un modèle informatique simulant le fonctionnement du cortex cérébral humain.
Charles Peck et James Kozloski ont crée un modèle mathématique reproduisant l'activité de 500 000 minicolonnes reliées par 400 millions de connexions. Le terme de minicolonne désigne un module d'organisation corticale fonctionnelle et anatomique regroupant 80 à 100 neurones ; ces modules ont pour rôle de pré-traiter les informations issues de la perception pour leur traitement ultérieur par les parties supérieures du cerveau. Les chercheurs ont testé leur système et montré sa capacité à s'auto-organiser pour accomplir une tâche spécifique (en l'occurrence des opérations de reconnaissance visuelle) avec un fonctionnement proche de la réalité, alors que les dispositifs actuels entraînent des erreurs. L'objectif final reste bien entendu de maîtriser l'ensemble des processus neuronaux intervenant dans la vision - la difficulté étant d'arriver à comprendre et à reproduire la façon dont le cerveau peut, à partir d'informations parcellaires (couleur, texture, forme, etc.), traiter les données et, en les recoupant, fournir une image cohérente globale. Il faut pour cela simuler les activités neuronales à plusieurs niveaux (neurone, minicolonne, groupe de minicolonnes) en reproduisant la capacité à passer d'une échelle à l'autre.

Selon le New York Times et un document IBM (PDF). Signalé par l'Ambassade de France

Documents, sémantique, traitements automatiques..

Plusieurs nouveautés sur ce thème au catalogue d'Hermès/Lavoisier. Voici les présentations qu'en fait l'éditeur.

Fouille de textes et organisation de documents. Numéro spécial de la revue Document numérique. sous la direction de B. Rumpler et J.M. Pinon. Hemès/Lavoisier 2004. 180 pages, 55 euros.

Les articles présentés dans cet ouvrage abordent la fouille de texte selon des approches très diverses comme la classification ou la catégorisation de textes, le traitement linguistique et la psycholinguistique, l'extraction d'information à partir de la structure et de l'organisation des documents, ou encore la mise en oeuvre de techniques d'apprentissage dans des systèmes spécifiques  capables d'extraire de l'information au sein de grands corpus. Grâce à la pertinence des méthodes proposées et aux validations expérimentales effectuées, chacun de ces articles représente une avancée notable dans le vaste domaine de la recherche d'information. Les domaines d'application sont immenses et prometteurs.

Les bibliothèques numériques. Traité IC2. Sous la direction de F. Papy. Hermès/Lavoisier 2005. 224 pages, 75 euros.

Les technologies du numérique ont investi l'espace séculaire de la bibliothèque en y introduisant d'une part de nouvelles ressources (numériques et numérisées) et en proposant, d'autre part, des modalités de recherche et de consultation faisant une large part aux technologies de l'information  et de la communication. Cette évolution technologique, en modifiant l'environnement documentaire, provoque une transformation des usages et des pratiques, et entraîne une modification du rôle des bibliothécaires et documentalistes. Cet ouvrage collectif, grâce aux contributions de chercheurs et de professionnels de l'information et des bibliothèques, apporte des éléments de réponse pour mieux appréhender les mutations amorcées et celles qui se dessinent à court terme.

Le traitement automatique des corpus oraux. Numéro spécial de la revue Traitement automatique des langues. sous la direction de J. Veronis. Hermès/Lavoisier 2005. 208 pages, 65 euros.

Ce numéro spécial illustre la grande diversité des thèmes de recherche dans le domaine du traitement informatique des corpus oraux. Il témoigne d'intéressantes évolutions : les outils développés initialement pour la phonétique "de laboratoire" s'ouvrent vers une utilisation sur de grands corpus et sur la parole spontanée, tandis que les outils développés dans le cadre de la reconnaissance de la parole ou du dialogue homme-machine commencent à pouvoir être utilisés pour la construction de corpus hors de cette finalité technologique stricte.

Extraction de motifs dans les bases de données. Numéro spécial de la revue Ingénierie des systèmes d'information. Sous la direction de J.F. Boulicaut et B. Crémilleux. Hermès/Lavoisiser 2004. 244 pages, 100 euros.

Cet ouvrage présente les principaux types étudiés intensivement ces dernières années. Le lecteur trouvera ici un état de l'art sur la découverte de dépendances dans des bases de données relationnelles, la découverte de motifs séquentiels dans des bases de séquences ainsi que des travaux récents sur l'extraction de motifs et de règles d'association fréquentes dans des données transactionnelles.

Interpréter en contexte. Traité IC2. Série Cognition et traitement de l'information. Sous la direction de F. Corblin et C. Gardent. Hermès/Lavoisier 2005. 384 pages, 105 euros.

Beaucoup de travaux se rattachant aux sciences cognitives ont mis en évidence la nature contextuelle des processus d'interprétation. On pourrait même avancer qu'une caractéristique définitoire des recherches menées dans le cadre des sciences cognitives est de croire qu'une modélisation rationnelle de la composante contextuelle de l'interprétation n'est pas une tâche irréalisable.

L'objectif de ce volume est de présenter différents modèles proposés dans les dernières années pour rendre compte de la dimension contextuelle de phénomènes d'interprétation et de traiter d'un certain nombre de questions empiriques qui semblent n'avoir de solution que dans un cadre permettant de capturer l'enrichissement ou la sélection contextuelle de l'interprétation.

Sémantique et corpus. Traité IC2. Série Cognition et traitement de l'information. Sous la direction de A. Condamines. Hermès/Lavoisier 2005. 352 pages, 100 euros.

La question du sens examinée à travers l'analyse de textes n'est pas nouvelle ; depuis des siècles, des disciplines s'intéressent à cette question : la philosophie, la philologie, l'analyse comparative et, plus récemment, la sociolinguistique, l'ethnolinguistique... La nouveauté vient de ce que le développement de l'informatique a mis à disposition un grand nombre de textes via l'internet et d'outils pour les interroger. cet ouvrage cherche à comprendre en quoi ce développement majeur permet un nouvel éclairage sur le problème de l'étude du sens dans les textes. La nécessaire clôture du corpus (ensemble de texte rassemblés pour une étude déterminée) crée un effet de limite et de confrontation à la réalité qui oblige à une réflexion sur les connaissances mises en oeuvre lors de l'analyse.

Les régularités mises au jour lors d'une analyse peuvent-elles être la base de l'élaboration d'un système de règles ? Comment les contextes de production et d'interprétation des textes peuvent-ils être pris en compte lors de l'analyse ? La notion de genre textuel peut-elle être une possibilité pour généraliser les résultats d'analyse ? En quoi les méthodes d'analyse (outils de TAL, méthodes quantitatives...) viennent-elles multiplier les point de vue sur un corpus et en quoi risquent-elles de biaiser les observations ? L'objectif de l'étude : analyse discursive, analyse littéraire, constitution de ressources en TAL, ingénierie des connaissances... a-t-il une influence déterminante sur le choix de catégorisation des phénomènes observés ? Ce sont quelques unes des questions auxquelles des chercheurs d'horizons divers tentent de donner des réponses.


Enseignement

Quand l'académie des sciences rejoint l'EPI ...
JB
_________________________________________________________________

L'enseignement de l'informatique de la maternelle à la terminale.

Intervention de Maurice Nivat de l'Académie des sciences, Professeur Émérite
à l'université Paris 7, à la Conférence-débat du mardi 15 mars 2005 à
l'Académie des sciences.

" De nombreuses raisons militent pour que l'enseignement de l'Informatique à
tous les échelons de la scolarité soit développé et généralisé. ...
... Au lycée il sera proposé d'introduire un véritable enseignement d'
informatique formant aux notions essentielles d'algorithme et de programme.
Jusque-là, en effet, l'informatique utilisée par les élèves s'apparente plus à la conduite
automobile qu'à une discipline d'enseignement. On ne dira ni comment
marchent les ordinateurs ni comment fonctionnent les logiciels avant la
classe de seconde où nous préconisons d'introduire un enseignement des bases
de l'informatique, distinct des autres enseignements, notamment de celui des
mathématiques." ...
Voir l'intervention complète de Maurice Nivat plus quelques autres sur:

www.academie-sciences.fr/conferences/seances_publiques/pdf/debat_15_03_05_pr
ogramme.pdf

Rapid e-learning

Pour former les salariés à distance, sur leur PC,les solutions de "Rapide e-learning" viennent à la rescousse des formateurs pour simplifier et accélérer la création de conteus en ligne. Article de deux pages signé Sandrine Chilotti et agrémenté d'un tableau de produits commerciaux, dans Le monde informatique du 18 mars.

Comment aborder le rôle de formateur en classe virtuelle synchrone ?

Conférence en ligne à télécharger. Objectifs de l'intervention:
- donner des repères communs, pédagogiques ou didactiques, liés à l'utilisation de classes virtuelles synchrones : types d'usages; bonnes pratiques; intégration dans un dispositif de formation ou de collaboration,
- présenter d'autres expériences similaires en vue de favoriser les échanges et la mutualisation des expériences,
- plus globalement, fédérer la communauté des utilisateurs de la classe virtuelle.
La conférence s'articule en trois phases : Nouveau métier ? Optimisation des pratiques. Projet Télémaque.

Dossier "outils et machines" en pédagogie

" Un marteau peut aussi bien servir à enfoncer un clou qu'à assommer une personne ! Pour chaque outil tout va dépendre de la compétence de l'utilisateur, du but qu'il se donne, du sens qu'il donne à son action". Jacques Nimier ouvre un débat sur son site pour essayer de déterminer l'impact des TIC sur les relations entre les personnes et particulièrement la relation pédagogique, ainsi que sur le mode de pensée des élèves actuels, qui sont nés dans l'ère informatique. Plus de trente ans après l'introduction des ordinateurs dans l'enseignement général il est toujours temps de réfléchir ... A lire:
- La télécommande et l'infantile par Philippe Meirieu, directeur de l'IUFM de Lyon,
- La nécessité de ne pas confier aveuglément trop de pouvoirs à la machine. par Guy Pouzard, inspecteur général honoraire,
- L'utilisation des EIAH (Environnements informatiques pour l'apprentissage humain) par Bernardo Camou, professeur de mathématiques.
Le site.

Formation à distance : des dimensions occultées<

Enigmes de la relation pédagogique à distance. Numéro spécial de la revue Distances et savoirs. Sous la direction de H. Choplin et R. Hotte. Hermès/Lavoisier 2005. 230 pages, 95 euros.

La littérature concernant la relation pédagogique à distance est empreinte de travaux concernant les référentiels de compétence, dont le but est moins d'observer et de connaître une réalité en émergence que de prescrire un comportement. Se positionnant réellement à contre-courant de ces approches, cet ouvrage a pour vocation de situer la relation pédagogique à distance (et la complexité des rencontres ou des expériences qu'elle engage) comme une problématique de recherche à part entière. Convoquant des disciplines comme la psychanalyse, la sociologie ou la linguistique pour expliquer des aspects singuliers de l'utilisation des TIC en éducation, les articles retenus ici décrivent des dimensions de la relation pédagogique à distance essentielles mais souvent occultées : celle, par exemple, du corps, de la conversation ou de la communauté professionnelle.

Rubrique réalisée avec la collaboration de Jacques Baudé

La recherche en pratique

Libre accès aux résultats de recherche

En octobre 2003 était organisé, à Berlin, le premier congrès international sur le libre accès à l'information scientifique. Cet événement a été suivi de la publication de la déclaration de Berlin. Depuis plusieurs réunions ont été mises en place et la dernière a eu lieu le 28 février et le 1er mars 2005 à Southampton. Le CNRS, l'Inserm, l'Inra et l'Inria signataires de première heure de la déclaration de Berlin, y ont présenté leur politique en faveur du libre accès. Ces quatre organismes ont choisi de mettre en place une politique commune pour développer des archives institutionnelles ouvertes. Ces archives, propres à chaque établissement, permettraient aux chercheurs de déposer leurs publications et également, selon les établissements, l'ensemble de leurs travaux (communications, données brutes, brevets...). Les consultations seront gratuites. Ce projet contribuera à assurer une plus grande visibilité aux travaux des chercheurs. Le communiqué du CNRS.

Je ne cèderai plus mes droits !

Lawrence Lessig, professeur de droit de Stanford, à l'origine des contrats Creative Commons, a publié un billet sur son blog dans lequel il explique pourquoi il ne publiera plus d'articles dans les revues scientifiques juridiques l'obligeant à céder ses droits d'auteurs (...). Il applique maintenant ses préceptes dans le cadre de son activité professionnelle. Traduction française en ligne.

Que faire de vos ordinateurs en fin de vie ?

Un dossier pratique à destination des collectivités territoriales a été réalisé par Artesi Ile-de-France, sous la signature de Loïc Haÿ. Il est destiné à fournir des repères et des conseils sur la question de la gestion du matériel informatique en fin de vie. Il permet de faire le point sur le contexte réglementaire et les enjeux relatifs à cette question. Il propose des fiches de retour d'expérience, fournit des contacts utiles en Ile-de-France, et pointe sur des ressources documentaires pour approfondir . Télécharger.


Manifestations

Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.

Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.

Festival d'art numérique à ciel ouvert

Ce festival tiendra sa deuxième édition du 15 au 24 avril 2005 à Issy-les-Moulineaux. Le site.


Détente

Cartes à puce et personnalisation des soins

Le progrès technologique va permettre de diversifier les prestations médicales en fonction du dossier personnel de chacun, de ses antécédents médicaux et familiaux, de ses opinions politiques et religieuses et surtout... de son adhésion à des caisses complémentaires plus ou moins généreuses.

En particulier, la carte Sesam-Vitale pourrait être proposée en plusieurs versions, concrétisant le concept moderne et progressiste de "santé à deux vitesses". Nous reproduisons ici un projet de publicité pour la carte Vitale Gold. (On nous assure que d'autres messages publicitaires seront émis à l'intention de la clientèle féminine). Stic-Hebdo est heureux de vous présenter en avant première cette évolution majeure, dont la date officielle de lancement n'est prévue que pour le premier du mois prochain.


L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.