Stic-Hebdo |
Sommaire : Trois questions à Jacques André| Théories et concepts | Enseignement | La recherche en pratique | Manifestations | Détente
"Le vrai problème, aujourd'hui, c'est qu'on veut pouvoir présenter la même information aussi bien sur un téléphone portable que sur un poste de travail ou un grand téléviseur."
Stic Hebdo : Vous vous passionnez depuis des décennies pour l'application de l'informatique à la typographie. Où en est-on aujourd'hui ?
Jacques André. En un mot, la technique est arrivée à ses fins. Nous savons aujourd’hui générer des caractères aussi bien pour le papier pour l’écran. Et des progrès importants ont été accomplis dans les cinq dernières années pour améliorer leur lisibilité. Les caractères semblent toujours affichés en noir et blanc mais, en fait, ils sont affichés en différents niveaux de gris, pour résoudre le problème de l’aliasing (crénelage, effet d’escalier). C’est l’œil qui recrée l’impression de noir sur blanc. Ces travaux ont été engagés en particulier pour le lancement du livre électronique (qui a échoué), mais nos écrans sont plus lisibles que jamais.
Ce monde des caractères a une certaine ambiguïté, avec ses tendances contradictoires. D'un côté l'on a besoin de formaliser et de préciser des règles. De l'autre, l'on cherche une esthétique graphique qui se sent toujours entravée par les règles...
La réflexion n'est pas arrêtée ! Le lancement d'Unicode (un consortium privé) a poussé à une réflexion de fond sur le concept de caractère. Même avec un codage sur deux octets qui permet de représenter tous les caractères de toutes les langues, il a fallu donner des règles pour ne pas se laisser envahir par de multiples combinaisons de caractère (ligatures) ou variantes locales. De temps en temps, on voit apparaître de nouveaux caractères, que nous appelons d'ailleurs de leur nom américain (slash) voire espagnol (arrobas) car on n'a pas l'habitude en France de les nommer.
Mais on peut progresser encore. Par exemple pour l'espacement entre caractères. Vous vous rappelez des premières polices utilisées en informatique comme sur les machines à écrire, avec leur espacement fixe, qui donnait la même largeur à un i ou à un m, ce qui est évidemment beaucoup plus facile à composer. On a ensuite disposé de polices à espacement variable. Jusqu'au milieu des années 1990, ces polices se géraient avec des "tables de chasse" (affectant à chaque caractère un nombre donné de pixels en largeur). Cela suffit quand on ne mélange pas les fontes (variantes d'une même police). Aujourd'hui, on peut faire beaucoup mieux, et optimiser aussi bien le rendu des contours que les espaces entre caractères, directement au moment de leur génération. Pour cela, on dispose pour chaque caractère de tout un ensemble de propriétés géométriques (C'est le format OpenType).
S.H. : Est-ce encore un domaine de recherche à proprement parler?
J.A. En tous cas, ce n'est plus un domaine concerne vraiment les laboratoires universitaires d'informatique pure. Il appartient aux grands "fondeurs" de caractère, c'est à dire en pratique, non plus des fondeurs de plomb comme autrefois, mais les éditeurs de logiciels spécialisés (Adobe, Apple, Microsoft...).
Historiquement, Xerox a joué là un rôle important, comme dans un grand nombre d'aspects de la bureautique. Ce qu'on ignore souvent, en revanche, c'est que plusieurs chercheurs français ont apporté des contributions significatives, par exemple Patrick Baudelaire, qui a introduit les codes de Bézier dans le dessin des caractères.
On voit tout de même de temps en temps des innovations, comme Le Monde ou la RATP qui se sont fait réaliser des polices de caractères spécifiques. Il y a aussi des évolutions vers OpenType intéressantes pour les dessinateurs et maquettistes. Mais peu de systèmes l'utilisent à fond aujourd'hui. Ce standard permet par exemple de créer automatiquement des ligatures entre caractères, de tenir compte du contexte... on peut aller très loin.
Mais, de toutes façons, c'est un domaine où il est difficile de se faire une place, car le dessinateur de caractères se fait piller par les pirates exactement comme le musicien.
S.H. : Quels seraient les enjeux aujourd'hui ?
J.A. : Si tout est résolu à bas niveau, c'est à dire au niveau du caractère, il resterait beaucoup à faire au niveau le plus élevé, celui de la mise en pages. Pour les publications sur papier mais plus encore pour les pages web, qui ne sont pas satisfaisantes pour un oeil exigeant du point de vue graphique. L'impression sur papier a au moins l'avantage de pouvoir s'appuyer sur de longues traditions. Le vrai problème de l'affichage sur écran, maintenant, c'est que l'on veut pouvoir présenter la même information aussi bien sur un téléphone portable que sur un poste de travail ou un grand téléviseur.
Sous ces contraintes, bien peu de pages web sont "lisables" comme disait François Richaudeau (un des grands noms de la communication en France, et qui transposait le mot à partir de "mangeable"). Pour progresser, la recherche universitaire commence à faire intervenir des disciplines comme la psychologie et la physiologie de la lecture, l'ergonomie cognitive...
Propos recueillis par Pierre Berger
La gestion du cycle de vie du produit, ou PLM, est un concept tellement englobant qu'il est longtemps resté insaisissable. D'autant que chaque éditeur touchant de près ou de loin au domaine faisait valoir sa propre définition. Finalement, les usages commencent à en préciser les contours, autour de deux notions clés : l'intégration de bout en bout et le travail collaboratif. Un dossier de huit pages dans Le monde informatique du 25 mars, signé par Patrice Desmedt, Xavier Bouchet, Anne-Marie Rouzeré et Maryse Gros.
Des chercheurs d'IBM ont présenté à l'International conference
on adaptive and natural computing algorithms un modèle informatique simulant
le fonctionnement du cortex cérébral humain.
Charles Peck et James Kozloski ont crée un modèle mathématique
reproduisant l'activité de 500 000 minicolonnes reliées par 400
millions de connexions. Le terme de minicolonne désigne un module d'organisation
corticale fonctionnelle et anatomique regroupant 80 à 100 neurones ;
ces modules ont pour rôle de pré-traiter les informations issues
de la perception pour leur traitement ultérieur par les parties supérieures
du cerveau. Les chercheurs ont testé leur système et montré
sa capacité à s'auto-organiser pour accomplir une tâche
spécifique (en l'occurrence des opérations de reconnaissance visuelle)
avec un fonctionnement proche de la réalité, alors que les dispositifs
actuels entraînent des erreurs. L'objectif final reste bien entendu de
maîtriser l'ensemble des processus neuronaux intervenant dans la vision
- la difficulté étant d'arriver à comprendre et à
reproduire la façon dont le cerveau peut, à partir d'informations
parcellaires (couleur, texture, forme, etc.), traiter les données et,
en les recoupant, fournir une image cohérente globale. Il faut pour cela
simuler les activités neuronales à plusieurs niveaux (neurone,
minicolonne, groupe de minicolonnes) en reproduisant la capacité à
passer d'une échelle à l'autre.
Selon le New York Times et un document IBM (PDF). Signalé par l'Ambassade de France
Plusieurs nouveautés sur ce thème au catalogue d'Hermès/Lavoisier. Voici les présentations qu'en fait l'éditeur.
Fouille de textes et organisation de documents. Numéro spécial de la revue Document numérique. sous la direction de B. Rumpler et J.M. Pinon. Hemès/Lavoisier 2004. 180 pages, 55 euros.
Les articles présentés dans cet ouvrage abordent la fouille de texte selon des approches très diverses comme la classification ou la catégorisation de textes, le traitement linguistique et la psycholinguistique, l'extraction d'information à partir de la structure et de l'organisation des documents, ou encore la mise en oeuvre de techniques d'apprentissage dans des systèmes spécifiques capables d'extraire de l'information au sein de grands corpus. Grâce à la pertinence des méthodes proposées et aux validations expérimentales effectuées, chacun de ces articles représente une avancée notable dans le vaste domaine de la recherche d'information. Les domaines d'application sont immenses et prometteurs.
Les bibliothèques numériques. Traité IC2. Sous la direction de F. Papy. Hermès/Lavoisier 2005. 224 pages, 75 euros.
Les technologies du numérique ont investi l'espace séculaire de la bibliothèque en y introduisant d'une part de nouvelles ressources (numériques et numérisées) et en proposant, d'autre part, des modalités de recherche et de consultation faisant une large part aux technologies de l'information et de la communication. Cette évolution technologique, en modifiant l'environnement documentaire, provoque une transformation des usages et des pratiques, et entraîne une modification du rôle des bibliothécaires et documentalistes. Cet ouvrage collectif, grâce aux contributions de chercheurs et de professionnels de l'information et des bibliothèques, apporte des éléments de réponse pour mieux appréhender les mutations amorcées et celles qui se dessinent à court terme.
Le traitement automatique des corpus oraux. Numéro spécial de la revue Traitement automatique des langues. sous la direction de J. Veronis. Hermès/Lavoisier 2005. 208 pages, 65 euros.
Ce numéro spécial illustre la grande diversité des thèmes de recherche dans le domaine du traitement informatique des corpus oraux. Il témoigne d'intéressantes évolutions : les outils développés initialement pour la phonétique "de laboratoire" s'ouvrent vers une utilisation sur de grands corpus et sur la parole spontanée, tandis que les outils développés dans le cadre de la reconnaissance de la parole ou du dialogue homme-machine commencent à pouvoir être utilisés pour la construction de corpus hors de cette finalité technologique stricte.
Extraction de motifs dans les bases de données. Numéro spécial de la revue Ingénierie des systèmes d'information. Sous la direction de J.F. Boulicaut et B. Crémilleux. Hermès/Lavoisiser 2004. 244 pages, 100 euros.
Cet ouvrage présente les principaux types étudiés intensivement ces dernières années. Le lecteur trouvera ici un état de l'art sur la découverte de dépendances dans des bases de données relationnelles, la découverte de motifs séquentiels dans des bases de séquences ainsi que des travaux récents sur l'extraction de motifs et de règles d'association fréquentes dans des données transactionnelles.
Interpréter en contexte. Traité IC2. Série Cognition et traitement de l'information. Sous la direction de F. Corblin et C. Gardent. Hermès/Lavoisier 2005. 384 pages, 105 euros.
Beaucoup de travaux se rattachant aux sciences cognitives ont mis en évidence la nature contextuelle des processus d'interprétation. On pourrait même avancer qu'une caractéristique définitoire des recherches menées dans le cadre des sciences cognitives est de croire qu'une modélisation rationnelle de la composante contextuelle de l'interprétation n'est pas une tâche irréalisable.
L'objectif de ce volume est de présenter différents modèles proposés dans les dernières années pour rendre compte de la dimension contextuelle de phénomènes d'interprétation et de traiter d'un certain nombre de questions empiriques qui semblent n'avoir de solution que dans un cadre permettant de capturer l'enrichissement ou la sélection contextuelle de l'interprétation.
Sémantique et corpus. Traité IC2. Série Cognition et traitement de l'information. Sous la direction de A. Condamines. Hermès/Lavoisier 2005. 352 pages, 100 euros.
La question du sens examinée à travers l'analyse de textes n'est pas nouvelle ; depuis des siècles, des disciplines s'intéressent à cette question : la philosophie, la philologie, l'analyse comparative et, plus récemment, la sociolinguistique, l'ethnolinguistique... La nouveauté vient de ce que le développement de l'informatique a mis à disposition un grand nombre de textes via l'internet et d'outils pour les interroger. cet ouvrage cherche à comprendre en quoi ce développement majeur permet un nouvel éclairage sur le problème de l'étude du sens dans les textes. La nécessaire clôture du corpus (ensemble de texte rassemblés pour une étude déterminée) crée un effet de limite et de confrontation à la réalité qui oblige à une réflexion sur les connaissances mises en oeuvre lors de l'analyse.
Les régularités mises au jour lors d'une analyse peuvent-elles être la base de l'élaboration d'un système de règles ? Comment les contextes de production et d'interprétation des textes peuvent-ils être pris en compte lors de l'analyse ? La notion de genre textuel peut-elle être une possibilité pour généraliser les résultats d'analyse ? En quoi les méthodes d'analyse (outils de TAL, méthodes quantitatives...) viennent-elles multiplier les point de vue sur un corpus et en quoi risquent-elles de biaiser les observations ? L'objectif de l'étude : analyse discursive, analyse littéraire, constitution de ressources en TAL, ingénierie des connaissances... a-t-il une influence déterminante sur le choix de catégorisation des phénomènes observés ? Ce sont quelques unes des questions auxquelles des chercheurs d'horizons divers tentent de donner des réponses.
Quand l'académie des sciences rejoint l'EPI ...
JB
_________________________________________________________________
L'enseignement de l'informatique de la maternelle à la terminale.
Intervention de Maurice Nivat de l'Académie des sciences, Professeur
Émérite
à l'université Paris 7, à la Conférence-débat
du mardi 15 mars 2005 à
l'Académie des sciences.
" De nombreuses raisons militent pour que l'enseignement de l'Informatique
à
tous les échelons de la scolarité soit développé
et généralisé. ...
... Au lycée il sera proposé d'introduire un véritable
enseignement d'
informatique formant aux notions essentielles d'algorithme et de programme.
Jusque-là, en effet, l'informatique utilisée par les élèves
s'apparente plus à la conduite
automobile qu'à une discipline d'enseignement. On ne dira ni comment
marchent les ordinateurs ni comment fonctionnent les logiciels avant la
classe de seconde où nous préconisons d'introduire un enseignement
des bases
de l'informatique, distinct des autres enseignements, notamment de celui des
mathématiques." ...
Voir l'intervention complète de Maurice Nivat plus quelques autres sur:
www.academie-sciences.fr/conferences/seances_publiques/pdf/debat_15_03_05_pr
ogramme.pdf
Conférence en ligne à
télécharger. Objectifs de l'intervention:
- donner des repères communs, pédagogiques ou didactiques, liés
à l'utilisation de classes virtuelles synchrones : types d'usages; bonnes
pratiques; intégration dans un dispositif de formation ou de collaboration,
- présenter d'autres expériences similaires en vue de favoriser
les échanges et la mutualisation des expériences,
- plus globalement, fédérer la communauté des utilisateurs
de la classe virtuelle.
La conférence s'articule en trois phases : Nouveau métier ? Optimisation
des pratiques. Projet Télémaque.
" Un marteau peut aussi bien servir à enfoncer un clou qu'à
assommer une personne ! Pour chaque outil tout va dépendre de la compétence
de l'utilisateur, du but qu'il se donne, du sens qu'il donne à son action".
Jacques Nimier ouvre un débat sur son site pour essayer de déterminer
l'impact des TIC sur les relations entre les personnes et particulièrement
la relation pédagogique, ainsi que sur le mode de pensée des élèves
actuels, qui sont nés dans l'ère informatique. Plus de trente
ans après l'introduction des ordinateurs dans l'enseignement général
il est toujours temps de réfléchir ... A lire:
- La télécommande et l'infantile par Philippe Meirieu, directeur
de l'IUFM de Lyon,
- La nécessité de ne pas confier aveuglément trop de pouvoirs
à la machine. par Guy Pouzard, inspecteur général honoraire,
- L'utilisation des EIAH (Environnements informatiques pour l'apprentissage
humain) par Bernardo Camou, professeur de mathématiques.
Le site.
La littérature concernant la relation pédagogique à distance est empreinte de travaux concernant les référentiels de compétence, dont le but est moins d'observer et de connaître une réalité en émergence que de prescrire un comportement. Se positionnant réellement à contre-courant de ces approches, cet ouvrage a pour vocation de situer la relation pédagogique à distance (et la complexité des rencontres ou des expériences qu'elle engage) comme une problématique de recherche à part entière. Convoquant des disciplines comme la psychanalyse, la sociologie ou la linguistique pour expliquer des aspects singuliers de l'utilisation des TIC en éducation, les articles retenus ici décrivent des dimensions de la relation pédagogique à distance essentielles mais souvent occultées : celle, par exemple, du corps, de la conversation ou de la communauté professionnelle.
Rubrique réalisée avec la collaboration de Jacques BaudéEn octobre 2003 était organisé, à Berlin, le premier congrès international sur le libre accès à l'information scientifique. Cet événement a été suivi de la publication de la déclaration de Berlin. Depuis plusieurs réunions ont été mises en place et la dernière a eu lieu le 28 février et le 1er mars 2005 à Southampton. Le CNRS, l'Inserm, l'Inra et l'Inria signataires de première heure de la déclaration de Berlin, y ont présenté leur politique en faveur du libre accès. Ces quatre organismes ont choisi de mettre en place une politique commune pour développer des archives institutionnelles ouvertes. Ces archives, propres à chaque établissement, permettraient aux chercheurs de déposer leurs publications et également, selon les établissements, l'ensemble de leurs travaux (communications, données brutes, brevets...). Les consultations seront gratuites. Ce projet contribuera à assurer une plus grande visibilité aux travaux des chercheurs. Le communiqué du CNRS.
Un dossier pratique à destination des collectivités territoriales
a été réalisé par Artesi Ile-de-France, sous la
signature de Loïc Haÿ. Il est destiné à fournir des
repères et des conseils sur la question de la gestion du matériel
informatique en fin de vie. Il permet de faire le point sur le contexte réglementaire
et les enjeux relatifs à cette question. Il propose des fiches de retour
d'expérience, fournit des contacts utiles en Ile-de-France, et pointe
sur des ressources documentaires pour approfondir . Télécharger.
Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.
Festival d'art numérique à ciel ouvert
Ce festival tiendra sa deuxième édition du 15 au 24 avril 2005 à Issy-les-Moulineaux. Le site.
Le progrès technologique va permettre de diversifier les prestations médicales en fonction du dossier personnel de chacun, de ses antécédents médicaux et familiaux, de ses opinions politiques et religieuses et surtout... de son adhésion à des caisses complémentaires plus ou moins généreuses.
En particulier, la carte Sesam-Vitale pourrait être proposée en plusieurs versions, concrétisant le concept moderne et progressiste de "santé à deux vitesses". Nous reproduisons ici un projet de publicité pour la carte Vitale Gold. (On nous assure que d'autres messages publicitaires seront émis à l'intention de la clientèle féminine). Stic-Hebdo est heureux de vous présenter en avant première cette évolution majeure, dont la date officielle de lancement n'est prévue que pour le premier du mois prochain.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.