Stic-Hebdo |
No 26. 13 septembre 2004
Sommaire : Trois questions à Jean-Pierre Archambault (Sceren) | L'actualité de la semaine | Théories et concepts | Enseignement | Dans les entreprises et les administrations | Manifestations | La recherche en pratique | Détente
L'Etat , dans une perspective de pluralisme technologique, a clairement opté pour le logiciel libre dans le domaine éducatif, où il connaît des développements plus que significatifs. Une nouvelle phase commence.
Stic-hebdo : Vous vous êtes engagé dans l'aventure du logiciel libre dans l'enseignement public. Pourquoi une telle orientation, et quel accueil recevez vous ?
Jean-Pierre Archambault : Professeur de mathématiques, j'ai bénéficié en 1981 d'un stage d'un an de formation approfondie à l'informatique pédagogique. Assurée par l'équipe de Jacques Arsac à l'ENS, cette formation donnait à la fois les fondements d'une bonne culture générale informatique et une vision d'ensemble des potentialités éducatives de l'ordinateur. Formateur les années suivantes, j'ai ensuite participé au pilotage de différentes opérations dans l'académie de Créteil : plan « Informatique pour tous », télématique, réseaux locaux, Internet. En 1996 j'ai rejoint le CNDP, précisément la direction de l'ingénierie éducative. En 1999, j'ai intégré la mission de veille technologique dès sa création.Je suis actuellement à mi-temps au CNDP et au CRDP de Paris, chargé de mission « veille technologique ». Je m'intéresse essentiellement aux usages pédagogiques de l'ordinateur dans toutes leurs dimensions, aux enjeux éducatifs et sociétaux de l'informatique. J'ajoute que je suis membre, depuis plus de vingt ans, de l'EPI.
Les logiciels libres constituent l'un des « chantiers » que m'a confié la direction générale. Il s'inscrit dans le cadre de l'accord signé en octobre 1998 par le ministère de l'Education nationale et l'Aful (Association francophone des utilisateurs de Linux et des logiciels libres), accord reconduit depuis lors et qui disait en substance que les logiciels libres constituaient une solution alternative de qualité, à très moindres coûts, pour les établissements scolaires, dans une perspective de pluralisme technologique. Cet accord ne cesse d'être conforté de multiples manières, une des dernières en date étant la déclaration du Premier ministre du 26 mai dernier, qui indiquait que les administrations devaient opter pour la suite bureautique libre Open office. D'une manière générale, il s'agit pour la mission d'informer, de fédérer les ressources et les compétences, d'aider à explorer cette piste féconde du logiciel libre. De s'intéresser aussi aux ressources pédagogiques libres car il existe une transférabilité de l'approche du logiciel libre à la production des biens informationnels.
On rencontre chez les enseignants trois catégories d'attitudes :
- une sympathie naturelle pour la démarche du libre, ses principes étant en symbiose avec les missions du système éducatif et la culture enseignante de libre accès et de diffusion à tous de la connaissance (avec çà et là des prises de position marquées du sceau d'un « enthousiasme » quelque peu exclusif) ; le petit ruisseau des logiciels libres, contre vents et marées, devient au fil des ans un grand fleuve ;
- un pragmatisme de bon aloi qui intègre la nécessité d'assurer la continuité pédagogique dans les environnements existants à un moment donné (« Demain, j'ai un cours en BTS bureautique, j'ai besoin de mes machines telles qu'elles sont ») ; la question est en effet d'organiser une transition douce vers une situation de pluralisme technologique ;
- la position conservatrice de certains collègues, en particulier celle d'enseignants ayant des compétences réelles en informatique, qui manifestent de fortes réticences. Un récent, et bon, numéro des Dossiers de l'ingénierie éducative (le 46 de Mars 2004) comporte un article témoignant bien de cette approche, intitulé « Le militantisme du libre entrave l'innovation pédagogique ». Vous excuserez du peu, dans le registre « plus pédagogue que moi tu meurs »... Cette attitude n'est pas nouvelle. Déjà, il y a quinze ans, certains s'opposaient à la mise en place de formations Windows, car ils voulaient en rester à MS-Dos, ou refusaient les réseaux locaux car « la pédagogie c'était le poste autonome », arguant qu'ils étaient là « pour faire de la pédagogie et non de la technique » . Il est toujours plaisant d'entendre des techniciens dire qu'ils ne font pas de technique, ou qu'il ne faut pas en faire ! Rien là que de très banal, à savoir le phénomène classique d'opposition aux évolutions technologiques, de la part de ceux qui ont une situation installée, un prestige, et qui se sentent menacés, alors qu'il leur suffirait d'évoluer. Cette attitude de refus est parfois renforcée par une formation qui s'est faite trop exclusivement « sur le tas », sans appropriation des concepts fondamentaux de la science informatique.
Stic-hebdo : Qui sont vos interlocuteurs pour cette action?
J.-P. A. : Il y a, pour simplifier, trois acteurs : les enseignants et le secteur associatif (la communauté du libre), l'institutionnel (l'Etat, le service public) et le marché.
Le premier acteur, ce sont les enseignants eux-mêmes, professionnels de la pédagogie, organisés ou non en associations de spécialistes, et plus généralement la « communauté du libre ». Une multitude d'initiatives en ressources pédagogiques libres vient des enseignants. Avec la Toile, tout enseignant est potentiellement éditeur de « ressources scolaires » sur le web. Et le succès est souvent au rendez-vous. Il y a trois ans, le CNDP a commandé une étude à l'Observatoire des technologies éducatives en Europe, sur la consultation des sites éducatifs par les enseignants. Les sites associatifs arrivaient en tête, suivis des sites personnels et des sites institutionnels (ministère, académies, CNDP, CRDP), puis venaient des sites de grandes entreprises (EDF et France-Télécom par exemple) et des musées et, loin derrière eux, les sites des éditeurs classiques d'ouvrages pédagogiques (Hachette et Vivendi à l'époque).
L'Etat et les collectivités territoriales sont le deuxième acteur majeur. Il n'y a point de neutralité en la matière, de par les multiples enjeux afférents au libre : coûts, indépendance, choix à opérer entre achat de licences ou développement de services et donc de l'emploi... Des enjeux en termes de modèles économiques de l'immatériel et de propriété intellectuelle, qui peuvent donner lieu à des consensus comme lors la campagne présidentielle de 2002 où l'on a vu les principaux candidats, de la droite à l'extrême-gauche, se prononcer contre le brevet logiciel.
Concrètement, par exemple, l'association Sésamath (voir plus bas) a développé des coopérations avec des collectivités territoriales comme le Conseil général de Seine-et-Marne, dans le cadre de sa politique d'équipement de tous les collèges du département de réseaux sous Linux.
Pour la réalisation de logiciels et ressources éducatives se mettent en place des partenariats regroupant aussi bien des enseignants et leurs associations que les collectivités locales et les éditeurs traditionnels, publics et privés, ainsi que des firmes privées, dans une espèce de « Napster éducatif » d'auteurs
La coopération entre le service public d'éducation et les enseignants ne va pas parfois sans une certaine méfiance de part et d'autre. Un même individu peut adopter la démarche du libre dans un cadre associatif, mais tendre à s'y refuser si elle lui est proposée par sa propre institution. Les relations conflictuelles de salariés avec leur employeur, la mentalité de certains acteurs du libre l'explique pour une part. Mais la coopération relève de l'intérêt mutuel et il n'y a pas d'antagonisme irréductible. Et, en général, elle a plutôt tendance à fonctionner.
Enfin, le marché lui-même, nombre de ses secteurs, fait le choix du libre pour des raisons diverses allant de la régulation de l'industrie informatique à la maîtrise des systèmes d'information d'entreprise en passant par la qualité des produits réalisés. Le libre, forme suprême du standard ouvert, puisqu'on connaît tout, depuis la définition des interfaces jusqu'au code source, favorise la diversité technologique.
Aux Etats-Unis, par exemple, la communauté du libre entretient de bonnes relations avec le marché, meilleures qu'avec l'Etat, ce qui ne saurait surprendre !.
Le pluralisme est de l'intérêt bien compris de beaucoup d'acteurs. Ainsi terminons-nous actuellement un cédérom multiplateforme de logiciels pédagogiques libres pour l'école primaire, en partenariat avec Apple. Il fonctionne sous MacOsX, Windows et Linux. Le message à l'intention des éditeurs scolaires est clair : il n'y a pas de raison de ne développer des applications que pour un seul environnement informatique !
Ce genre de démarche dérange les situations de monopole installées, accessoirement les partisans d'un « tout libre », en la circonstance irréaliste compte tenu du parc existant dans les écoles primaires.
D'une manière générale, le secteur de l'édition scolaire traverse une période de turbulences, déstabilisé qu'il est par l'irruption du numérique. La banalisation des outils de production, les coûts marginaux de reproduction et de diffusion qui tendent vers zéro de par Internet font que l'éditeur n'est plus le passage obligé pour l'auteur. Il est loin le temps où, en 1811 précisément, l'éditeur avait pris le pouvoir de par l'obligation faite à l'auteur de présenter son projet de manuel sous forme imprimée. Si l'on ajoute le fait que le marché scolaire a toujours été quelque peu captif et celui du multimédia non rentable, on comprend l'embarras des éditeurs scolaires. Mais il faut reconnaître que la situation est compliquée.
L'éditeur n'est pas mort, bien au contraire, mais il doit redéfinir son rôle. Face à cet impératif l'on constate des réticences, des blocages « culturels ». Ainsi prenons le cas d'enseignants qui élaborent des scénarios pédagogiques utilisant des documents issus d'une encyclopédie électronique, et sur lesquels l'éditeur détient les droits de propriété intellectuelle. Peuvent-ils les mettre en ligne, librement et gratuitement ? On conçoit que la réponse ne soit pas simple. On peut cependant penser qu'il y a là l'opportunité pour l'éditeur de se valoriser, la possibilité de récupérer les meilleurs scénarios et de les intégrer à la prochaine édition de son encyclopédie, de nouer des relations de confiance avec des communautés d'auteurs-utilisateurs, des relations « gagnant-gagnant ». Cela étant, à ce jour, la réponse de l'éditeur est toujours négative. Alors, à quand un nouveau modèle économique de l'édition scolaire s'appuyant sur des logiques de partenariats étendues et renforcées ?
Stic-hebdo : Pouvez-vous préciser les principaux enjeux?
J.-P. A. Il y a trois grands types d'enjeux autour du logiciel libre dans le secteur éducatif. D'abord des enjeux pour les logiciels en eux-mêmes. On entend parfois dire que la question des coûts n'est pas importante. La situation de quasi-monopole que connaît encore pour une bonne part l'informatique grand public est à l'origine de marges et tarifs prohibitifs. L'enjeu est une bonne utilisation de l'argent public. Pourquoi acheter cher ce que l'on peut se procurer à des coûts infiniment moindres ? Pourquoi lancer dix appels d'offre, faire développer dix produits identiques au même moment pour répondre au même besoin, et donc payer dix fois ? C'est ce qui amène l'Adullact (Association pour le développement et l'utilisation des logiciels libres dans les administrations et les collectivités territoriales) à dire que, si un logiciel libre est gratuit quand il a été payé (autrement dit, quelqu'un doit financer sa réalisation), l'argent public ne doit être dépensé qu'une seule fois.
Il existe des enjeux de nature démocratique. Si l'on veut que les élèves retrouvent chez eux l'environnement de travail qu'ils ont au lycée, au collège ou à l'école, sans que cela occasionne des frais pour leurs familles, une licence comme la GPL est une bonne réponse.
Par ailleurs, ces produits, en eux-mêmes, sont porteurs de diversité technique, de pluralisme scientifique. Bien former suppose la diversité technique et scientifique, donc le pluralisme. Cela suppose aussi d'enseigner les notions plutôt que les recettes (NDLR : à la manière des « certificats » promus par les éditeurs). Là, il n'y a pas photo. Dans un cas, on comprend comment un programme est fait, dans l'autre, c'est une boite noire. On rejoint là la revendication bien connue de l 'EPI pour une discipline « informatique et TIC » dans le tronc commun au lycée.
Deuxième enjeu, avons-nous vu, les ressources pédagogiques, qui sont au coeur du métier d'enseignant. On constate qu'il y a sur la Toile de plus en plus de documents pédagogiques, mis en ligne librement et gratuitement par des enseignants. Il y a donc transférabilité de l'approche du logiciel libre à la production de ressources pédagogiques. Le troisième enjeu, c'est la question de savoir dans quelle mesure le paradigme du logiciel libre anticipe et préfigure des évolutions de fond quant au modèle économique de la société, dans laquelle les connaissances et les ressources immatérielles tiennent de plus en plus de place, aussi bien dans les richesses créées que dans les processus de création de ces richesses. Les débats sont vifs. Où se situe l'efficacité ? Du côté de la coopération, de l'ouverture, du bien commun et du bien public, ou de la concurrence, des barrières que l'on élève et de l'appropriation privative ? Les intérêts sont immenses et l'idéologie bien présente. Qu'en est-il de l'impact des techniques ? Je pense ici aux écrits du philosophe Bernard Stiegler, quand il dit que derrière les révolutions politiques il y a des révolutions techniques. Je pense aussi à ce que dit Régis Debray sur les rapports conflictuels que les individus « passionnés » entretiennent avec la « neutre » technique. Et puis il y a, depuis les Grecs, cette tendance de la culture occidentale a surestimer le rôle de la volonté des individus quant à leur prise réelle sur leur environnement, et à sous-estimer le poids du contexte.Stic-hebdo : Concrètement, où se situent actuellement les réussites du logiciel libre dans l'éducation?
J.-P. A. : Elles sont multiples, elles concernent les serveurs, les infrastructures logicielles, les postes de travail et les ressources pédagogiques. A l'instar de ce que l'on constate dans les administrations et les entreprises, la tendance est à l'emploi d'une proportion croissante de logiciels libres (Linux, Apache...), avec des serveurs de communication pour l'accès à Internet développés sous forme de solutions libres, par exemple Slis de l'académie de Grenoble déployé à grande échelle dans une dizaine d'académies, ou Eole développé par des personnels administratifs de l'académie de Dijon, la solution Abul Edu pour les écoles primaires, le serveur de fichiers Samba Edu...
On peut citer également la distribution Debian Education, réalisée dans un partenariat associant le CNDP, le Conseil général de Seine-et-Marne (qui l'a financée) et la société Logidée. Les logiciels maternelle de l'EPI. Et les nombreuses productions de qualité de Sesamath, association de professeurs de mathématiques des collèges, qui regroupe une cinquantaine d'enseignants. Environ 500 contributeurs proposent régulièrement des améliorations des documents, mis gratuitement et librement en ligne. 5000 professeurs sont abonnés et l'on estime qu'il y a dans la pratique quelque 30 ou 40 000 utilisateurs. L'association a le soutien de l'Inspection générale, et des inspections pédagogiques régionales, notamment dans l'académie de Créteil. Pour pérenniser leur action, ces collègues ont souhaité établir une relation privilégiée avec le service public. Je les ai mis en relation avec le réseau des CRDP. Le CRDP de Lille a ainsi édité (pour la sixième) des manuels scolaires et des CD-Roms à partir des ressources web de l'association. Ces manuels se sont bien vendus. On peut penser que cette approche préfigure un nouveau modèle économique de l'édition scolaire : d'un côté des ressources mises gratuitement et librement en ligne, de l'autre l'édition à un coût raisonnable de manuels et de CD-Roms.
D'une manière générale, pour le poste de travail et les applications métier, la situation était jusqu'à présent comparable à celle des entreprises, avec la prédominance de solutions propriétaires. OpenOffice.org a radicalement changé la donne. Les collectivités territoriales sont sensibles à l'argument « Avec cette seule galette, vous pouvez équiper tous les établissements de votre région, département ou ville. Alors, pourquoi payer 50 Euros par poste pour avoir la même chose » ?
Le cédérom multiplateforme dont on a parlé précédemment va connaître un prolongement dans un espace premier degré du site du pôle de compétences « logiciels libres » du Sceren. Les logiciels libres et les fiches pédagogiques les accompagnants seront accessibles aux enseignants. Des outils de travail collaboratifs seront mis à leur disposition avec l'objectif de favoriser échanges d'expériences et de documents, coopération, mutualisation des compétences, des ressources et des pratiques sur les potentialités didactiques des logiciels libres.
Ce type d’animation pédagogique proposée aux enseignants se veut aussi une réponse aux difficultés traditionnelles de leur formation professionnelle, liées à l’explicitation et à l’appropriation de savoirs tacites. Il s’appuie sur des productions des enseignants. Ecrire sur ses pratiques pédagogiques est un acte formatif en soi et, en filigrane des scénarios, il y a des conceptions et des pratiques pédagogiques. Cette formation se nourrit des échanges qui accompagnent l’écriture des fiches. La banalisation des outils informatiques et des réseaux permet une plus grande efficacité des actions de formation en présentiel, car elles sont préparées en amont, et connaissent des prolongements en aval. Elle permet de créer des communautés virtuelles (et réelles) de pratiques qui favorisent une professionnalisation par expériences concrètes. Des communautés de pratiques, communautés professionnelles, voient ainsi le jour, dans le cadre des animations pédagogiques sur le temps institutionnel. Elles jouent un rôle important et apportent un nouveau visage à la formation. Adaptées à la créativité, à la confiance, l'échange, la discussion, elles facilitent la transmission de savoirs tacites, basés sur l’expérience (une part majeure de l’avoir d’une organisation) dans l’action et les savoirs explicites acquis par la formation. La circulation de cette information crée effectivement un savoir collectif qui peut servir de base au perfectionnement professionnel et à la résolution de problèmes dans l’action.
Stic-hebdo : Quelle est alors la stratégie de votre mission en matière de logiciels libres ?
J.-P. A. : La mission a été créée au début de 1999. Un « tour de France téléphonique » auprès de l'ensemble des CRDP a contribué à mettre en évidence qu'un « quelque chose qui s'appelait Linux avait l'air de vouloir émerger ». Notre action dans le champ des logiciels libres s'est d'emblée inscrite dans la cadre de l'accord MEN-Aful d'octobre 1998. Les logiciels libres avaient leur légitimité institutionnelle, n'en déplaisait à ceux qui ne voulaient pas en entendre parler !
Une étape fut franchie en 2002 avec la création d'un pôle de compétences logiciels libres au sein du Sceren, coordonné par la mission veille technologique. Il regroupe aujourd'hui 14 CRDP : Aix-Marseille, Amiens, Bordeaux, Caen, Clermont-Ferrand, Créteil, Dijon, Lille, Nancy-Metz, Orléans-Tours, Paris, Poitiers, Toulouse et Versailles. Il s'agit d'une structure interne, qui regroupe tous ceux qui sont intéressés par un thème donné. Parmi les membres du pôle, les uns sont porteurs de solutions libres. Les « uns » appellent « les autres ».Tous sont en liaison avec leurs collectivités locales (conseil général ou régional, municipalités) et contribuent à donner sa place au logiciel libre. Pour tous, le pôle permet d'échanger.
L'activité s'organise autour de trois objectifs principaux :
- fédérer les initiatives et les énergies afin de leur donner visibilité et efficacité optimales,
-poursuivre, en l'étendant, l'action d'information de la communauté éducative dans son ensemble : colloques comme le cycle Education de Solutions Linux dont j'assure la présidence depuis 5 ans, les journées Autour du libre co-organisées avec les Ecoles nationales supérieures des télécommunications ; articles, interventions ; site Linux et pédagogie),
- coordonner les actions de conseil, d'aide, d'expertise et de réalisation (Débian Education, cédérom multiplateforme de logiciels pédagogiques libres pour l'école primaire mentionnés ci-dessus...).
En 2004-2005, tout en poursuivant les actions entreprises, nous allons voir comment aider à ce que des solutions industrielles libres puissent répondre aux appels d'offres des collectivités portant sur les ENT (Environnements numériques de travail). Pour ce faire nous allons coopérer avec le consortium Objectweb. Nous allons participer au projet européen Free (programme Minerva) qui, s'il est retenu, sera le projet-phare de Mutualibre. Nous allons poursuivre le développement du site du pôle de compétences, notamment de son espace premier degré. Nous allons promouvoir les usages pédagogiques du libre, en particulier à travers la diffusion du cédérom multiplateforme pour l'école primaire. Nous serons fortement présents au salon Educatec les 17, 18 et 19 novembre prochains, dont l'événement est justement les logiciels libre. Et puis plein d'autres initiatives, dont la participation aux journées 2005 de l'Asti !
Nous sommes dans une période de transition, avec des rapports de force incertains, mais qui évoluent en faveur du libre. Cette période est passionnante car les enjeux éducatifs du libre sont forts. Et les questions posées, des questions de société. Avec, en toile de fond, le pluralisme, la diversité, l'accès libre pour tous à la connaissance, à la culture.
Propos recueillis par Pierre Berger
" 3.- Développer les technologies de l'information et de la communication.
Deux mesures principales entreront en vigueur :
- le déploiement du " bureau virtuel " pour plus de 5 000 enseignants
et 60 000 élèves, en vue de sa généralisation à
la rentrée de 2007 ;
- la généralisation du brevet informatique et internet (B2i) et
la mise en place du certificat informatique et internet (niveau 2) pour la formation
des enseignants, qui sera obligatoire pour la validation de la formation en
IUFM en 2006-2007. ...
Conformément au souhait du président de la République,
la loi d'orientation sur l'école est en cours de préparation.
Le rapport qui conclut le travail de la commission animée par M.Thélot
doit être remis au Premier ministre et au ministre de l'éducation
nationale le 12 octobre. Les grandes orientations du projet de loi seront alors
arrêtées et rendues publiques dans le courant de l'automne. Le
Parlement sera saisi du projet de loi au début de l'année 2005.
"
D'ici 2007, le nombre de policiers et de gendarmes spécialisés dans la cybercriminalité passera de 300 à plus de 600, a annoncé le ministre, qui a rendu visite aux membres de l'Office de lutte contre la criminalité liée aux TIC (OCLCTIC) en compagnie du PDG de France Télécom.
L'ultrawideband (UWB) permet la transmission à très haut débit
de données par les ondes radio et dérive directement d'une technologie
plus connue du grand public : l'USB (Universal serial bus).
Longtemps réservée aux militaires et aux applications radar, cette
technologie devrait débarquer dans le commerce d'ici la fin de l'année,
intégrée à de nombreux appareils électroniques.
Telle est en tout cas l'ambition de Freescale semiconductor, filiale de Motorola
(Illinois). Les essais de cette société avec l'UWB lui ont permis
d'atteindre des débits de l'ordre de 110 Mégabits /sec, une performance
bien supérieure aux autres types de communications sans fil actuellement
sur le marché (100 fois plus que le Bluetooth et le double du WiFi).
Les ingénieurs pensent même obtenir des récepteurs/émetteurs
affichant une vitesse de 220 Mbits /sec d'ici la fin 2004.
Si la portée de l'UWB demeure faible (environ une dizaine de mètres),
sa consommation et ses coûts de production assez bas intéressent
beaucoup les industriels, notamment pour ce qui concerne la connectique domestique.
Certains obstacles restent toutefois à surmonter avant la généralisation
de l'ultrawideband. En effet, ses principaux promoteurs ne se sont pas encore
entendus sur la norme à adopter. Deux groupes tentent d'imposer leur
propre standard, l'un mené par Intel et Texas Instrument qui prône
un système multi- bandes où les signaux sont envoyés en
même temps sur toute une gamme de fréquence entre 3 et 10 Ghertz,
et l'autre par Motorola qui privilégie la solution à séquence
directe, c'est-à-dire un flux continu dans les fréquences allouées,
à l'instar du WiFi. Par ailleurs, certains pays européens et asiatiques
se montrent réticents à ouvrir leurs spectres radio, craignant
des interférences avec d'autres applications.
Ces difficultés n'entament pas pour autant l'enthousiasme des industriels
qui voient dans l'UWB la technologie sans fil des années à venir.
Selon le New York Times ( Semiconductors
offer a new way to cut the cord.) ( Communiqué par l'Ambassade de
France).
WiMax (World interoperability for microwave access), alias norme IEEE 802.16 est un standard de communication hertzien, pouvant atteindre par exemple 12 mégabits/seconde sur une distance de 20 kilomètres. Article signé d'Oliver Descamps dans Le monde informatique du 10 septembre.
On rencontre actuellement le terme de "coach numérique" dans deux sens différents, qui peuvent être complémentaires :
- Il s'agit d'une part d'une version actuelle du concept de domotique (Voir ce mot dans notre dictionnaire). DigitalWork de septembre y consacre un dossier de 9 pages. En résumé "Chaîner avec un seul câble tous ses équipements audio-vidéo, c'est la perspective offerte par les interfaces numériques. Seul souci, l'interface standard universelle n'a toujours pas été agréée par les principaux constructeurs. Le dossier fournit un glossaire des termes spécialisés : CTS, DVI, dynamique, HDCP, HDMI, firewire (ou ilink), luminance, ohm, progressif, SCAD, wifi, XLR.
- Dautre part, il s'agit d'une version cyber de l'ange gardien, cher à la tradition chrétienne. "Et si la simulation, actuelle coqueluche des chercheurs, portait en elle notre futur big brother personnel? Une sorte d’ange gardien techno capable de nous guider à travers les circonstances de la vie, de nous sauver du danger et peut-être aussi de prendre les commandes en cas de défaillance de notre part? Enquête dans les laboratoires d’avant-garde de l’EPFL". Le site.
(Selon Nodal) "Le photophone est un système de capture, de stockage et de transmission d'images fonctionnant sous Windows qui permet d'envoyer en quelques secondes des images vidéo de haute qualité via Internet, les réseaux téléphoniques standard ou cellulaires (c'est-à-dire GSM), les connexions RNIS, les liaisons par fréquence radio, les communications par satellite et les réseaux LAN ou WAN." On pourrait dire que photophone = smartphone + capteur photo...
Serge Leblal et Peter Pernsteiner écrivent dans Digitalworls de septembre 2004 " Les jours des appareils photo numériques sont comptés - au moins du point de vue des opérateurs de téléphonie mobile et des constructeurs de téléphones portables Car ils veulent faire du téléphone portable un mini-appareil photo, toujours à portée de main : prendre des instantanés à tout moment puis les envoyer partout dans le monde sous forme de MMS ou de cartes postales de vacances qui arrivent chez leur destinataire dès le lendemain". L'article fait une analyse critique et comparative des appareils disponibles à ce jour.
Note historique : rappelons que, le 3 juin 1880, Graham Bell donna le nom de photophone à son téléphone à transmission optique. Voir par exemple http://inventors.about.com/library/inventors/bltelephone3.htm
Les Journées "Internet pour le droit / Law via the Internet" se tiennent à Paris les 3 et 4 novembre. Renseignements.
En 1977, Carl Woese, de l'Université de l'Illinois, émettait pour la première fois l'hypothèse que toute vie descend de trois types de cellules : eucaryotes, bactéries (ou eubactéries) et archéobactéries. Aujourd'hui, l'idée d'un arbre du vivant composé de ces trois embranchements est communément acceptée mais l'origine de ces grands règnes reste sujette à controverse. En effet, il semble qu'aux premiers temps de la vie, les génomes aient fusionné les uns avec les autres, ce qui complique singulièrement le travail de reconstruction phylogénique des ordinateurs, plus à l'aise avec le schéma classique de division des embranchements.
Or, deux chercheurs de l'Université de Californie à Los Angeles (UCLA) ont justement réussi à élaborer un nouveau programme capable de "détricoter" la fusion de deux génomes. Appliqué à l'analyse des génomes complets de dix organismes primitifs, celui-ci a établi que les eucaryotes seraient nés de la réunion d'une ancienne bactérie photosynthétique et d'une cellule procaryote de type archaea. Un résultat qui concorde bien avec les échantillons fossiles connus (de 3,8 milliards d'années pour les plus vieilles eubactéries et de 1,4 milliards, donc beaucoup plus tard, pour les eucaryotes). Article du New York Times Team hopeful in ints effort to recreate primal life. Signalé par l'Ambassade de France.
L'explosion des outils, les incessants progrès des techniques de recherche, les nouvelles applications (comme les Weblogs, le RSS.), les travaux du Web sémantique. font que l'univers de la recherche d'information sur Internet est en constante ébullition, en transformation permanente depuis 10 ans et il est difficile, voire impossible, de faire un arrêt sur images ou de dresser un tableau complet, un état des lieux clair et ordonné des outils, des technologies et des évolutions qui les concernent. C'est pourtant ce que tente et réussit un article d'Alexandre Serres, maître de conférences en sciences de l'information et de la communication et coresponsable de l'Urfist de Rennes. J.B.
Architectures parallèles pour applications aéroportées. par J.-J. Julié et R. Sapienza. Hermès/Lavoisier. 180 pages, 45 euros.
Cet ouvrage cible le domaine particulier du traitement numérique du
signal pour les radars aéroportés militaires. Il propose aux ingénieurs
une approche pour le développement d'applications fortement contraintes.
Les solutions s'appuient sur l'expérience concrète acquise lors
du développement de radars pour de grands programmes comme Mirage 2000
et Rafale.
Les auteurs proposent une démarche progressive puis analysent l'aspect
implémentation sur une architecture multi-processeurs pour laquelle le
choix des médias de communication joue un rôle très important
au niveau de la performance du produit. Après avoir apporté un
certain nombre d'éléments permettant d'orienter les choix (Cots
ou non, calculs en fixe ou en flottant, etc.) ils complètent le parcours
en fournissant les bases de l'atelier permettant la programmation de tels calculateurs.
(Communiqué de l'éditeur)
Optique sans fil. Propagation et communication. par O. Bouchet, H. Sizun, C. Boisrobert, F. de Fornel de P.-N. Favennec. Hermès/Lavoisier. 203 pages, 50 euros.
Déjà utilisée pour les échanges d'informations courantes, cette technique de télécommunications qui présente de nombreux avantages (débits, coûts faibles, mobilité des matériels, sécurité...) va s'imposer et devenir incontournable dans des architectures informatiques et de télécommunications futures. L'objectif de cet ouvrage est de présenter l'optique en espace libre. Un historique sur les communications optiques sans fil et un rappel d'électromagnétisme appliqué à l'optique en espace libre sont tout d'abord présentées. Puis, les émetteurs et récepteurs des faisceaux optiques sont détaillés. Ils sont la base de toute communication optique et c'est par ces dispositifs que la progression des performances est devenue très sensible. Les problèmes de propagation des photons, que ce soit avec ou sans obstacles, sont largement développés. Ils sont la clé de toute bonne compréhension des systèmes modernes de communication utilisant l'optique non filaire. Les normes, les problèmes de sécurité et de confidentialité sont également traités. (Communiqué de l'éditeur)
Sécurité informatique. Numéro spécial de la revue RSTI-Technique et science informatique. Sous la direction de F. Cuppens et M. Rusinowitch. Hermès/Lavoisier, 150 pages, 45 euros.
Le domaine de la sécurité des systèmes d'information (SSI) concerne la conception et la validation de composants ayant pour objectif d'assurer la protection de ces systèmes. Aujourd'hui, de nombreux composants de sécurité sont disponibles, tels les protocoles cryptographiques, les infrastructures de gestion de clés publiques, les pare-feu, les contrôleurs d'accès aux systèmes d'exploitation et aux applications. Cependant, l'expérience montre que les mécanismes de protection sont à eux seuls insuffisants et qu'il faut les compléter par des systèmes de détection d'intrusions pour repérer les exploitations malveillantes des failles résiduelles.
Pour que ces différents composants soient efficaces, il faut les agencer de façon cohérente dans une architecture de sécurité, d'où la nécessité de définir des modèles de sécurité et des méthodologies pour évaluer et valider la sécurité.
Clés pour la sécurité des SI, par T. Harlé et F. Skrabacz. Hermès/Lavoisier, 382 pages, 60 euros.
Exposés aux menaces informatiques, soumis à des contraintes réglementaires, les systèmes d'information ont des enjeux de sécurité d'ordre stratégique. Les décisions de sécurité appartiennent aux responsables des systèmes, le devoir de conseil appartient aux experts. Les décisions supposent une compréhension partagée des besoins et des solutions de protection. Les responsables et les experts ont à connaître ces notions pour parvenir à un dialogue efficace. (Communiqué de l'éditeur)
Convaincre pour urbaniser le système d'information, par J.C. Bonne et A. Maddaloni. Hermès/Lavoisier, 224 pages, 45 euros.
Cet ouvrage est un témoignage qui retrace l'expérience et les premiers résultats obtenus par la mise en place d'une démarche d'urbanisme au sein de l'informatique de Renault. Les concepts et les méthodes détaillés ici sont ceux appliqués dans cette entreprise et dépassent donc largement le simple cadre théorique. Mais, au delà de cet aspect, c'est fondamentalement le travail de conviction qui doit être réalisé auprès des entités de la direction des systèmes d'information et des directions métier à l'échelle mondiale, qui est au coeur de l'ouvrage. Il faut arriver à convaincre chaque acteur d'un système d'information global pour atteindre un système d'information intégré, sans coutures, et performant. Cela passe par beaucoup d'explications, de communication, de soutien et de mise en visibilité des résultats de façon à entraîner la motivation. (Communiqué de l'éditeur)
Systèmes d'information pervasifs. Numéro spécial de la revue RSTI-Ingénierie des systèmes d'information 2/2004. Sous la direction de J.M. Pierson et R. Laurini.
L'ouvrage fait le point sur un domaine en pleine évolution, dont les
grandes problématiques sont :
- la mobilité des utilisateurs, qui rend difficile l'accès efficace
à l'information,
- la disponibilité non maîtrisée des équipements,
rendant délicat l'acheminement de l'information pour l'utilisateur,
- la multiplicité des équipements réseaux et des équipements
de consultation, qui nécessite une adaptation constante des contenus,
- la diversité des profils des utilisateurs (centres d'intérêt,
sécurité), qui doit être prise en compte,
- les systèmes d'optimisation des requêtes et des transactions,
qui doivent être totalement reconsidérés, ainsi que les
systèmes d'indexation.
La majeure partie des travaux regroupés dans ce numéro spécial mettent en évidence l'adaptation comme clé pour répondre aux défis posés. (Communiqué de l'éditeur).
Les réseaux bayésiens. Numéro spécial de la revue RSTI-Revue d'intelligence artificielle. 2/2004. Sous la direction de C. Gonzales. 330 pages, 54 euros.
Les réseaux bayésiens sont l'un des modèles les plus populaires de la communauté IA pour modéliser les incertitudes. Ils combinent en effet un encodage compact de distributions de probabilités et des mécanismes de calculs probabilistes très efficaces. Ils sont actuellement utilisés dans des domaines assez variés comme le diagnostic de panne, la modélisation d'utilisateur, l'aide à la décision médicale ou encore la robotique. Leur champ d'application est d'autant plus grand que le réseau peut être construit à partir de données hétérogènes provenant de sources elles aussi hétérogènes. L'encodage assure alors que ces données pourront être combinées de manière à produire des résultats toujours significatifs.
Depuis quelques années, les recherches tournent autour de trois axes
principaux, qui sont tous abordés dans ce numéro spécial
:
- la construction du réseau et en particulier l'apprentissage automatique
du réseau à partir de bases de données,
- les algorithmes de propagation d'informations dans le réseau, autrement
dit l'inférence probabiliste,
- l'utilisation pratique dans des problèmes industriels.
(Communiqué de l'éditeur)
Méthodes factorielles pour l'analyse de données. Méthodes linéaires et extensions non-linéaires. par M. Crucianu, J.P. Asselin de Beauville et J.-P. Boné. Hermès/Lavoisier, 288 pages, 60 euros.
Ce livre présente les principales méthodes d'analyse factorielle linéaire (analyse en composantes principales, analyse des correspondances binaires, analyse des correspondances multiples, analyse discriminante). Les méthodes d'analyse non linéaire des données, à base de noyaux (kernel principal component analysis, kernel discriminant analysis) ou à base de réseaux de neurones, sont également abordées. Des exemples d'application et des exercices avec leur solution ou des indications pour la solution sont associés à chaque méthode.
Complexité et approximation polynomiale, par V. Paschos. Hermès/Lavoisier, 272 pages, 75 euros.
Il n'est pas connu actuellement d'algorithme polynomial (rapide) capable de résoudre de façon optimale les problème NP-difficiles. Ce livre traite l'approximation polynomiale selon deux angles complémentaires : d'une part il met en évidence ses aspects opérationnels consistant à développer des stratégies efficientes pour la résolution d'un problème donné ; d'autre part, en s'appuyant sur l'outil le plus classique de la théorie de la complexité, les réductions, il tente de classifier les problèmes combinatoires par rapport à l'existence d'algorithmes garantissant un certain niveau de qualité de résolution. (D'après le communiqué de l'éditeur).
A quels moyens technologiques recourt un tutorat en voie d’industrialisation ? Comment s’organisent les médiations humaines face à de grands nombres d’apprenants ? Quelle division des tâches s’établit entre les acteurs institutionnels ? Quels sont les modes de rationalisation à l’œuvre ? Comment juge-t-on de l’efficacité des dispositifs ainsi construits ? Comment la pédagogie y trouve-t-elle sa place ?
C’est autour de ces questions, parmi d’autres, que chercheurs et praticiens, formateurs, tuteurs, responsables de formation, et tous ceux qui interviennent dans ce champ sont invités à participer aux débats qui se tiendront à l'Ecole supérieure de l’éducation nationale, à Poitiers, sur le site du Futuroscope, le jeudi 25 novembre 2004, lors du 1er colloque Eifad sur l’industrialisation du tutorat à distance co-organisé par la revue Distances et savoirs et Cned-Eifad.
Renseignemnents et inscriptions.Le site des IUFM comporte des pages consacrées aux TIC des pages spécialisées. Elles présentent des textes de référence, l'actualité des TIC, la question des jeunes docteurs (Circulaire n° 98-136 du 23-6-1998 ), des Actes de séminaires, conférences, ...(rien pour 2004), formation à distance et travail collaboratif... et les coordonnées des IUFM. Hélas, l'ensemble ne reflète pas un grand dynamisme.
Rubrique animée par Jacques Baudé
Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet Educnet.
"Il existe des sites Internet qui permettent de faire semblant de travailler. Les entreprises contre-attaquent", note Yann Philippin dans Le journal du dimanche du 22 août. Il signale les sites : laglande.com, faineant.com, et http://perso.wanadoo.fr/kab/glandeur/index.html. La rédaction de Stic-Hebdo, prise d'un désir certain d'aller faire la sieste, n'a pas eu le courage de vérifier ces URL. Toutes observations signalées par nos chers lecteurs seront aussitôt transmises à la DRH de leur entreprise ou de leur institution. P.B.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.