Stic-Hebdo |
No 64. 10 octobre 2005
Asti 2005. Du 24 au 25 octobre prochains.Rejoignez la communauté Stic à Clermont-Ferrand !Programme, hébergements... inscrivez-vous en ligne. |
Sommaire : Trois questions à Michel Serfati | L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Dans les entreprises et les administrations : | Manifestations | Bibliographie | Détente
"L'autonomie du symbolique, cela veut dire que le chercheur est en mesure de recevoir des informations en provenance du système symbolique, non directement corrélée à une signification."
Stic Hebdo : Vous venez de publier, aux éditions Petra "La révolution symbolique", où vous montrez, de Viète à Leibniz en passant par Descartes, la prise d'autonomie du texte symbolique par rapport au sens. Peut-on y voir une des racines lointaines de la machine informatique, poussant cette autonomie jusqu'à l'automatisme dans le traitement des symboles?
Michel Serfati. Ce livre découle de ma thèse de philosophie. Mathématicien de formation et de profession, j'ai longtemps considéré que la philosophie est quelque chose de vague. Puis j'ai été peu à peu convaincu, après un certain nombre d'expériences et d'échecs, que seule la philosophie permettait d'écrire ce genre de choses. Je dois cette découverte à mon directeur de thèse Jacques Bouveresse, qui était à l'époque professeur à Paris I, et qui est maintenant professeur au Collège de France.
Cette thèse n'aurait sans doute pas pu se faire en histoire , parce que la plupart des historiens ne prennent pas réellement en compte les préoccupations épistémologiques. Quand ils traitent d'histoire des mathématiques, ils font confiance aux mathématiciens, parce qu'ils ne sont pas en mesure de contester ce qu'ils lisent.
L'autonomie du symbolique, cela veut dire que le chercheur est en mesure de recevoir des informations en provenance du système symbolique, non directement corrélées à une signification.
Le pur "jeu" sur le symbolique peut produire des assemblages apparemment (ou momentanément) ambigus, contradictoires ou dénués de sens. Il est alors nécessaire qu'une épreuve de réalité vienne après-coup sanctionner la procédure (c'est-à-dire la ratifier ou non). C'est chez Leibniz que s'observe le mécanisme, pour la première fois dans l'histoire.
S.H. : Selon vous, la coupure serait irréductible : certaines écritures symboliques ne peuvent être exprimées sans contraction en écriture "rhétorique".
M.S. Oui, il y a dans certains cas un écart irréductible. Ce que demande Viète (et il faut regarder ce qu'il demande au delà de ce qu'il réclame de façon ostensible), c'est qu'il existe "de l'arbitraire et du fixé" à la fois, dont l'existence est gagée par l'écriture symbolique. Il demande à son lecteur de s'accorder avec lui sur cette convention.
La question posée par Viète a été reposée à la fin du XIXe et au début du XXe, où l'on voulait préciser logiquement les choses et elle s'est exprimée dans la controverse entre Russell et Frege sur le statut de la variable. Tous deux font une parfaite analyse des défauts de la situation. Frege, remarquable débatteur, est plus fort à ce jeu, et dit qu'un nombre ne peut pas être un protée mathématique, valoir un le mardi, deux le mercredi... Russell finit par dire "La lettre, c'est THE turning point, c'est la représentation du any, de l'indéfinissable. Mais le problème est plutôt qu'il est doublement définissable. On retrouve ces questions aussi dans la dialectique de Lebesgue à l'égard de Zermelo dans l'affaire de l'axiome du choix : il ne s'agit même pas d'un contradicteur possible, il s'agit d'être cohérent avec soi-même.
Tout l'art consiste à faire que cette convention soit intériorisée ; après, on calcule librement. Ce rapport que nous entretenons avec le système symbolique a été à la source de la formation d'une communauté, à savoir celle des mathématiciens, en même temps qu'il nous sépare des autres communautés. Le professeurs de mathématiques me comprennent très bien : ils rencontrent cette difficulté avec leurs élèves. Certains ne sont pas d'accord avec la convention initiatique. C'est elle qui, à mon avis, sépare les mathématiciens des autres communautés savantes.
Reste que la Géométrie de Descartes est le premier livre, dans l'histoire des mathématiques, qui soit directement lisible par les mathématiciens d'aujourd'hui (sous réserve du latin, mais ce n'est pas la question).
S.H. : La lecture de votre livre montre l'importance de Leibniz. En parcourant ses oeuvres, on voit qu'il disposait, en cette fin du XVIIe siècle, de toutes les briques constitutives de ce qu'on appelle aujourd'hui les Stic depuis le binaire jusqu'aux bases de données en passant, bien entendu, par le calcul "arithmétique". Le tout, certes, à l'état d'amorce seulement, faute de technologies appropriées, et en excluant les télécommunications. Pourquoi aura-t-il fallu attendre Von Neumann pour retrouver une vision aussi large ?
M.S. En tant que mathématicien, je ne me suis pas intéressé à sa machine à calculer. La question de la représentation binaire est une question qu'il a effectivement traitée, mais qui est mineure, chez lui. Ce qu'on peut dire, c'est que l'un des soucis de Leibniz était de calculer avec des choses et pas seulement avec des nombres, par exemple des cercles (abstraits tout de même, pas matériels) comme objets de calcul. Une autre réside dans ce que lui-même appelait la "pensée symbolique";
Vous lirez avec intérêt La sémiologie de Leibniz de Marcelo Dascal (Aubier-Montaigne, 1978). C'est lui qui met en avant un des textes que je cite, où Leibniz revendique l'autonomie du système symbolique.
Entre Leibniz et Von Neumann, il y a quand même un ouvrage central, Les lois de la pensée, de George Boole (1854. Traduction française, Vrin, 2002). Souleymane Bachir Diagne en a fait un excellent commentaire dans L'oiseau de nuit en plein jour (Belin, 1989).
Propos recueillis par Pierre Berger
Le contrôle parental par défaut bientôt obligatoire sur le Web ?
Le gouvernement et les associations de défense des droits des enfants vont élaborer un texte qui obligera les fournisseurs d'accès Internet à proposer automatiquement et par défaut un service de contrôle parental. Selon La Tribune.
Chercheurs et ingénieurs feront le point à l’occasion des 6e journées nationales de micro-nanotechnologies et nanosciences, du 10 au 12 octobre 2005. « Les nanosciences au CNRS » : www.spm.cnrs-dir.fr/nanosciences
Le nom de nanosciences et nanotechnologies désigne des procédés qui permettent d’observer ou d’intervenir à l’échelle du nanomètre (10-9 mètre). Plusieurs départements du CNRS sont concernés, notamment en électronique, photonique, mais aussi études des matériaux et structures, sans parler des applications biologiques et environnementales. En Europe, les nanotechnologies sont un objectif majeur du 6e PRCD (Programme cadre de recherche et développement) avec 10% du budget. En France, l’ANR (Agence nationale de la recherche) a propulsé le programme national « Nanosciences et nanotechnologies » au rang des secteur prioritaires.
Les premiers pas dans le nanomonde ont été franchis dans les années 1980 avec la découverte du microscope à effet tunnel (STM). Les nanotechnologies s’opposent à la microélectronique par l’approche « bottom-up ». Au lieu de partir d’un objet massif et de réduire sa taille selon divers procédés, comme la lithographie optique (approche « top-down »), les nanotechnologies construisent des structures artificielles (molécules de synthèse, agrégats, nanotubes, nanofils, nanocouches...) à partir d’atomes ou de molécules.
En électronique, les nanotechnologies visent un gain de rapidité, et surtout de nouvelles fonctions. « On peut imaginer des circuits capables de s’agencer, de se connecter et de s’autoconfigurer pour s’adapter à la tâche », indique Daniel Bouchier, directeur de recherche CNRS à l’IEF (Institut d’électronique fondamentale, Orsay).
Quelques exemples : miniaturiser le transistor MOS en utilisant une mémoire « ultime » constituée d’un nanocristal où le bit d’information serait réduit à un seul électron qui commanderait la grille du transistor (projet européen NanoCMOS) ; avec les nanofils et nanotubes, « nous pouvons espérer refaire toute l’électronique des semi-conducteurs », lance Didier Stievenard, directeur adjoint de l’IEMN de Lille, qui fabrique et caractérise certains types de nanofils ; on peut exploiter les propriétés de certaines molécules d’auto-organisation et d’auto-assemblage, ou d’exister dans 2 états auxquels ont peut associer les valeurs 0 et 1. Autre voie de recherche : utiliser non seulement la charge des électrons, mais aussi leur spin pour stocker l’information et réaliser des mémoires plus denses et non volatiles.
Face aux nombreuses interrogations suscitées par les nanotechnologies, le Comets (Comité d’éthique du CNRS) s’est autosaisi de la question en mai dernier et rendra son avis en 2006. A l’image d’autre recherches qui ont une influence sur notre société (OGM, déchets nucléaire, par exemple), « les nanotechnologies réclament d’abord une régulation et une adaptation des réglementations », souligne Pierre Léna, astrophysicien et président du Comets.
Claire Rémy
NDLR : Signalons la parution de La nanophotonique, sous la direction de H. Rigneault, J.-M Lourtioz, C. Delalande et A. Levenson. Hermès/Lavoisier, 352 pages, 70 euros. Cette discipline émergence cherche à maîtriser et façonner les champs optiques à des échelles sub-longueurs d'onde.
L' Ahti organise, le mercredi 16 novembre à 17 h à l' ENST (46 rue Barrault à Paris) une journée A l’origine de la téléphonie mobile.
Il s’est écoulé près de quarante ans, de 1955 à 1993, entre le premier téléphone
de voiture et la téléphonie portable à la norme GSM opérationnelle en France.
C’est cette période, ses étapes, ses succès et ses échecs qui seront examinés
lors de cette réunion, qui a été préparée avec Jean Grenier, ingénieur
général des télécom. Les principales étapes de cette période
sont les suivantes :
- 1955, création d’un service de radiotéléphone de voiture,
- 1973, automatisation du radiotéléphone,
- 1976, ouverture de la radiomessagerie Eurosignal,
- 1981, lancement au Cnet du projet numérique Marathon,
- 1981, mise en service du système cellulaire nordique NMT,
- 1982, création du GSM (Groupe spécial mobile) à la CEPT,
- 1986, lancement à Paris du téléphone de voiture Radiocom 2000,
- 1992, ouverture du service Pointel de communications urbaines,
- 1993, ouverture commerciale du service GSM sur le réseau public.
Des évolutions convergentes ont permis le passage du radiotéléphone manuel, marché de niche, au portable GSM, marché de masse. La transmission numérique et l’architecture cellulaire ont accru la qualité de service et l’efficacité d’utilisation des fréquences. Les opérateurs et industriels européens se sont mis d’accord sur une norme internationale. Les méthodes de commercialisation ont évolué : subventions aux terminaux et cartes prépayées. La microélectronique a permis, avec une transmission complexe, des terminaux compacts et peu chers. Mais la DGT (Direction générale des télécommunications, ancêtre de France Télécom) n’a pris en compte sérieusement la téléphonie mobile portable qu’au début des années 1990.
La réunion est organisée en courtes interventions portant sur des moments essentiels,
avant un débat général. Au programme :
- Le radiotéléphone de voiture,
- Pointel, premier téléphone portatif,
- La genèse de la norme GSM,
- Le projet Marathon, numérisation du radiotéléphone,
- Le GSM, succès de la coopération européenne.
Le numéro 33 de la revue Modulad) est paru. Au sommaire
:
- Comparaison de manuscrits sanskrits (édition critique et classification),
- Évolution du prix de vente du lait entre 1946 et 1957, exemple d'utilisation
de l'analyse en composantes principales dans la discipline historique,
- La régression PLS 1, cas particulier de la RLSO (régression
linéaire séquentielle orthogonale),
- Planification d'expériences numériques, une nouvelle approche
du sondage aléatoire simple,
- Former les étudiants et les chercheurs aux méthodes bayésiennes
pour l'analyse des données expérimentales,
- Etude comparative de logiciels de prévision automatique de séries
chronologiques,
- Courbotree, une méthode de classification de courbes appliquée
au load profiling",
- Tutoriels, notules, logiciels.
Une journée d'études Littérature numérique : pratiques créatives d?écriture et de lecture est organisée par Evelyne Broudoux, Philippe Bootz et Jean Clément, le 20 octobre à Paris 8 (9 heures) . Le site.
Résumé. Depuis de plus de vingt ans, une production d'oeuvres à lire sur écran intègre les médias textuels, sonores et visuels dans un espace-temps dont la maîtrise est quelquefois laissée au lecteur. En quoi se distingue-t-elle de la littérature imprimée ?
Différentes appellations ont donné à voir une diversification des pratiques littéraires informatiques (génération de textes, écriture hypertextuelle, poésie animée, net-art, art programmé). Dans quelle mesure ces pratiques renouvellent-elles des genres établis ? En définissent-elles de nouveaux ?
Quelles sont les caractéristiques esthétiques spécifiques aux oeuvres de littérature numérique ? Il s'agira de montrer comment l'interactivité, l'intersémiotique des médias, l'interprétation sous forme de performances des textes littéraires numériques entrent en résonance pour faire oeuvre.
La prise en compte des critères techniques et communicationnels dans la constitution des oeuvres pourrait constituer une première catégorisation ; celles du design graphique, du récit filmique, du jeu interactif et de l'architecture virtuelle devraient apporter des indices pour constituer un classement. La littérature renouvelle les jeux de l'auteur et du lecteur. On peut se demander en quoi l'artefact technique communicationnel modifie les relations auteur/lecteur. Si les contraintes techniques d'écriture formatent des formes spécifiques de lecture ou d'écriture, dans quelle mesure la question littéraire peut-elle encore être abordée uniquement à partir de son observable écranique ? Quelles sont alors les frontières de la littérature numérique avec les arts numériques ?
Poésie sans lecture (Philippe Bootz ,Université de Paris 8). L'évolution générale de la poésie au XX° siècle l'a progressivement éloignée de la littérature pour la transformer en un art sémiotique général. Elle traite spécifiquement de la question du signe dans l'environnement social et technique. Elle en interroge les trois pôles : sa nature sémiotique, la relation qu'il entretient avec le producteur du stimulus et celle qu'il a avec celui qui décide de lui attribuer un sens, qui l'érige en signe.
Dansun médium programmatique, le signe devient performatif. Il acquiert de nouvelles propriétés dont la principale est la dualité : un signe programmatique ne peut exister sans le signe observable qu'il produit mais ces deux signes sont fondamentalement différents. Dès lors, la question de l'adressage d'un tel signe et celle de sa réception doivent être traitées selon des approches non standards. Pour qui est-ce un signe ? quel signe est destiné au lecteur ? Dans une telle situation, il est tout à fait possible de construire des oeuvres pour lesquelles les caractères sémiotiques et esthétiques profonds ne sont plus accessibles à la lecture : la lecture devient une activité limitée qui échoue à connaître l'oeuvre. Un nouvel acteur s'impose dans la création du sens : le méta-lecteur. L'intervention présentera la façon dont s'insère ce rôle dans le dispositif de certaines oeuvres et présentera quelques exemples d'oeuvres qui fonctionnent sur la méta-lecture.
Les récits interactifs sur le web (Serge Bouchardon, Université de technologie de Compiègne). L'expression « récit interactif » semble relever d'une contradiction : comment concilier narrativité et interactivité ? Parmi les récits interactifs, le récit littéraire, qu'il soit hypertextuel, cinétique, génératif ou collectif, en particulier sur cet espace ouvert et complexe qu'est le web, correspond par là même à un vaste champ d'expérimentation plus qu'à un genre autonome. Les auteurs s'efforcent ainsi d'exploiter le support numérique et le dispositif technique dans son ensemble à des fins narratives, en faisant appel à des procédés mêlant jeu sur les frontières, fictionalisation et réflexivité. Mais plus que dans la qualité des réalisations, l?intérêt principal de ce type de récits réside dans sa valeur d'objet heuristique : le récit littéraire interactif permet d?interroger le récit dans son rapport au support, mais aussi d?interroger la littérature elle-même.
L'intention de l'auteur littéraire numérique (Evelyne Broudoux, Université de Versailles-Saint-Quentin). Cette communication présente le lancement d'un travail sur la réception de l'intention d'auteur dans les travaux de littérature numérique. Sera présentée et soumise à discussion un questionnaire à destination d'étudiants à partir d'oeuvres représentatives de genres existants sur le web ou sur cd-rom.
Littérature en ligne, hypertexte et récit de voyage
(Isabelle Escolin, Université de Nantes) Le renvoi au néant des
récits de voyage en ligne par un article récent du Monde des livres
atteste d'un malaise devant le développement d'une pratique amateur,
la multiplication de carnets et de journaux de voyage au format numérique,
destinés ou non à la publication imprimée, qu'une forte
émulation et un encouragement institutionnel et éditorial appuyés
accompagnent au titre de l'appropriation par tous des outils de l'écriture
multimédia.
Le genre viatique, caractérisé par une longue historicité
(antérieure au roman), un canon traversé par des tensions entre
les pôles de l'extériorité et de l'intériorité,
est d'une littérarité incertaine : on peut tenir son appartenance
au champ littéraire pour une décision du regard porté par
le lecteur tout autant que de l'intention première de l'auteur-voyageur.
De plus il porte en creux sa mise en cause par les écrivains : écriture
d'un déplacement imaginaire (« voyage immobile ») ou réécriture
plus fréquente qu'on ne le croit de fragments allographes.
Nous montrons à partir d'exemples d'oeuvres adaptées de l'imprimé
les liens privilégiés du récit de voyage avec l'hypertexte,
puis nous déterminons quels éléments modéliser pour
l?interprétation de récits de voyage créés par et
pour le réseau, lesquels font appel à de nouveaux dispositifs
de captation du réel, aux ressources de la numérisation, de la
génération du texte et de l'image, de l'aléatoire, de la
temporalité du réseau. La question des possibilités du
voyage lui-même et de son récit est posée depuis longtemps,
notamment dans la thématique de la dérive situationniste. En cherchant
quels sont les éléments de rupture et de continuité dans
le changement de support, nous nous demanderons si ce genre réinvesti
acquiert sur le réseau une autonomie esthétique.
Prolègomènes à une méthodologie d'approche
critique des oeuvres de littérature informatique (Xavier Malbreil).L'informatique
a permis l'émergence d'un nouvelle littérature, après la
littérature orale et la littérature écrite, une littérature
de plus en plus éloignée du modèle du livre. Produite de
façon tout à fait spécifique sur ordinateur, et ne pouvant
être reçue que par le biais de cet appareillage, la littérature
informatique a déjà une histoire, un public, certes restreint
mais exigeant, elle mérite également une approche critique méthodologique
- afin tout à la fois d'en faciliter l'accès au grand public,
et de pouvoir en rendre compte dans les meilleures conditions. Le travail de
recherche présenté ici est basé sur des cas précis
d'analyse d'oeuvres de littérature informatique. Comment des lecteurs
au fait de procédures et de modes de création informatiques peuvent-ils
appréhender ces objets esthétiques nouveaux, et peut-on dégager
peu à peu une méthodologie d'approche critique des oeuvres de
littérature informatique? L'oeuvre de littérature informatique,
parce qu'elle repose sur l'actualisation d'un fichier numérique, et que
sa visualisation ne sera jamais tout à fait identique, peut-elle faire
l'objet d'une critique méthodologique?
Contact : E. Broudoux. Site Paris 8.
Après des années de course effrénée à la puissance, le fondeur Intel semble vouloir changer de stratégie et miser sur la réduction de la consommation électrique de ses processeurs. Il laisse ainsi de côté la notion de fréquence d'horloge pour se focaliser sur l'économie d'énergie. Actuellement, les processus de calcul ne comptent que pour moitié dans la consommation électrique d'une puce ; le reste du courant est dissipé dans les circuits et les jonctions en état de veille. La société de microélectronique a donc annoncé la mise au point d'un nouveau prototype de processeur gravé en 65 nm, baptisé P1265, offrant une réduction d'un facteur 1000 de la perte d'énergie par rapport à ses produits actuels.
Cette nouvelle génération de processeur est attendue sur le marché grand public pour 2007, date de sortie annoncée de la prochaine génération de processeurs Intel comme le Merom, qui devrait consommer 10 fois moins d’énergie que les Pentium mobile. Destinée à équiper agendas électroniques, téléphones et autres ordinateurs portables, elle reposera sur une architecture double noyau et sera capable d'exécuter des instructions en 64 bits. L'objectif d'Intel est de fournir à la fin de cette décennie des puces ne consommant que 0,5 watts au lieu d'une dizaine aujourd'hui. Selon le New York Times. Communiqué par l'ambassade de France
Cryptographie. Principes et mises en oeuvre. par P. Barthélémy, R. Rolland et P. Véron. Hermès/Lavoisier, 416 pages, 85 euros.
Sous forme d'un cours de cryptographie générale, l'ouvrage expose l'état actuel des solutions, présente et analyse les méthodes, décrit les techniques mathématiques et les principales primitives. Les fonctionnalités de base (chiffrement, signature, authentification) sont éudiées dans le cadre de la cryptographie à clé publique et à clé secrète. L'interaction de ces notions est analysée ainsi que leur mise en oeuvre, les attaques et le domaine, en plein essor, des preuves de sécurité.
Commande vectorielle sans capteur des machines asynchrones. Contrôle et observation. Par C. Chaigne, E. Etien, S. Cauët et L. Rambault. Hermès/Lavoisier, 336 pages, 70 euros.
Les variateurs de vitesse industriels intègrent de nouvelles contraintes comme l'asservissementde vitesse sans codeur incrémental. Il est alors nécessaire d'avoir recours à des techniques d'observation au sens de l'automatique pour estimer la vitesse à partir des informations recueillies par la mesure des courants statoriques. Les disciplines de l'automatique et de l'électrotechique se mêlent étroitement pour répondre à des exigences de plus en plus élevées.
Sur ce thème, on peut relire l'interview de Jean-Paul Louis dans notre
numéro Interview de Jean-Paul Louis SH No 35, auteur des ouvrages
- Modélisation des machines électriques en vue de leur commande.
Concepts généraux. Traité Egem. Sous la direction
de J.P. Louis. Hermès/Lavoisier 2004
- Modèles pour la commande des actionneurs électriques.
Traité Egem. Sous la direction de J.P. Louis. Hermès/Lavoisier
2004.
Métaheuristiques pour l'optimisation difficile, sous la direction de P. Siarry et E. Talbi. Hermès/Lavoisier, 200 pages, 100 euros.
Ce numéro spécial de la revue RS-Jesa (Journal européen des systèmes automatisés) s'intéresse à un groupe de méthodes, dénommées métaheuristiques, comprenant notamment la méthode du recuit simulé, les algorithmes évolutionnaires, la méthode de recherche tabou, les algorithmes de colonies de fourmis... apparues, à partir des années 1980, avec une ambition commune : résoudre au mieux les problèmes dits d'optimisation difficile.
Patrick Siarry est bien connu de nos lecteurs. Voir l'article qui lui est consacré dans notre dictionnaire.
Optimisation combinatoire. Vol. 3. Applications. Sous la direction de V.T. Paschos. Hermès/Lavoisier 384 pages, 130 euros.
Faisant suite aux deux premiers volumes, consacré à des concepts fondametnaux (volume 1) et avancés (volume 2), ce troisième volume traite des applications de l'optimisation combinatoire, classiques mais toujours d'actualité. Ses chapitres sont consacrée à des problèmes comme la construction de rotations d'équipage dans le transport aérien, le transport de marchandises et leur planification, l'optimisation parallèle, le placement de tâches en programmation parallèle, l'affectation multicritère des tâches à des processeurs hétérogènes et sa robustesse, la planification de production, la modélisation et optimisation des problèmes de synthèse de réseaux, etc.
Kirtas technologies a mis au point une machine capable de traiter assez rapidement (40 pages par minute) des ouvrages variés, en les manipulant avec précaution. On la voit en fonctionnement sur le site de la société. L'information, et ses relations avec le projet Google print, est présentée par Michel Alberganti dans une demi-page du Monde (30 septembre).
Les premières journées Communication et apprentissage instrumentés en réseau (Jocair 2006).se tiendront du 5 au 7 juillet 2006 à Amiens (France), organisées par Mohamed Sidir, Georges Louis Baron et Eric Bruillard.
La diffusion croissante d’outils de communication en réseau, de type synchrone et asynchrone (chats, forums, SMS, blogs, wikis…), s’accompagne de l’émergence de nouvelles pratiques sociales et pose une série de questions de recherche insistantes et difficiles, notamment du fait du renouvellement incessant des technologies et de la grande variabilité des contextes dans lesquels elles se déploient. En éducation et en formation, ces questions ont un large spectre. Elles donnent lieu, en France et à l’étranger, à un flux d’études et de recherches pluridisciplinaires conduites aussi bien par des chercheurs, intéressés à comprendre comment sont conçus de nouveaux outils, comment certains apprentissages peuvent être favorisés, comment les processus de communication éducative sont modifiés, que par des praticiens, devant apporter rapidement des solutions réalistes à des problèmes pratiques, ou conjointement par chercheurs et praticiens sous forme de recherche-action.
En janvier 2005, un symposium international francophone a réuni à l’Université d’Amiens un nombre significatif d’acteurs du domaine sur la question des forums. Il a permis de faire le point et de dégager des pistes de recherche intéressantes et montré la nécessité de confronter les travaux actuels autour de la médiatisation par les TIC de la communication éducative et de l’apprentissage instrumentés en réseau. Ce colloque se situe dans le prolongement du symposium. Il s’intéresse au domaine spécifique de la mise en œuvre de modalités de formation ayant recours à des instruments informatisés de communication. Il vise à mieux comprendre comment la communication instrumentée par ces nouveaux outils se déploie dans certaines phases de formations ainsi que dans certaines activités d’élaboration ou d’échange de connaissances en contexte de travail.
Son objectif principal est de mettre en perspective les travaux réalisés par des chercheurs et des praticiens en recherche, d’élaborer une synthèse de leurs résultats, d’identifier des questions problématiques et les cadres méthodologiques les mieux à même de fournir des pistes pour des travaux ultérieurs.
- Un forum sera organisé sur les pratiques actuelles du contexte de
l’industrialisation et de la marchandisation de/dans l’éducation
et la formation.
- Une séance Poster/Démonstration présentera quelques usages
des TIC en milieu éducatif. Chaque proposition comprendra un descriptif,
le public, la durée, les éléments saillants, les questions
qui se posent…
Date limite de soumission des propositions de communication : 15 janvier 2006. Contacdt. Inscriptions et appuis.
L'assistance scolaire est en plein essor. Pour garantir l'égalité des chances entre tous les enfants, le ministère de l'Éducation nationale organisera un séminaire national autour du thème Accompagnement à la scolarité, égalité des chances et TIC les 28 et 29 novembre Le site. Communiqué par la Diffusion Paris 7.
Albert Claude Behamou écrit dans le Monde du 01/10/05 : " Le nouvel
art d'enseigner doit se développer sur une synthèse bien comprise
entre la pédagogie classique et la pédagogie numérique,
sur un mode hybride qui associe les vertus du "présentiel"
et du "distanciel". Nous pouvons apporter, ici, le témoignage
de la première des universités numériques thématiques
nationales (UNT) en France, celui de l'Université médicale virtuelle
francophone (UMVF) laquelle se consacre à la médecine. Elle capitalise
et mutualise les productions numériques de 27 universités sur
les 32 qui enseignent la médecine en France. L'UMVF n'est pas une
université de substitution. On ne s'y inscrit pas et elle ne délivre
pas de diplôme. Le partage démocratique des ressources y a été
admis : les accès sont gratuits. Les communautés nationales d'enseignants
par discipline fabriquent les référentiels d'enseignement et garantissent
la qualité et la pertinence des productions adaptées aux besoins
des formations des professionnels de santé. " ...
Le site del'UMVF.
Au sujet de la rentrée universitaire 2005, le ministère a mis
en ligne une dossier (PDF, 332 Ko) qui présente :
- les chiffres clés de l'enseignement supérieur,
- la politique de formation,
- la politique documentaire,
- la vie étudiante.
Le dossier
Regards sur l'éducation. Les indicateurs de l'OCDE (Édition 2005). Éditions OCDE; septembre 2005; en français; 464 pages; 58 Euros.
Dans tous les pays de l'OCDE, les gouvernements cherchent à accroître l' efficacité de leur système éducatif tout en s'employant à trouver des ressources supplémentaires pour faire face à la demande grandissante de formation. Conçue pour permettre aux pays d'évaluer la performance de leur système d'enseignement à la lumière de celles d'autres pays, l'édition 2005 de "Regards sur l'éducation" présente une imposante batterie d'indicateurs actualisés et comparables sur les résultats des systèmes éducatifs. Ces indicateurs sont le fruit d'une concertation entre spécialistes sur la façon de mesurer l'état actuel de l'éducation à l'échelle internationale. La base complète de données statistiques sur l'éducation, d'où sont extraites les données de "Regards sur l'éducation 2005", est disponible sur la bibliothèque.
Paris 7 signale que le guide des aides aux formations doctorales et post-doctorales de l'Andès est en ligne.
Les dépenses des bibliothèques de recherche pour les périodiques
électroniques dépassent pour la première fois celles consacrées
aux périodiques imprimés
Le communiqué
de l'Asted. Source Université
du Québec , signalé par Jean
Grisel (Paris 7).
L'expérience d'un utilisateur (Michel Volle) avec le logiciel, Latex. . Du vécu sur le vif. Conclusion "Dans quelques semaines ou quelques mois j’utiliserai LaTeX de façon réflexe, avec le même naturel que lorsque j’utilise Word. J’aurai oublié l'apprentissage durant lequel je me suis montré si parfaitement niais. Je saurai où trouver de l’aide en cas de problème. J’aurai du mal à comprendre les personnes qui n’utilisent pas LaTeX, parmi lesquelles je me suis pourtant trouvé pendant une vingtaine d'années. Je ne concevrai pas les difficultés que rencontre un bizut et, à l’occasion, je manquerai de patience envers lui. Bref : je serai devenu un utilisateur normal, personnage entièrement différent de l’utilisateur débutant. "
Comme tout travail d'enquête, celui-ci a le mérite d'avoir été effectué et d'être rendu disponible à tous; il va susciter de nouvelles questions, de nouvelles demandes. Il va alimenter des débats qui ne seront pas sans conséquence sur l'avenir technologique des collectivités publiques. Il est édité par la mission Ecoter/Apronet.
Le dossier(1034 pages - PDF - 505 Ko)Offshore : les SSII françaises ont perdu leurs complexes, titre Le monde informatique du 30 septembre, pour un dossier signé principalement par Reynald Fléchaux. Résumé : "Depuis le contrat ABN Amro, les SSII indiennes ont montré leur capacité à se positionner sur les gros appels d'offres européens. Les mastodontes du service présents en France répliquent en mettant en place des modèles mêlant offshore, nearshore et services de proximité".
Le plan d'action TIC-PME 2010. " La mise en place par le ministère
de l'Economie, des finances et de l'industrie d'un plan d'action TIC-PME 2010
a pour objectif de renforcer la compétitivité des PME par un meilleur
usage des technologies de l' information et de la communication." ... "
Soutenir localement, avec l'aide des Drire et des CCI des actions d'assistance
à maîtrise d'ouvrage destinées à aider les entreprises
à mettre en place les réformes nécessaires pour intégrer
les TIC dans leurs processus internes et les relations avec leurs clients et
fournisseurs, en favorisant la diffusion des outils technologiques les plus
performants dans les entreprises, et en veillant à ce que l'accompagnement
du changement soit au coeur des progrès des entreprises (formation, mais
aussi réorganisations internes et relations entreprises-clients-fournisseurs).
"
Le document.
Note de l'EPI : Et si cela nécessitait une "culture informatique
et TIC" largement partagée qui n'existe pas faute d'une formation
satisfaisante des citoyens par le système éducatif ? J.B.
Consultez le site des associations membres de l'Asti, où vous trouverez les manifestations qu'elles organisent.
Pour les manifestations TIC en rapport avec l'enseignement et la formation, consulter le site Educnet.
Les 18 èmes journées internationales ICSSEA se tiendront à
Paris (Cnam) du 29 novembre au 1er décembre). Le programme est maintenant
disponible. 16
sessions traiteront des sujets suivants :
- ingénierie de systèmes,
- architectures orientées services,
- services web,
- ingénierie guidée par les modèles,
- modélisation,
- conduite de projets,
- gestion de risques de projets,
- processus d'entreprise et systèmes d'information,
- amélioration de processus,
- test de logiciels et de systèmes,
- vérification et validation,
- composants et réutilisation,
- ingénierie des exigences,
- formation et certification des ingénieurs.
L'aventure Gamma 60. Sous la direction de J. Bourboulon. Hermès/Lavoisier, 416 pages, 90 euros.
Le Gamma 60 a été le premier "grand ensemble électronique" européen. Annoncé par la Compagnies des machines Bull en 1956, il a été livré en clientèle de 1960 à 1965 en France, en Belgique, en Italie et au Japon. Les deux derniers ont été en service en Belgique jusqu'en 1974. Débordant d'innovations architecturales, matérielles et logicielles, il était le premier ordinateur au monde doté de plusieurs organes de traitement fonctionnant simultanément.
La FEB (Fédération des équipes Bull) est une association 1901 composée uniquement de bénévoles et chargée par Bull de son patrimoine historique. Sous la direction de José Bourboulon, elle a retrouvé et réuni les signatures et les témoignages d'une cinquantaine d'acteurs de l'époque, créateurs, fabricants, vendeurs, installateurs, dépanneurs ou clients, qui racontent ce que fut pour eux cette "aventure".
Bertrand Lemaire nous signale que la chanson signalée dans notre précédent numéro est une oeuvre des Chanson Plus Bifluorée, comme le signale son blog.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Collaborateurs : Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.