Sommaire : ACTES DE NOTRE JOURNEE DU 15 MAI. Dans ce numéro, les interventions de : Claude Gueguen (GET), Jean-François Pépin (Cigref), Jacques Baudé (EPI), Philippe Renard (CStic).
Théories et concepts | Enseignement | La recherche en pratique | Manifestations | Le livre de la semaine | Détente.
|
|
|
|
Participez à l'enquête "Stic, recherche et éthique" : d'un simple clic téléchargez le questionnaire élaboré par le groupe de travail. Votre participation aidera le groupe à définir le cadre de sa réflexion en partant de vos pratiques et en intégrant vos souhaits et suggestions que nous vous invitons à formuler. Nous vous demandons de répondre à ce questionnaire sous forme électronique, et le cas échéant de le complé par toute information ou document utile. Vous pouvez nous contacter pour un complément d'informations au (01) 41 74 06 19 ou à l'adresse électronique : marcheix@club-internet.fr. Les résultats seront publiés sans mention nominative et les données ne seront conservées que le temps du traitement. Nous vous remercions par avance de votre collaboration. Annie Marcheix. |
Ce mardi 28 mai, pas d'Asti-Dej. Sur vos agendas : 11 juin, assemblée générale de l'Asti. |
Comme vous allez le voir, tant la prudence que nous avons manifestée pour traiter d'épistémologie que la problématique terminologique d'aujourd'hui étaient déjà d'actualité en 1904. Edouard Estaunié commente en effet le mot "télécommunication" comme suit ; "J'ai dû ajouter un mot nouveau à un glossaire déjà trop riche aux yeux de nombreux électriciens. J'espère qu'on voudra bien me le pardonner. Les mots naissent, dans les sciences neuves, comme les plantes au printemps. Il faut s'y résigner, et il n'y a que demi-mal puisque l'été qui doit suivre se chargera d'élaguer les mauvaises pousses".
C'était un homme de culture, un des premiers directeurs de l'Ecole nationale supérieure des télécommunications (qui ne s'appelait pas tout à fait comme cela à l'époque). Il a écrit un certain nombre d'ouvrages qui ne sont pas spécialement des ouvrages scientifiques.
Il est important de se rendre compte que les biens informationnels ont une logique particulière, une logique qui ne répond pas aux critères habituels du marché. Ce ne sont pas des biens que l'on vend, ou que l'on s'approprie exactement comme les autres. Aujourd'hui on s'aperçoit que l'on peut les diffuser à coût zéro (enfin presque). Leur valeur, leur utilité au sens des économistes, est inconnue au moment où on les crée, où on les acquiert,. C'est ensuite seulement qu'on juge de leur valeur. Pour fixer un prix à l'information il faut se référer à l'expérience, et non pas la sienne propre, mais celle des autres. Il faut donc faire partie d'une communauté qui permet d'en estimer la valeur.
Les biens culturels ne sont pas des choses qui remplissent toutes leurs fonctions à l'instant de leur acquisition. Ils sont l'intégrale de toutes leurs acquisitions successives. Pour comprendre la valeur de l'art abstrait, par exemple, il faut commencer par s'y former. Il s'agit aussi de biens complexes, qui sont toujours l'assemblage d'un certain nombre de parties : parties de système, parties de logiciel, .. etc. De plus en plus, ce sont des biens co-produits. Ils ne vous sont pas délivrés par quelqu'un : vous devez participer à leur création.
La qualité spécifique de ces biens fait que les règles habituelles du marché ne s'y appliquent pas tout à fait et que beaucoup de choses doivent être remises en question quant à la manière de les vendre et de se les approprier. En particulier, quand vous vendez de l'information, vous ne vous en privez pas pour autant, vous ne l'aliénez pas.
Et pourtant nous sommes tous convaincus qu'il y a derrière tout cela des enjeux stratégiques, en termes d'économie, en termes de stratégie nationale, en termes de culture. Et derrière la culture il y a la langue.
Ces exigences, c'est d'abord de pouvoir communiquer en tous lieux, de ne plus avoir de fil à la patte, de communiquer de tous à tous (Ce n'est pas facile, ce n'est pas encore réalisé, mais c'est une volonté exprimée).
Nous voulons aussi communiquer de manière symétrique, de pair a pair. On ne se contente plus d'une interaction minimale, on veut avoir des canaux complètement réversibles.
Nous voulons également de la personnalisation, que ce soient nos propres données que nous retrouvions partout, que nous puissions les transporter avec nous. Enfin, ces données il reste encore à les sécuriser.
Donc le paradigme de la communication, marqué par le paradigme de l'objet, n'est plus la transmission des informations. L'information est quelque part, "en tas", au milieu d'un réseau. Tout autour, il y a des interlocuteurs, des partenaires. Tous veulent utiliser cet objet et le déformer. C'est cela l'acte de communication. Chacun parcourt l'objet placé au centre, avec un sens de lecture qui sera le sien à un moment donné, éclaire tantôt une partie du modèle, tantôt une autre...
Imaginez des architectes et des maîtres d'ouvrage travaillant sur un projet. Au milieu du groupe, il y a un domaine commun, le projet architectural. Les partenaires veulent le modifier: augmenter les dimensions de tel passage, réduire la hauteur des fenêtres... En arrière plan, l'objet se recalcule après déformation, prenant en compte de nombreux paramètres (éclairage, chauffage..). C'est un dialogue multilatéral. Et qui peut d'ailleurs se passer de mots. Mais chacun tire dans son sens, rencontre des contraintes d'élasticité intégrées par le domaine..., jusqu'à l'obtention d'un consensus.
La communication du futur est donc un objet que l'on partage avec à un très grand nombre de personnes et avec lequel on interagit.
L'enjeu est crucial. Les études de prospective en matière de télécommunications se sont trompées sur des points majeurs. Pensons à l'UMTS, par exemple, mais aussi aux détournements de la technologie vers des usages qui n'étaient pas prévus, inavouables pour certains d'entre eux. Enfin, il faut maîtriser la manière dont les choses se passent avec les clients, ceux qui veulent acheter des biens informationnels.
Comment anticiper les nouveaux usages ? Cela suppose que l'on est capable de détecter des signaux très fins, très faibles, noyés dans un bruit important. Et de les détecter tôt pour prendre place avant les autres sur des marchés très concurrentiels.
On sent que, manifestement, cette recherche doit être pluridisciplinaire. Il faut que tout le monde y collabore, depuis la technologie jusqu'à l'ergonomie et aux sciences sociales.
Enfin, il s'agit d'un monde confidentiel, où personne ne donne les bonnes informations sur les marchés. Comment aller les récupérer sur place, dans des bases de données qui sont éminemment protégées ?
Nous sommes en train d'en créer un troisième avec l'Inria, le CNRS et l'Université de Nice à Sophia-Antipolis. Il est centré sur les communautés d'utilisateurs. Comment les communautés vont- elles se créer, qu'elles soient engendrées, provoquées, constatées ou simplement utilisées. Comment vont-elles se développer ?
Prenons un exemple : on reprend beaucoup la terminologie anglaise, du B to C (Business to consumers, c'est à dire la distribution). Étant donné ce que nous avons dit tout à l'heure, on peut soupçonner qu'entre le B et le C les règles du marché ne fonctionnent plus de manière traditionnelle. Et l'on peut penser qu'apparaît quelque chose comme le "B to B +", c'est à dire que se créent des communautés d'entreprises, ainsi que des intermédiaires d'un type nouveau. De même, le C to C (Consumer to consumer, communication entre consommateurs) peut lui aussi évoluer vers des "C to C + ", avec la création de communautés d'utilisateurs. Et c'est entre B+ et C+ que le marché pourrait finalement se constituer.
Une nouvelle sociologie pourrait émerger autour de cela, avec des règles tout à fait nouvelles. Elle doit générer une nouvelle terminologie. Nous avons essayé de croiser de nombreuses approches. Nous faisons appel aux disciplines de base, depuis les technologies des télécommunications (notamment les plus avancées, l'optique, la microélectronique...) jusqu'à des disciplines nouvelles, (puisque nous avons la chance d'avoir dans nos écoles des économistes et des représentants des sciences sociales), en passant par l'informatique, les réseaux, ...
Dans une matrice, nous croisons ces disciplines avec les différents systèmes de communications (systèmes satellitaires, réseaux d'accès, réseaux d'infrastructure, etc.). Nous cherchons à comprendre comment la matrice peut être entretenue, habitée. Nous disons qu'elle est une cartographie, car elle exprime la manière d'aller d'un point à un autre, de savoir où on est à un moment donné, de trouver la trajectoire pour aller à l'endroit souhaité et pour affronter les défis qu'on s'est lancés.
Vous trouverez cette proposition sur le site du GET : http://www.get-telecom.fr/ds/a1_carto/index.htm Elle demande encore des adaptations. Malgré ses limites, elle a retenu l'attention du RNRT, qui l'a reprise (en la retouchant et en l'améliorant) pour examiner ses propres projets. (http://www.telecom.gouv.fr/rnrt/index_exp.htm ).
Nous contribuons aussi au travail de terminologie relatif à notre domaine. C'est une des tâches de Jean-Alain Hernandez qui, dans le cadre de la direction scientifique du GET, anime les Annales des télécommunications et qui est aussi secrétaire de la commission nationale de terminologie dans le domaine des télécommunications.
Enfin, et ce n'est pas un hasard, notre effort se traduit aussi par la création de portails. Dans les écoles de notre groupe, un certain nombre de portails sont ouverts. L'un d'eux, à l'ENST de Bretagne en particulier, porte sur les termes des télécommunications, en plusieurs langues. Et, à l'INT, nous essayons d'ouvrir Portic (portail des TIC), projet qui permet de rassembler toutes les écoles du GET et leurs connaissances dans ce domaine.
Le regard que nous portons sur ce thème est celui d'un acteur engagé depuis 31 ans dans la société de l'information. Le Cigref (Club informatique des grandes entreprises françaises) est en une association créée en 1970 et qui regroupe aujourd'hui 115 grandes entreprises françaises.
En prenant mes fonctions de délégué général il y a neuf mois maintenant, j'ai proposé à nos administrateurs de définir avec eux un projet stratégique à 3 ans.
Le postulat était le suivant : face à des environnements de plus en plus complexes et à une réalité de plus en plus immatérielle, comment optimiser notre performance pour que l'association produise un plus grande valeur ajoutée pour ses entreprises membres ?
Parce qu'association rime avec organisation, la stabilité et l'existence même du "pacte associatif" exigent que la stratégie et les moyens d'action, pour être partagés, soient préalablement connus de tous les acteurs.
Comme le précise Peter Senge dans son ouvrage La cinquième discipline, sous titré "L'art et la manière des organisations qui apprennent" : "Adhérer est un acte librement consenti, décidé avec toutes les informations nécessaires. L'engagement va encore plus loin, il implique que je me sente responsable d'une vision".
Notre projet associatif tient en une phrase : "promouvoir l'usage des systèmes d'information comme facteur de création de valeur pour l'entreprise".
Nous sommes donc un club d'utilisateurs (et exclusivement d'utilisateurs) dont
les missions s'articulent autour de trois axes :
- Le pôle Entreprise, car nos membres ont pour première ambition de partager
leurs expériences métiers et technologiques, pour mieux connaître, les
opportunités et contraintes, les enjeux et les risques liés à l'usage des SI.
- Le pôle DSI, car notre seconde ambition est de les accompagner dans
l'évolution de leur fonction.
- Le pôle sociétal enfin, car nous souhaitons leur permettre de
promouvoir l'impact stratégique des TIC sur l'entreprise certes, mais
également sur la société toute entière.
Le coeur du métier de notre association se définit aujourd'hui comme une "plate-forme de gestion des connaissances sur l'ensemble des thématiques liées à l'usage des SI".
Compte tenu du périmètre que recouvre le thème de cette journée, mon propos se limitera volontairement à quelques réflexions prospectives sur les champs d'intervention et les pratiques des DSI face aux mutations organisationnelles que génèrent les usages des Stic dans l'entreprise.
Je le ferai en m'inspirant des idées que promeut notre président Jean-Pierre Corniou, (DSI du groupe Renault), qui vient tout juste de publier aux éditions Hermès-Lavoisier La société de la connaissance, nouvel enjeu pour les organisations
a)- pour vous donner un bref aperçu des problématiques, éléments de mutation, et facteurs clefs de changement qui se dégagent en matière de management de l'information dans les entreprises,
b)- pour vous livrer quelques idées forces et pour tenter de cerner la responsabilité que nous partageons ensemble comme acteurs de la société de l'information.
Commençons par une précision d'ordre sémantique : pour développer la
compréhension des enjeux et la mise en oeuvre des responsabilités au sein de
l'entreprise, il est impératif de faire cesser la confusion entre
- la notion de système d'information, qui porte la connaissance du
métier et de la structure de l'entreprise, et
- celle de système informatique qui en représente la dimension matérielle,
logicielle et technique. Cette ambiguïté, qui a la vie dure, est nuisible ! Elle
porte en germe une logique d'incompréhension et d'échecs.
Les choix techniques ne sont plus aujourd'hui le coeur de la stratégie et imputer aux problèmes techniques une responsabilité dans les dysfonctionnements managériaux ou structurels est une tentation courante mais souvent inopérante.
Ce postulat étant posé, quels sont les principaux facteurs clefs de changement ?
-2- Facteur de mutation : La vue sur le SI est désormais globale. La technologie n'est plus dominante. Les mots clefs de la DSI sont : alignement stratégique métiers, urbanisation, gouvernance, management des processus. Le SI est regardé de plus en plus comme un système complexe avec des boucles de rétroaction.
-3- Facteur de mutation : La gestion des connaissances. Comment passer de l'information à la connaissance ? Nous sommes passés de la rareté à la surabondance. La gestion des connaissances n'est pas l'instauration d'un système des connaissances, c'est une conception et une utilisation différente du SI : l'accent est en priorité sur la mise en relation des personnes soit avec des documents soit avec des personnes. Dans ce contexte, le DSI est un "créateur de liens".
-4- Facteur de mutation : Les nouvelles formes organisationnelles : C'est la redécouverte des réseaux informels, des communautés de pratiques La e-organisation c'est l'entreprise étendue, et surtout ouverte et en interaction avec ses cadres, ses employés, ses partenaires, fournisseurs clients. C'est un nouveau management, de nouveaux flux d'informations, de nouvelles relations et donc de nouvelles connaissances.
Ce sont aussi de nouvelles formes de travail, de nouveaux modes de collaboration qui influencent les conditions de travail (communauté virtuelle et travail nomade...)
"Les techniques de traitement de l'information restent inefficaces sans une intégration méthodique et rigoureuse dans le tissu organisationnel, culturel et social des organisations". Je me limiterai à la question du traitement numérique (capture, analyse, stockage, retransmission, restitution) de toutes les données perceptibles par l'homme (textes, images 3D, sons) ou non directement perceptibles (codes barres, données biométriques) ; il offrira de multiples voies d'échanges et de communication dans tous les domaines de l'activité professionnelle, de la connaissance et du loisir.
Si les percées de la technologie continuent à leur rythme, le seul facteur limitant à l'expression sans bornes de la sphère de l'information communicante sera la capacité humaine.
- C'est d'abord l'aptitude à consacrer une fraction appréciable de son temps à ces activités de communication, qui sont très consommatrices d'énergie individuelle : disponibilité, concentration, apprentissage...
- C'est d'autre part la capacité à exploiter de façon utile pour la connaissance ou l'action, les informations collectées.
En réalité, c'est la valeur d'usage perçue, et non pas la prouesse technologique qui déclenchera l'adhésion du public et permettra de vrais changements dans les pratiques.
1- Exploiter le potentiel des nouvelles technologies de l'information et de la connaissance ne peut être que le résultat d'un travail coopératif au sein de l'entreprise. La puissance de transformation des outils informationnels est telle, qu'elle doit être partagée entre tous les acteurs opérationnels de l'entreprise.
Le DSI, créateur de liens, a de ce fait une vocation pédagogique. L'émergence de cette fonction «d'activateur de changement» est une caractéristique récente. Cette double expertise, technique et métier, se révèle indispensable.
Il n'est pas évident, du PDG à l'employé, sans oublier les responsables métiers de comprendre ce qui se passe, d'interpréter les mutations en cours, de cerner le sens de cette révolution informationnelle.
Les habitudes de pensée, de travail viennent s'opposer à cette nouvelle réalité et certains acteurs risquent d'être pénalisés s'ils n'arrivent pas à se situer dans ce nouvel environnement. Le développement du e-learning reste sans doute une piste à creuser.
2- Pour parvenir à ce que la transformation des outils informationnels soit partagée entre tous les acteurs opérationnels de l'entreprise, il est indispensable que la réflexion consacrée à l'usage des SI dans l'entreprise se fasse dans un contexte désacralisé, mature, serein et bien informé.
Ce sont deux des principales convictions des directeurs des systèmes d'information des grandes entreprises, et nous souhaitions les partager avec vous aujourd'hui.
C'est le sens de notre participation aujourd'hui à votre journée d'étude, et c'est le sens que nous vous proposons de donner aux actions que le Cigref réalisera volontiers avec l'Asti si vous nous en jugez dignes.
Il convient tout d'abord de s'interroger sur ce qu'on entend par "informatique" à ces niveaux d'enseignement. On comprendra facilement qu'il ne s'agit pas d'informatique pure et dure mais il y a de la marge entre l'informatique théorique et le "bidouillage" qui préside trop souvent à la pratique de l'ordinateur !
Au début de l'informatique dans l'enseignement général (faute de temps, je ne parlerai pas aujourd'hui des enseignements technologiques) c'est à dire au début des années 70 (La Celle Saint Cloud et le lycée de Vandoeuvre près de Nancy) nous disposions d'ordinateurs (Mitra 15 et T1600) sans logiciels éducatifs. Nous disposions en tout et pour tout d'un Basic et du LSE, secs. Que faire faire d'autre aux élèves que de la programmation ?
Ce fut l'époque de la somme des n premiers nombres entiers et des cadavres exquis ... ! Elle dura plusieurs années sous des modalités diverses. On "faisait" ainsi de l'informatique et on "allait à l'ordinateur" (qui trônait dans une salle spécialisée) comme une vache va au taureau.
Peu à peu les enseignants traduisirent de petits logiciels éducatifs (didacticiels) récupérés en Basic en Angleterre et se mirent également à en concevoir de nouveaux dans le cadre de l'INRP (Institut national de la recherche pédagogique). Je fus de ceux là. Les premiers didacticiels français de simulation (sur la nutrition, la génétique, l'étude des populations, ...) ou d'exploitation de banques de données (localisation des séismes, ...), ou d'autres encore dans les différentes disciplines apparurent, de telle sorte que commence à émerger le concept d' "outils informatiques". On parlait d' "enseignement assisté par ordinateur" (EAO).
L'EPI qui n'aimait guère le mot "assisté" a créé - dès les années 70 - l'expression "informatique pédagogique" qui est encore employée. C'était un raccourci pour désigner les apports de l'informatique à la pédagogie (dans les différentes disciplines) mais aussi la pédagogie de l'informatique. Tout un programme ...
Dans les lycées d'enseignement général cohabitaient donc, et cela pendant la décennie 80, l'informatique-objet sous la forme d'une option informatique (je vais y revenir) et l'informatique-outil (EAO et ses dérivés). Pourquoi " outil " ? On peut se le demander. Pour rassurer, je pense : un outil c'est simple. Prend-on des cours pour se servir d'un marteau ? Encore que ... ça éviterait de s'écraser les doigts. Car la doctrine du ministère de l'Education nationale, le politiquement correct, sera très vite : "certes, l'informatique est une science, avec ses modes de pensée, ses méthodes spécifiques, ..., mais elle n'a pas sa place avant l'enseignement supérieur". Par contre, l'utilisation, l'usage de l'outil (les mots les plus fréquents dans les textes officiels) doivent se développer dans les enseignements primaire et secondaire.
L'option informatique des lycées d'enseignement général est supprimée au début des années 90. Peu à peu, le terme même d'informatique est évacué. On ne parle plus que de TIC, Tice, Stic, Nouvelles technologies éducatives, voire plus récemment d' e-learning. Glissement sémantique progressif qui arrange bien le ministére, peu soucieux de créer une nouvelle discipline avec tous les problèmes liés (horaires, formation des maîtres, Capes, Agreg, ...).
Et pourtant, on voit bien que des notions de nature informatique seraient bien utiles dans la "maîtrise" et la pratique "raisonnée" des logiciels, alors on glisse furtivement quelques phrases où il est question de la nécessité de "notions sous-jacentes aux activités et savoir faire", sans faire grand chose pour qu'il y ait un semblant d'application. On joue avec les mots.
Dès la Maternelle, il est question : d'ordinateur, d'écran, de clavier, de souris ; de courrier électronique ; de cédéroms ; de documents numérisés ; de logiciels de dessin ; mais aussi d'objets programmables (ce qui reste de feu Logo).
Dans le cycle 2 (cycle des apprentissages) : j'ai relevé : hypertextes, édition de textes, recours à la toile, images numériques, appareil photo numérique et même réalisation d'un cédérom ou d'un site.
Dans le cycle 3 (cycle des approfondissements) : consultation de BD, d'index, de moteurs de recherche, de liens hypertextes ; courrier électronique, traitement de texte, calculatrice, logiciels (de géométrie, d'entraînement, de création visuelle et sonore) ; et dans la partie " sciences expérimentales et technologie " : principales fonctions d'un ordinateur, attitude citoyenne, créer, modifier, exploiter, publier (autant de " compétences " qui seront validées par le Brevet Informatique et Internet : B2I) : http://www.educnet.education.fr /primaire/prog023.htm#c4
Il s'agit d'une " feuille de position ", à remplir par l'élève, énumérant une vingtaine de compétences ; par exemple : " Je sais ouvrir un fichier existant, enregistrer dans le répertoire déterminé par l'enseignant un document que j'ai créé moi-même ". Chaque compétence étant attestée par l'enseignant qui date et signe.
Au collège, l'élève rencontre pour la première fois les disciplines traditionnelles qui tiennent leurs territoires et qui conçoivent assez mal de faire la place à une discipline nouvelle. Heureusement que la petite dernière " la Technologie " se montre plus accueillante. Peut-on d'ailleurs parler de technologie sans ordinateur ? !
Pour ce qui concerne "l'informatique-outil", dans les disciplines autres que la
Technologie et si on regarde les programmes du cycle central (classes de 4ème et
5ème) :
- en français, usage du traitement de texte ;
- en latin, les ressources de l'audiovisuel et de l'informatique sont mises à profit
toutes les fois que possible :
- en histoire-géographie, l'utilisation des technologies actuelles (images
satellitaires, télématique, cédérom) enrichit les pratiques documentaires en classe
et au CDI ;
- en physique-chimie : l'ordinateur est un outil privilégié pour la saisie et le
traitement des données ainsi que pour la simulation ; il ne sera en aucun cas
substitué à l'expérience directe dont il sera le serviteur (sic);
- en SVT, lectures documentaires sur supports informatiques, ExAO (à propos de
la respiration), recensement des séismes sur un planisphère ou par logiciel ; la
simulation n'est pas évoquée ;
- en mathématiques, la géométrie est enseignée y compris dans un
environnement informatique où l'usage d'outils informatiques peu se révéler
utile ; initiation à l'utilisation de tableurs et grapheurs ;travaux numériques
notamment avec l'aide d'un ordinateur ;
- en musique et pratique instrumentale, intégration des possibilités offertes par
les technologies nouvelles.
Pour ce qui concerne la technologie, c'est beaucoup plus ambitieux, du moins dans les textes officiels.
Toujours pour les classes de 4ème et 5ème, environ la moitié du programme est consacrée à la "technologie de l'information" (utilisation du tableur-grapheur, automatismes pilotés par ordinateur, conception et fabrication assistées par ordinateur, consultation et transmission de l'information). On ne peut pas dire que ce soit le vide. D'autant que le programme de troisième reprend ces thèmes en les approfondissant quelque peu. Le tout aboutissant à B2I (niveau 2).
Si l'on regarde derrière les mots, deux remarques importantes s'imposent :
- la connotation très "savoir faire" des compétences : "Je sais faire ceci et
cela ", jamais : "J'ai compris ce qu'est un fichier" ;
- la distance qui sépare les textes officiels des pratiques réelles dans la grande
majorité des classes.
Dans son principe, la situation n'est pas très différente de celle du collège, sauf qu'il n'y a pas de discipline équivalente à la Technologie. Depuis la disparition, en 1992, de l'option informatique des lycées, il n'y a plus que " l'informatique-outil " dont on se demande toujours pourquoi on parle d'informatique ! (on a compris pourquoi on parlait d'outil ...). [Faut-il mentionner la " mise à niveau " réservée aux élèves de Seconde qui n'auraient pas acquis les savoir faire indispensables à la " maîtrise " de l'outil. Cette " maîtrise " leur est donnée en 18 heures/année quand les établissements en dégagent les moyens].
De quoi s'agit-il pour ce qui concerne l'utilisation des TIC dans les différentes disciplines ?
Il faut distinguer ce qui est (ou devrait être) partie constituante de la discipline à enseigner et est inscrit (ou devrait l'être) en tant que tel, avec plus ou moins de netteté, dans les programmes officiels.
Une place à part est à faire à l'acquisition et au traitement de données dans les sciences expérimentales (ExAO). L'engagement des pionniers depuis les années 70, l'intérêt pédagogique de la démarche, le relais pris par les associations de spécialistes puis par l'inspection générale, l'effort de formation des enseignants, et l'effort d'équipement par les régions, ont fait la réussite incontestable de l'ExAO.
Il est d'ailleurs intéressant de voir l'ensemble des facteurs indispensables à la réussite de l'introduction de l'ordinateur dans l'enseignement. L'ExAO est un cas d'école. Sa réussite devrait servir de modèle. Si les enseignants sont maîtres de leur pédagogie, ils sont tenus de respecter les programmes officiels (nationaux), et l'ExAO est explicitement dans les programmes des sciences expérimentales.
A un degré moindre dans la pratique effective sur le terrain, réservés à un sous
ensemble d'enseignants avertis, on peut citer également :
- la simulation en sciences expérimentales, en géographie, en sciences
économiques et sociales, ...
- la cartographie ou l'exploitation d'images satellitaires en géographie,
- le calcul numérique et le calcul formel en mathématiques,
- la recherche documentaire,
- etc.
Sur un plan différent, se situent des démarches d'ordre général comme par exemple tout ce qui est outil de travail pour les élèves (et les enseignants) : recherche documentaire personnelle, aide à l'apprentissage (tutoriels), échange par courrier électronique, consultation ou réalisation de sites ...
Ce qu'il faut bien comprendre, si l'on veut saisir la différence entre les discours et les textes officiels, c'est que la plupart des activités ci-dessus énumérées ne constituent le plus souvent que des vœux pieux. Si nous mettons à part l'ExAO (et les calculatrices), on peut dire que le pourcentage d'enseignants utilisant les TICE de façon significative avec leurs élèves (dans les lycées d'enseignement général) est de l'ordre de 15%.
Un groupe d'experts (universitaires, chercheurs, enseignants du secondaire, inspecteur), au sein duquel j'ai représenté l'EPI pendant plus de dix ans, s'est attaché à dégager, en liaison étroite avec les pratiques du terrain et en collant le plus possible aux évolutions logicielles (pratiques de plus en plus généralisées des progiciels), un ensemble de notions, d'usages, de représentations, ... à expliciter au cours de cet enseignement optionnel (1h de cours, 1h30 de TP par semaine).
Quels sont les " objets " manipulés ? Quel rapport entre ce qu'on voit à l'écran et ce qui se passe dans l'ordinateur ? Donc quelques notions sur les principes de fonctionnement de l'ordinateur.
La prise de conscience du caractère formel des traitements, l'ordinateur n'ayant pas (encore) accès au sens (les poules du couvent couvent ...) . Des notions comme donnée et fonction, plus généralement la différence entre objet et action, structure de données, fichier, système d'exploitation, variable (cf. mailing), itération, conditions ... etc.
Certaines notions étant plus spécifiques de certaines activités. Ainsi, pour une utilisation scientifique en sciences expérimentales, les notions d'interface, d'horloge, de codage, de boucle de calcul ...
Autres originalités importantes de l'option informatique :
- les enseignants étaient issus des différentes disciplines ce qui permettait
d'entrée de jeu un éclairage transdisciplinaire ;
- le Conseil scientifique national, en concertation étroite avec les enseignants,
avait introduit un volet " informatique et société " qui sensibilisait les élèves
aux multiples problèmes ... des TIC.
L'idée à l'origine de cette option venait d'un constat évident (surtout quand on côtoie les élèves...) : l'utilisation d'un outil n'apporte pas tout ce qui est indispensable à une pratique " maîtrisée ". Sinon, pourquoi y aurait-il des cours de français alors que nous parlons tous depuis notre plus jeune âge ? !
D'autant que le chemin est semé d'embûches pour celui qui ne sait pas (encore).
Embûche de la complexité. Les logiciels sont complexes. Les métaphores autour des " outils " simplistes (à supposer qu'il y en ait) sont trompeuses. On joue trop souvent sur les mots : convivial pour simple, maîtrise d'un logiciel pour connaissance superficielle des cinq premières fonctions, formation pour initiation superficielle ...
Tout est plus complexe qu'on veut bien le dire. Que les constructeurs et vendeurs de logiciels minimisent la difficulté je le comprends aisément. Je suis plus ennuyé quand le discours est repris par le ministère de l'Education nationale.
Il n'est pas facile d'avoir des connaissances intuitives de ce qui se passe dans l'ordinateur et ses satellites. On le voit bien aux questions posées par les élèves. Un effort d'explication en amont serait de nature à faciliter la tâche des jeunes générations. Faut-il qu'ils repassent obligatoirement par nos propres errements ?
L'univers de l'ordinateur a ceci de particulier qu'il est en grande partie dissimulé. On ne voit que ce qui apparaît à l'écran et souvent sous une autre forme à l'impression. Où est le document " vrai " ? sur l'écran ? sur le disque ? en mémoire centrale ? en Australie ? C'est quoi ce document " vrai " ? Privé, par notre faute, d'une vision un peu claire de la question, l'élève est trop souvent en situation de faire n'importe quoi jusqu'à ce que ça marche. " Ca marche ! ... je sais pas pourquoi mais ça marche ". Situation certes souvent inévitable, que les plus optimistes qualifient d'apprentissage par " essais et erreurs ", mais que beaucoup aimeraient rendre un peu moins systématique.
Nous sommes un certain nombre à penser que l'éducation nationale n'a pas comme finalité de reproduire ce que le monde extérieur fait déjà fort bien en matière de TIC, le bidouillage. Chacun se débrouille comme il peut avec ces étranges machines capricieuses qui finalement ont toujours le dernier mot : elles fonctionnent quand elles ne plantent pas et de toutes façons " ça marche toujours moins bien que prévu " (Charles Duchâteau).
Malheureusement, les enseignants français plutôt bien formés dans leur discipline, et qui ont l'habitude, pour leurs élèves, d'ouvrir - ou au moins d'entre ouvrir - les boîtes noires, sont rarement dans la possibilité de le faire dans le domaine qui nous occupe.
Mais je ne voudrais pas terminer sur un mode trop pessimiste. Naturellement les choses progressent. Le " coup de fouet " d'Internet n'y est pas pour rien, même si les TICE ne doivent pas se réduire à cette démarche. Ce serait sinon à désespérer, surtout celles et ceux qui se dévouent sans compter depuis des années. Les collectivités territoriales font de gros efforts en matière de matériels. On souhaiterait simplement un engagement plus net du MEN qui aille au delà des discours. Car des textes et des discours, il y en a, preuve d'une prise de conscience des responsables au plus haut niveau. Mais faute de moyens, éventuellement redistribués compte tenu de priorités nouvelles, des facteurs limitants très forts subsistent.
Pour l'EPI, il convient d'intégrer plus énergiquement l'informatique et les TIC dans la culture générale du futur citoyen. Il me semble que le nouveau ministre, Luc FERRY, qui était depuis plusieurs années Président du Conseil National des Programmes (et que nous avons rencontré plusieurs fois à ce titre) en est très conscient et était même favorable à une double approche : STIC-discipline et STIC dans les différentes disciplines. Il est au bon moment au bon endroit.
Pourquoi l'ASTI ne demanderait-elle pas à le rencontrer sur ce dossier ?
Philippe Renard n'a pas pu se libérer pour notre journée, mais nous adressé le message suivant :
Jean-Yves Gresser vient de m'informer de la tenue d'une journée Mercredi 15 sur la terminologie et il ne me sera pas possible d'être libre ce jour là.
Je fais néanmoins, un petit résumé dans ce message de quelques informations qui pourront être communiquées aux participants pour ceux qui ne les connaîtraient pas déjà: "Les fonctionnaires et personnes au service de l'état, ont obligation dans le cadre de leurs activités professionnelles, de s'exprimer en français. Mais problème : qu'est ce qui est français et qu'est ce qui ne l'est pas ?
Pour répondre à cette question un dispositif assez lourd et complexe a été mis en place. Il s'appuie sur des commissions spécialisées par domaines qui font des propositions. Ces propositions sont transmises par une commission générale, à l'académie française qui a pouvoir de veto. Lorsque toutes ces barrières sont franchies après négociations et aller et retour, le ministre concerné fait paraître au journal officiel les mots approuvés.
L'idée est que cette lourdeur annule les effets de mode, donne à l'usage, le temps de suggérer des pistes, et surtout implique un grand nombre de prescripteurs qui à leur tour feront converger l'usage. Chacun est libre, à titre privé de parler comme il l'entend, mais le poids du secteur public peut avoir un effet d'entraînement sur l'ensemble de la population, si les choix sont judicieux.
Où en sommes nous aujourd'hui ? Une base de données Criter sous la responsabilité de la délégation générale à la langue française (DGLFLF) récapitule les travaux effectués. Elle est accessible à www.culture.fr/culture/dglf.
Plus spécifiquement, une brochure est éditée pour le domaine de l'informatique. Elle est disponible gratuitement à l'adresse suivante: DGLFLF 6 rue des Pyramides 75001 Tél.:(01) 40 15 36 24. La commission en charge de ce domaine est celle dont je m'occupe, et son site est accessible à l'adresse suivante: www.cstic.fr.st. Toutes les suggestions et les contributions sont les bienvenus."
La conférence avait pour objectif de rassembler d'une part une communauté académique multidisciplinaire (systèmes d'information et bases de données, apprentissage automatique, ingénierie des connaissances, statistiques et analyse de données...) et d'autre part des spécialistes de l'entreprise, autour de la double thématique de l'extraction des connaissances dans les bases de données (ECD, en anglais KDD : knowledge discovery in databases) et de la gestion des connaissances (GC, en anglais KM, knowledge management).
Cette seconde édition a conforté la première, rassemblant 120 participants. Les actes de la conférence ont été édités par Hermès Science Publications dans la revue ECA (Extraction des connaissances et apprentissage). La conférence était diffusée en direct de la conférence sur Canal U (chaîne TV universitaire nationale).
La première journée a été consacrée aux tutoriels : formation à Sodas (logiciel européen d'analyse de données symboliques, Edwin Diday), Text Mining (Extraction de connaissances à partir de textes, Claire Nédellec), visualisation de connaissances (François Poulet), ontologies (Mythes ou réalités, Christophe Roche), extraction de connaissances basée sur les treillis de concepts (Engelbert Mephu Nguifo), multimedia mining (Chabane Djeraba).
La deuxième journée a été propice aux échanges multidisciplinaires et au dialogue entre universitaires et spécialistes des entreprises. Elle a débuté par une conférence invitée sur les outils et les applications de l'ECD, une discussion de ce qui sert réellement (Yves Kodratoff), puis s'est poursuivie par des sessions académiques (règles d'association, analyse exploratoire, prétraitement des données, structuration) et des sessions industrielles (text mining, web mining) ainsi que des sessions posters.
Deux prix ont été remis (innovation de cette année) :
- un prix remis par l'Afia à Dan A. Simovici, professeur à l'université
du Massachusetts à Boston, pour ces travaux de recherche (senior) en découverte de
connaissances,
- un prix "recherche insertion", remis par la fondation VediorBis à
I. Amous pour ses travaux de recherche (junior) sur la reconstruction dynamique de
documents.
La troisième journée a débuté par une conférence invitée : "Taking ontological commitments seriously. Folaw, a functional core ontology of legal knowledge" (J. Breuker, R. Winkels - Univ Amsterdam), puis regroupé des communications plus appliquées. On été présentées des communications académiques et industrielles sur les thèmes de l'Ingénierie des connaissances, des Bases de données et systèmes d'information, de l'apprentissage, des modèles bayésiens, des applications de l'ECD.
EGC 2003, sera organisée par Danielle Boulanger (Modeme, université de Lyon 3) à Lyon les 22-23-24 janvier.
D'après le compte-rendu envoyé à Asti-Hebdo par Fabrice Guillet.
Pré-inscriptions via le formulaire en ligne.
La délégation aux entreprises (DAE) du CNRS a mis en ligne sur son site
un ensemble d'informations concernant la constitution d'un dossier de
valorisation, désormais téléchargeable.
- Le dossier
- Téléchargement
- Le site de la DAE
Pointeurs :
- le site Cordis,
- le site Europa,
- le dossier
consacré au 6e PCRD sur le site de la direction des affaires juridiques du CNRS :
Pour participer, le CNRS recommande de répondre a l'appel a manifestation d'intérêt avant le 7 juin (17H) par envoi électronique. Renseignements
Le programme dépasse largement le cadre des Stic, mais la
matinée du dimanche 9 Juin s'en rapproche, sous le titre "Evolution des systèmes
symboliques et de connaissance". Animée par Evelyne Andreewsky et Elie Bernard-Weil,
elle donne la parole à :
- F. Dubois : Modélisation mathématique, du contenu classique au discret quantique.
- E. Bernard-Weil : L'évolution a-t-elle besoin d'un modèle de la vie
( à propos d'"Evolutionary Systems" de G.Van de Vijver).
- E. Beaussart : De l'évolution à l'apprentissage, continuités et ruptures.
Principaux chapitres : De l'université à l'entreprise, les systèmes informatiques et l'offre du logiciel libre, la présence du logiciel libre dans les entreprise, l'économie du logiciel libre, les communauté du libre, la rénovation de la fonction informatique par le logiciel libre. En annexe : exemples de couples communautés/produits.
Yvon Rastetter, Le logiciel libre dans les entreprises. Hermès/Lavoisier. On peut le trouver et le commander sur le site de Lavoisier. <
L G. Capers, qui exerçait comme médecin pendant la guerre de Sécession, rapporte dans un journal de gynécologie américain en 1874, puis dans le journal médical Lancet en 1875, le fait troublant suivant : témoin d'une blessure par balle d'un soldat et d'une jeune femme, il constate que le projectile a traversé les testicules du combattant puis que la femme a été blessée au bas ventre par la balle perdue. Neuf mois après sa blessure, la femme, dont l'hymen était intact, accoucha d'un garçon. Après une enquête rigoureuse, Capers suggéra que l'enfant avait été conçu lors de la blessure par balle. Cette première fécondation artificielle * montre que, dans certaines conditions, des cellules humaines (ici, des spermatozoïdes) pourraient survivre à un transfert balistique".
Ce texte est repris par A.C. Gordon et R.D. Spicer dans un article "Impregnated via a bullet ?" du Lancet, n°737, 1989. Commentaire de Jacques Baudé (professeur de biologie et président d'honneur de l'EPI, qui l'a porté à notre connaissance : "Ca fait un demi siècle que je barbote dans la biologie et je n'avais jamais rencontré ce cas étrange de transfert d'information !".
Faut-il verser cette observation au dossier de Claude Guéguen qui considère que le paradigme shannonien de la communication doit être complètement revisité (voir plus haut dans ce numéro) ?