Sommaire : L'actualité de la semaine | Théories et concepts | Enseignement | Entreprises | Enseignement | La recherche en pratique | Le livre de la semaine | Détente.
ACTES DE NOTRE JOURNEE DU 15 MAI. Dans ce numéro, les interventions de : Colette Hoffsaes (Creis), Gilles Dowek (Inria), Eddie Soulier (UTT).
|
|
|
|
Participez à l'enquête "Stic, recherche et
éthique" : d'un simple clic
téléchargez
le questionnaire élaboré
par le groupe de travail.
|
Les Asti-Dej font relâche jusqu'à la rentrée. Nous vous proposerons, début septembre, une nouvelle formule. Sans doute un petit-déjeuner, de 8h30 à 10 heure, chez Paul (forum des Halles). Qu'en pensez-vous ? |
Nous poursuivons la publication des "Actes" de la journée Asti du 15 mai.
Dans ce numéro, les communications de Colette Hoffsaes (Creis), Gilles Dowek (Inria) et Eddie Soulier (Université de technologie de Compiègne).
Accès à l'ensemble des documents relatifs à cette journée
Les photographies (en "lumière disponible") sont de Joël Gardes.
Le Creis, centre de coordination pour la recherche et l'enseignement en informatique et société, est une des associations fondatrices de l'Asti. Le nom est trop long, peu attractif, mais nous n'avons pas trouvé mieux pour exprimer la réalité de ce que nous voulions faire.
Et puis, le sigle sonne bien, : contrainte bien étrangère à ce que nous voulions
signifier !
- coordination = pour échanger, s'entraider, stimuler,
- lier la recherche et l'enseignement = réfléchir et comprendre d'une part,
agir en faisant savoir, en posant des questions, en soulevant des problèmes.
Informatique et société : le terme est insatisfaisant, parce qu'il semble mettre en exergue une technique, alors que nous avons toujours pensé que la société était première. Mais société et informatique ne nous a pas semblé meilleur et nous n'avons pas trouvé mieux. Enfin la liaison "et" est trop vague, mais il aurait fallu beaucoup de termes relationnels.
Notre objectif : étudier les enjeux politiques, économiques, sociaux, philosophiques... de l'informatisation, c'est-à-dire de l'informatique vue comme un projet collectif ou comme instrument d'un projet collectif.
Ces termes flous, insatisfaisants nous ont cependant permis d'ouvrir des voies nouvelles, de défricher des terres inconnues. Au fur et à mesure de nos travaux, le terrain se balise et les termes se précisent.
Au sein de l'association, j'ai participé à deux actions liées au thème de cette
journée :
- j'ai animé un groupe de réflexion commun au Creis, à l'AILF et à l'Afcet
sur "Histoire et épistémologie de l'informatique",
- j'ai participé à un groupe de travail qui a rédigé un lexique
"Informatique et société".
et bien d'autres, qui n'ont pas toujours de cohérence entre elles.
Ceux que cela intéresse pourront trouver un document où sont résumées
les discussions qui ont été menées au sein de ce groupe.
Ce groupe a, en particulier, participé à l'élaboration du chapitre "épistémologie" du lexique mis au point par notre association.
Chaque définition, en principe, comporte d'abord une définition minimale (ce que ce terme désigne généralement) puis un commentaire évoquant les questions qui ont déjà été soulevées à ce propos.
C'est ainsi que la défunte Afcet, créée comme Association française pour la cybernétique économique et technique, a éprouvé le besoin de changer la signification de son sigle quand le développement de l'informatique a supplanté les visées de la cybernétique.
Bref, le vocabulaire est à la fois le reflet et le support d'un projet collectif. Cette journée est donc bien loin d'être anodine et la retraitée que je suis craint d'être bien ringarde. J'évoquerai ici quelques thèmes qui me paraissent toujours d'actualité.
Le concept de représentation désigne à la fois le processus par lequel nous représentons les objets réels et le résultat de cette opération. L'idée de représentation permet d'imaginer le phénomène de la connaissance comme la constitution d'une transcription de l'objet réel, considérée comme simplifiée mais fidèle (= digne de foi). L'analyse de ce concept montre que nous n'avons pas d'accès direct au réel, mais que nous l'appréhendons toujours à travers la culture, le langage et les débats (et projets) d'une collectivité. La représentation implique l'abstraction, une sélection de certaines propriétés de l'objet, une construction.
Il existe des représentations de représentations (l'informatique travaille sur des représentations du langage, lui-même représentation de la réalité).
Il ne suffit pas de se demander si une représentation est conforme (= a la même forme que) la réalité qu'elle représente car toute réalité est complexe, multiforme. La bonne question est de savoir si cette représentation est adéquate au(x) projet(s) de la collectivité sur cette réalité.
Alfred Korsybski disait que la carte n'est pas le territoire. J'ajouterai que si la carte doit être exacte, elle doit surtout être adaptée au but : une carte routière ne convient pas pour une randonnée pédestre, ni pour un trajet aérien. A la limite, mieux vaut une carte imprécise, voire fausse, qui donne quelques détails pertinents, qu'une carte très précise mais mal adaptée.
Il s'agit pour moi d'une question fondamentale, trop peu explorée et prise en compte. Le discours technico-scientifique a tendance à rester unidimensionnel : c'est vrai ou faux, cela marche ou ne marche pas, les buts et les enjeux sont passés sous silence.
Toute représentation n'est pas seulement une image de la réalité, mais la projection d'un projet sur la réalité; elle n'est jamais entièrement neutre ou objective, mais toujours relative à des buts annoncés ou non-dits.
Beaucoup, pour faire valoir que les sciences modernes sont tournées vers l'usage et non vers la connaissance gratuite ou noble, parlent de techno-sciences, souvent de façon péjorative. Ils rappellent que les grandes découvertes ont été fortuites, et sans autre but que la passion de la découverte.
On a inventé le mot technologie (étymologiquement discours sur la technique) pour parer la technique du lustre scientifique. Le terme est passé dans le langage courant pour désigner les techniques de pointe modernes et complexes. Ce n'est pas le seul exemple de glissement du vocabulaire visant à valoriser.
Le vocabulaire est en phase avec notre société technicienne (selon le terme de Jacques Ellul) qui a tendance à voir la technique comme solution à tous les problèmes. Je vous en donnerai une brève illustration.
A la fin d'un stage d'initiation à l'informatique, j'ai proposé un jeu de rôle dans lequel les stagiaires étaient les responsables d'un service du personnel qu'on se proposait d'informatiser. Chacun avait un objectif défini : améliorer la rentabilité du travail, moderniser les structures, changer les relations dans le service, protéger sa position d'autorité etc. Le choix de l'automatisation impliquait donc de dépasser les divergences des visées. Après une courte discussion, ils ont conclu en demandant à l'informaticien de leur proposer un projet sur lequel ils débattraient plus facilement. Un projet technique leur semblait plus objectif et susceptible d'ouvrir la voie à un accord.
Habermas nous a pourtant mis en garde contre l'emploi abusif de la logique instrumentale (ou technico-scientifique) pour les activités qui sont d'ordre politique ou éthique, autrement dit visant à définir un but commun, à rechercher un consensus minimal indispensable à la vie en société. En restant dans une logique instrumentale, en recherchant seulement les meilleurs moyens pour faire "passer" la décision "rationnelle" par une "bonne" information et communication, on peut exercer une véritable manipulation. La logique instrumentale doit être réservée à l'obtention de buts auparavant définis par le débat démocratique, dans la perspective d'Habermas. La logique pour définir les orientations culturelles et politiques d'une société est d'ordre communicationnel et non instrumental.
La sur-valorisation de la technologie et de la science alliée à l'incontournable difficulté à affronter les conflits d'enjeux ouvrent la route à la dérive qui consiste à considérer la technique comme la solution universelle à tous les problèmes, y compris en cas de désaccords. En outre, le vocabulaire technique ne facilite pas la compréhension des enjeux.
L'exemple de la télématique est exemplaire. Télématique = contraction de télé-informatique (informatique et télécommunications). Le projet était en fait beaucoup plus politique que ne le laisse saisir ce terme. On peut maintenant analyser ses options centralisatrices et économiques par opposition avec Internet qui présente une connotation beaucoup plus démocratique. Pourtant, les deux systèmes ont leur raison d'être, mais l'absence de lisibilité, les annonces de lancement et la concurrence économique ont obscurci les enjeux.
Et les deux ont par ailleurs été "détournés", l'un par les messageries roses (la messagerie avait été ajoutée, presque par raccroc, au dernier moment) et l'autre par les réseaux pédophiles.
Là encore, il y a collusion entre plusieurs phénomènes :
- la difficulté réelle des techniciens à parler aux autres de leur
technique avec des mots simples,
- les évolutions perpétuelles des techniques et du vocabulaire,
- la tentation des techniciens d'obscurcir leurs explications pour
protéger leur indépendance,
- la volonté des commanditaires des systèmes techniques d'imposer des
changements sous les prétextes d'efficacité et de modernité.
La "résistance au changement des utilisateurs" dont on a tant parlé me paraît une explication bien commode pour éviter de se poser tous ces problèmes.
Je voudrais seulement exprimer ma conviction profonde qu'il est urgent de revaloriser le débat politique ( au sens large de définition des orientations collectives ) en le libérant de l'emprise technocratique. La responsabilité des techniciens à ce niveau est de faire apparaître les enjeux du projet technique, notamment en donnant au vocabulaire technique toute la clarté possible et en lui restituant sa dimension totale de projection d'un projet sur la réalité.
Tout le monde sait ce qu'est l'informatique... mais personne ne sait ce qu'est une science. Pour le grand public, il n'est pas trop difficile de comprendre ce qu'est la cométologie. En revanche, il est difficile de comprendre le contenu de la science informatique et tout autant de la situer par rapport aux autres sciences. Une manière de tenter d'expliquer ce qu'est l'informatique est de chercher à la situer dans la classification des sciences.
Cette classification suit l'ordre chronologique et de la complexité croissante. Elle va du général au particulier, et elle permet un principe d'héritage : chaque science hérite de la précédente dans l'ordre donné. Ainsi, les objets biologiques sont soumis à la gravité, alors que les objets physiques ne sont pas soumis aux lois de l'évolution.
Dans cette classification, les sciences s'organisent en trois domaines concentriques : la nature (astronomie, physique, chimie), la vie (biologie), l'homme (sociologie).
On fait classiquement cette classification un certain nombre de critiques :
- elle classe les sciences (des discours qui décrivent le monde) et non
les technologies qui le transforment (moteur à explosion,
coeur artificiel, ordinateur), et qui relèvent de plusieurs niveaux (on
peut noter que le mot "chimie", par exemple, désigne à la fois une science
et une technique, mais pas le mot "physique",
- elle ne distingue pas des autres la description des propriétés des objets
artificiels ;
- la psychologie n'y a pas sa place, l'homme n'y est vu que comme "homme en
société".
Les mathématiques ne trouvent pas leur place dans ces trois domaines concentriques (nature, vie, homme). On peut leur faire une place en considérant un quatrième domaine, plus vaste que la nature, et qui est le domaine des "mondes possibles", ce qui conduit à un autre schéma :
Kant a insisté sur le fait qu'en mathématiques, on arrive à connaître sans faire d'expériences. Il y a donc des connaissances a priori et des connaissances a posteriori. Kant considère pourtant que les mathématiques, bien qu'a priori, sont une science du réel, et donc synthétiques. En géométrie en particulier, on ne fait d'expériences, mais uniquement des démonstrations. Cependant on atteint ainsi, pour Kant, une forme de connaissance sur l'espace physique, pas sur tous les espaces possibles.
Pour Kant, seules les connaissances qui découlent directement de la définition des termes employés sont analytiques.
Poincaré en géométrie, Frege en arithmétique, puis Carnap mettent, peu à peu,
en évidence le caractère analytique des mathématiques. Les mathématiques
quittent peu à peu le domaine de la connaissance synthétique a priori pour celui
de la connaissance analytique a priori. On se trouve donc ramené à deux grandes
catégories seulement :
- d'une part les mathématiques (connaissances analytiques a priori),
- d'autre part les sciences expérimentales (astronomie, chimie, biologie,
physique sociale), synthétiques e a posteriori.
Commençons par quelques exemples. La proposition "Il n'y a pas de programme qui décide la terminaison d'un autre", autrement dit "le test d'arrêt n'existe pas" est une proposition analytique, qui peut se démontrer formellement. La proposition "Quicksort est en n ln(n)" également.
En revanche, que penser du tableau suivant :
(Preliminary benchmark results (on a Pentium III 450 MHz), in Benjamin Grégoire et Xavier Leroy, A compiled implementation of strong reduction).
Le fait que t2 = 0,13 secondes est le résultat d'une mesure. Et la manière dont on présente ces résultats (en précisant les outils utilisés...) rappelle beaucoup la manière de présenter des résultats expérimentaux.
Pourtant, connaissant chaque ligne du programme, chaque ligne du compilateur et le temps d'exécution de chaque instruction du processeur, on pourrait déduire que t2 = 0,13 secondes par un raisonnement exclusivement. Ce résultat est purement analytique, et il ne dépend, pas exemple, de la constante de gravitation. Mais, en pratique, l'expérience est plus facile à réaliser que le raisonnement à construire.
Comment cette expérience particulière, réalisée avec des objets particuliers, peut-elle nous permettre d'établir le théorème, c'est-à-dire que dans tous les mondes possibles, si on met deux objets quelconques dans une boite, puis deux autres objets, il y en quatre à la fin ?
Cela est possible, car on sait :
- qu'il existe un unique nombre tel que 2 + 2 = n
- que si on met dans une boite ces deux objets particuliers,
puis ces deux autres objets particuliers, il y en a 4 à la fin.
Donc ce ne peut être ni 0, ni 1, ni 2, ni 3, ni 5, ni 6... par élimination, c'est donc 4
On a donc pu ainsi établir qu'un énoncé est analytique en faisant une expérience. On peut parler de connaissance analytique a posteriori.
Cela est vrai de n'importe quel calcul mécanique : compter sur ses doigts, utiliser un boulier, utiliser un ordinatuer, utiliser une soufflerie..
Dans cette optique, l'ordinateur est un outil expérimental pour parvenir à une fin : établir une connaissance analytique. On peut alors définir les Stic comme métathéorie de la construction de ce savoir analytique a posteriori, de même que la logique est métathéorie de la construction du savoir mathématique.
On explique ainsi les liens des Stic avec mathématiques, par l'unité des fins (analytique), et avec les sciences de la nature (ordinateur quantique en ) : particulier), par l'unité des moyens (a posteriori).
Gilles Dowek nous signale son article "À propos de quelques démonstrations pas très convaincantes", accessible (en PDF) son site à l'Inria, qui reprend certaines idées développées dans la dernière partie de son intervention à l'Asti.
Les universités de technologies constituent un réseau de trois pôles :
Belfort-Montbéliard, Compiègne et Troyes. L'UTT comprend six équipes
de recherche :
- nanotechnologie et instrumentation optique,
- modélisation et sûreté des systèmes,
- systèmes mécaniques et ingénierie simultanée,
- optimisation des systèmes industriels,
- technologie de la coopération pour l'innovation et le changement
organisationnel,
- étude interdisciplinaire du développement durable.
Le laboratoire Tech-Cico (Technologie de la coopération pour l'innovation et le changement organisationnel) traite de la modélisation des activités coopératives médiatisées. Il s'agit d'analyser et de comprendre le fonctionnement des activités coopératives engendrées par le développement des TIC et d'assurer une gestion efficace des connaissances dans les activités humaines organisées avec les nouveaux environnements technologiques.
Pourtant, l'épistémologie a un rôle fonctionnel : elle fait partie de la pratique scientifique de toute discipline. Et ce rôle est même primordial dans le cas des Stic, car il faut répondre aux exigences des sociétés démocratiques avancées face au progrès scientifique et technique.
Partons, quant à nous, de la définition de l'informatique donnée par l'Académie française, en 1966 : "Science du traitement rationnel, notamment par machines automatiques, de l'information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux".
Cette définition peut correspondre à deux groupes de disciplines
sensiblement distinctes :
- l'ensemble des technique mises en oeuvre pour l'utilisation des
ordinateurs (electronic data processing, en anglais),
- une science nouvelle, qui n'est pas fondamentalement liée à
l'utilisation des ordinateurs, ces derniers en constituant cependant un
outil majeur (computer science, en anglais).
Ces deux thèses comptent des partisans distingués. La seconde a été particulièrement affirmée en France par le professeur Jacques Arsac dans son ouvrage La science informatique (Dunod, Paris 1970). Si l'on s'en tient à l'empirisme de la première thèse, on peut remarquer que le traitement automatique de l'information, tout spécialement par ordinateur, met en jeu un grand nombre de disciplines scientifiques dans un champ d'application très voisin de l'organisation (scientifique, industrielle, administrative).
Les Stic ont défini leur champ de recherche autour des systèmes et des technologies de l'information et de la communication. Elles font porter l'essentiel de leur attention sur les processus qui président à la conception, à la construction et au fonctionnement de ces systèmes ainsi qu'aux interactions que les humains réalisent entre eux. L'ampleur du programme a pour conséquence que les sciences de l'information et de la communication constituent un champ fondamentalement pluridisciplinaire.
La question centrale de tous les débats est : "Qu'est-ce qui est le plus théorique en informatique ? " .
Certains pensent que l'informatique théorique est une informatique proche des mathématiques et/ou de la physique. Que "plus c'est formel, plus c'est scientifique" et que le reste doit être relégué dans les applications.
Mais où est le coeur de l'informatique ? S'il s'agit de problèmes de modélisation, alors on peut s'appuyer sur des disciplines comme la sémiotique, l'anthropologie cognitive, l'intelligence artificielle, l'ingénierie des connaissances, les interfaces homme-machine et les sciences humaines et sociales pour construire de l'intelligence partagée et du sens.
Dans cette optique, la théorie de l'informatique ne relève pas des mathématiques mais de l'ingénierie des connaissances. C'est une forme d'IA. Les mathématiques ne sont qu'un outil. Ce sont les sciences cognitives qui fournissent les sources. Il faut s'inspirer des systèmes de traitement de l'information biologiques (système individuel, organisation, société), et des lois du raisonnement plus que de celles des sciences de la nature. .
Si les Stic veillent à la conception et au développement des technologies offrant des possibilités de stockage et des procédures d'accès à l'information, il est important qu'elles maintiennent la cognition humaine dans la boucle informationnelle qui relie (de façon bidirectionnelle) les humains et leurs artefacts.
Toutes les grandes fonctions cognitives (perception, représentation, apprentissage, mémoire, raisonnement, planification) sont donc mises à contribution dans la boucle du traitement de l'information et de la communication. Cela rend essentiel leur prise en compte dans une approche compréhensive des phénomènes abordés par les Stic.
Nous reprenons là, dans les champs des Stic, le vieux débat anti-positiviste initié par D. Dilthey dans son ouvrage inaugural de 1883 (L'introduction aux sciences de l'esprit). Dilthey y considère que le modèle des sciences de la nature n'est pas adapté à l'étude de phénomènes faisant intervenir, à quelque titre que ce soit, les résultats de l'activité humaine. Ce modèle n'est pertinent que pour étudier les aspects naturels ou physiques des phénomènes. Le modèle scientifique adéquat à l'étude des phénomènes impliquant l'humain est celui des sciences de l'esprit. Par la suite, de nombreux scientifiques multiplieront les mises en garde concernant l'imitation service de la méthode des sciences de la nature à tous les secteurs du savoir humain.
Il y a un enjeu fort à inclure les disciplines centrées sur l'humain dans la démarche globale des Stic, non pas comme simple "valeur ajoutée" mais comme objectif inhérent au programme même des Stic. Faute de le faire, on risque de dévoyer les objectifs et de ralentir la maîtrise des Stic dans une optique de développement durable.
La technologie de l'information concerne toutes les formes d'aide méthodologique ou matérielle permettant à l'homme de concentrer son attention sur les aspects les plus importants des messages.
En ce sens, la technologie de l'information est apparue avec le langage parlé, puis avec l'écriture et le calcul. Les machines même ne sont pas récentes, puisque les abaques, les bouliers constituaient déjà, il y a quelques milliers d'années, des outils assurant des fonctions importantes de traitement. Le recours à l'électronique a certes permis d'amplifier le rôle des machines dans le partage des tâches d'exécution pure, et de réaliser effectivement certains calculs hors de portée pour nos ancêtres. Mais il n'y a pas de différence qualitative majeure entre les types de travaux réalisés à l'aide de grands ensembles électroniques et ceux qui n'avaient l'aide que de machines plus rudimentaires ou qu'une feuille de papier et un crayon.
L'illusion que la puissance de jugement soit accrue parce que les robots fonctionnent avec une très grande célérité est fort répandue, bien qu'il suffise d'aborder quelques problèmes de nature combinatoire, qui se posent constamment dans la vie pratique, pour constater qu'il est strictement impossible de les résoudre par la simple énumération de toutes les combinaisons, même si l'on dispose des outils les plus puissants et les plus onéreux.
Pourrait-on même asservir tous les atomes de l'univers qu'ils ne suffiraient pas à représenter certains nombres que l'esprit conçoit sans peine. Les plus extraordinaires perfectionnements de matériel ne sauraient donc dispenser de rechercher sans cesse l'amélioration des méthodes et d'y apporter tous les raffinements possibles.
D'après Daniel Andler
Il est impératif de corriger une tendance prioritairement technologisante si l'on veut prévenir, dans les années à venir, les risques de pollution technologique, d'illectronisme et de nouveaux clivages sociaux. Pour cela, la primauté des besoins et des capacités humaines doit être inscrite dans l'orientation des recherches sur les technologies de l'information et de la communication.
Face à l'augmentation des risques scientifiques et techniques (OGM, ESB, déchets nucléaires, téléphones mobiles, amiantes, tabac, diagnostic génétique, vache folle...), le thème de la démocratie scientifique et technique, qui cherche à relier systématiquement la technique aux choix est besoins humains et sociaux, devient un enjeu central. Pour "enrichir" les Stic par les sciences humaines et sociales, nous avons choisi cinq points d'entrée parmi plusieurs autres possibles : l'anthropologie des sciences et des techniques, les sciences de l'artificiel (design), les applications des Stic dans la société de la connaissance, les interactions humaines et la cognition, l'application des Stic aux sciences humaines.
Or les ethnosciences actuelles cherchent à analyser les pratiques scientifiques effectives. Il convient de replonger l'étude des sciences et techniques dans la société. L'idée de science est souvent associée à celle d'un monde à part, un monde qui diffère de la société de tous les jours. L'image du savant isolé, se passionnant pour des choses incompréhensibles, marque encore fortement notre perception des sciences.
Parmi les auteurs qui ont analysé cette fracture, notons :
- Bachelard (science/non-science),
- Popper (falsificationnisme, contexte de la découverte/contexte
de la justification),
- Kuhn (paradigmes).
Et pourtant... "les scientifiques vivent et mangent des sandwiches comme tout le monde".
La sociologie fonctionnaliste américaine (Robert Merton) analyse les mécanismes de régulation comme les normes éthiques (universalisme, communalisme, désintéressement, scepticisme organisé), les normes techniques, la transmission des normes (système de gratification symbolique, contrôle social exercé par les pairs, modèle de démocratie, etc.).
On en vient, plus tard, à l'analyse des fraudes, du secret (contraire aux normes mertoniennes), de l'attachement aux idées (contrairement au désintéressement), etc. Puis à l'étude de l'organisation et de la profession scientifique : la profession est responsable d'un corps de connaissances spécialisées. Elle a une autonomie de recrutement, de formation et de contrôle de ses membres. Elle a un système propre de récompenses pour motiver et contrôler ses membres... On peut aussi étudier les conditions institutionnelles d'émergence de nouvelles disciplines.
Pour Warren Hagstrom, le contrôle social du comportement des scientifiques ne tient pas à un système de normes mais à un système d'échanges entre scientifiques : un espace de circulation et d'échange comparable aux marchés des économistes, dont la principale motivation est l'extension de la reconnaissance personnelle (accumulation du crédit scientifique chez Bourdieu, cycles de crédibilité...). Apparaissent des méthodes d'analyse comme la scientométrie, c'est-à-dire l'analyse quantitative du développement scientifique : nombre de publications, quantité de résultats par laboratoire, par pays, par discipline, etc.
Il s'agit, principalement, de regarder les conditions de production de la science et pas seulement ses résultats. La notion de "paradigme" se précise comme "modèle, qui domine en phase de science normale, qui est transmis par l'éducation et l'apprentissage". Chez Kuhn, contrairement à Popper, il n'y a pas de logique inhérente au développement des connaissances. Le passage d'un paradigme à l'autre relève d'une "conversion mystique" irrationnelle. Il s'explique par des facteurs extra-scientifiques.
Autour de ces notions s'organise le débat preuve/consensus. Pour les rationalistes, une preuve correcte s'impose par elle-même, au moins aux personnes compétentes et sans préjugés. Pour les relativistes, il n'y a pas a priori de critères absolus et universels de rationalité. La preuve est relative. Le consensus est social, au sens où fait preuve ce qui est reconnu en tant que tel par le groupe. Le bon fil rouge, c'est l'étude des controverses scientifiques.
1. La mobilisation du monde. Elle s'appuie sur des instruments, des expéditions, des enquêtes, des collections. Toutes les disciplines doivent mobiliser le monde d'une certaine façon, c'est à dire le mettre en mouvement et créer des institutions à l'intérieur desquelles ce monde est mis sous des formes "mobilisables", c'est-à-dire lisibles, manipulables, recombinables de diverses façons.
2. L'autonomisation de la recherche conduit à trouver des collègues, c'est-à-dire des gens capables de comprendre ce qu'on fait et ce qu'on dit (professions, institutions, autorités...).
3. On s'allie ensuite avec des gens que l'on peut intéresser à la réalisation des opérations précédentes : mobilisation du monde (avec un financement idoine) et la constitution-autonomisation de collègues (Etat, industrie, armée, éducation, intérêts).
4. Ces activités s'élargissent aux relations publiques, prises au sens très large de la "mise en scène" de l'activité scientifique en général, du marketing scientifique.
5. Enfin, on en arrive au contenu de l'activité scientifique, avec ses fameux concepts, ses fameuses idées. C'est ce contenu qui va permettre de relier, d'attacher en ensemble les quatre horizons ci-dessus. Et les concepts seront d'autant plus forts qu'ils lieront un plus grand nombre d'horizons.
Autrement dit, la sociologie des pratiques scientifiques (ethnométhodologie) nous apprend que, loin d'être inhérent à une quelconque rationalité humaine transcendant les contextes pratiques, les énoncés et faits scientifiques sont, comme toute chose humaine, résultat d'une production sociale.
Le modèle des sciences de la nature et du vivant n'est pas adapté aux sciences de l'ingénieur (sciences appliquées). Le processus central de l'innovation n'est pas la science, mais la conception.
L'ordinateur est un artefact. Pour Herbert Simon, l'informatique est une science empirique. Comme il le dit "Cette extrême aptitude des ordinateurs à l'abstraction a rendu facile l'introduction des mathématiques dans l'étude de leur théorie. Elle a aussi conduit quelques experts à la conclusion erronée que si une science informatique émerge, elle sera nécessairement une science mathématique plutôt qu'une science empirique (...) La possibilité de bâtir une théorie mathématique d'un système... ne dépend pas de la disposition d'une microthéorie adéquate des lois naturelles qui régissent les composants du système. Une telle microthéorie s'avère, dans de tels cas, sans intérêt. Cela nous conduit à la possibilité d'une science empirique des ordinateurs, science distincte de la physique des états solides ou de la physiologie de leurs composants".
La démarche consiste à construire des systèmes et à observer la façon dont ils se comportent.
S'orientent vers les sciences de la conception aussi bien des ingénieurs, des architectes et des juristes que des médecins ou des gestionnaires. Le domaine d'étude de ceux qui oeuvrent dans l'artificiel est l'analyse des mécanismes par lesquels se réalise l'adaptation des moyens aux environnements. Au centre de cette analyse, nous trouvons justement le processus de conception. Pour Simon, une science de la conception est possible, en mobilisant la sociologie, l'ergonomie, la psychologie cognitive et l'anthropologie.
Dans cette entrée, nous souhaitons signaler simplement qu'aujourd'hui le développement scientifique et technique dans le domaine des Stic est de part en part immergé dans l'économie et la société de la connaissance.
On peut d'ailleurs établir un tableau des innovations majeures/mineurs à partir des
travaux d'Atlshuller (1984). Quelques exemples dans les quatre premiers cas :
- transistor, pénicilline, polymères,
- moteur à combustion interne, circuit intégré, ordinateur personnel,
- pneu radial, stylo à bille, VTT, souris pour ordinateur,
- air conditionné, boite de vitesse automatique pour l'automobile.
Les innovations push sont les produits d'avancée technologique. Les innovations pull sont tirées par le marché. Les premières sont plus radicales que les secondes. Mais la demande joue un rôle totalement moteur dans la stimulation de l'innovation et sa diffusion. Une célèbre étude de Schmooker conclut "Malgré la popularité de l'idée selon laquelle les découvertes scientifiques et les inventions majeures sont les principaux stimuli de l'innovation, l'examen des innovations importantes dans des domaines tels que le raffinage du pétrole, la fabrication du papier, les chemins de fer et l'agriculture ne permet pas de déceler un seul exemple où des découvertes scientifiques soient à l'origine du processus d'innovation".
A la recherche "confinée" s'opposent donc les perspectives d'une recherche collaborative et ouverte. Elle prendrait en compte le rôle croissant des usagers et des entreprises dans la dynamique de production des Stic. Elle se mettrait ainsi en mesure de comprendre les besoins, les usages, le marché, la société dans son ensemble. Elle ouvrirait sur la gestion des risques et des incertitudes dans le cadre d'une "intelligence collective".
Parallèlement, on cherche à minimiser l'opacité des systèmes, pour préserver leur intelligibilité et leur capacité de communication.
Cela suppose des avancées techniques, principalement dans la compréhension
des interactions sociales, homme/machine et des mécanismes cognitifs et
langagiers. Il faut en effet :
- augmenter et intégrer les compétences, disposer de capacités pour
percevoir, représenter, traiter, raisonner, décider, planifier, contrôler,
résoudre, évaluer et valider,
- faire progresser des compétences pour partager, interagir, coopérer
et communiquer, avec des aptitudes à l'autonomie, l'adaptation, l'apprentissage,
l'explication, la conception, la création,
- qualifier et accroître les performances : rationalité, intégrité,
cohérence, validité, fiabilité, adaptabilité, flexibilité, évaluabilité,
apprenabilité, utilisabilité, utilité, efficacité, lisibilité,
- comprendre l'information comme un processus, initié par l'humain, à
l'intention de l'humain, avec un rôle, une forme, une qualité, un contenu,
une structure, des relations, des dépendances, une origine, un devenir,
une démarche,
- comprendre la connaissance comme capacité à construire et à agir ; l'action
comme multimodale, concourante, conjointe, collaborative ; la communication
comme tentative d'ajustement.
Il faut concevoir des artefacts capables d'interaction sensori-motrice, et progresser dans la compréhension des processus sub-cognitifs humains. Il faut élaborer des systèmes pour l'analyse des comportements sub-cognitifs : perceptions (goûter, sentir, toucher, entendre, voir), actions (épistémiques et instrumentales) et affects (traitement des émotions). Il faut concevoir des artefacts capables d'interagir (voir, sentir et agir) de manière autonome (multimodalité, agents intelligents). Il faut étudier l'apprentissage par l'homme et par la machine.
Négociation du sens, communication humaine, ingénierie des connaissances, cultures
Il s'agit de permettre la communication (sous toutes ses formes sémiotiques), de comprendre et d'assister l'élaboration, l'explicitation et la négociation du sens, qu'il s'agisse d'agents humains ou artificiels. S'inscrivent ici le traitement automatique des langues et des interactions non-langagières, l'ingénierie de la connaissance (construction du sens) et les environnements informatiques pour l'apprentissage humain (EIAH). (Cf. J. Bruner. Du traitement de l'information à la construction collective de la signification).
Usages pratiques, médiatisation homme/Machine, nouveaux collectifs en réseau (communautés), mondes artificiels
Il s'agit ici de modéliser les relations, en situation, entre hommes et machines, d'élaborer des méthodes de conception et d'évaluation permettant une meilleure intégration des systèmes dans les pratiques individuelles et collectives. Se dégagent des modèles des tâches, de l'usager et de son profil, de l'organisation sociale et des processus d'entreprise, ainsi que des modèles des systèmes (conception et évaluation). Enfin, l'on identifie et l'on construit les attentes des usages, avec la modélisation des changements organisationnels;
Il s'agit d'une interdisciplinarité qui ne s'articule ni autour d'une prescription par les modèles informatiques, ni autour d'une confrontation humain/non-humain, mais autour de la dynamique qui unit systèmes, humains et environnements vers la quête de connaissances.
De même qu'il n'est pas question de réduire l'intelligence humaine à une machine, il ne peut être question de réduire l'intelligence des machines à sa seule confrontation à l'humain. Se met ainsi progressivement en place une notion d' "informatique sociale".
Les applications documentaires ou pédagogiques en particulier, sans parler des essais de traduction automatique des langues, mêlent la physiologie, la psychologie et la psychologie sociale.
Les processus de simulation, la recherche opérationnelle, la théorie des jeux... permettent d'ailleurs à l'ordinateur d'intervenir pratiquement dans tous les domaines de l'activité humaine.
L'idée générale est d'amplifier l'homme (les institutions et les organisations). Selon le sociologue Antony Giddens, les sociétés post-modernes sont marquées par la réflexivité. Avec le formidable développement de la sociologie, de la psychanalyse, du marketing, de l'histoire ou des mass-media, nous sommes sans cesse en représentation, en train de nous observer, de nous analyser, de chercher à nous paramétrer. La réflexivité décrit l'effet en retour de nos propres conceptualisations sociologiques sur notre vécu expérientiel. Nous retrouvons là, sous une autre forme, l'intuition de Simon d'une science de l'artificiel, d'une science des environnements synthétiques, construits par l'homme et pour l'homme.
Et si nous prenons cette idée avec le sérieux qu'elle mérite, alors il est probable que l'accroissement de compréhension, que les sciences humaines et sociales puvent encore nous apporter sur nos propres fonctionnements individuels et collectifs, marque toujours - autant que les progrès de la science et de la technique - une nouvelle frontière pour les Stic.
Le CNRS indique que Claudie Haigneré, 45 ans, était précédemment astronaute pour
l'Agence spatiale européenne. Elle a été la première
astronaute française à voler à bord de la Station spatiale internationale (ISS).
- Journal officiel du 18/6
- Son curriculum vitae (sur
le site du ministère de la Recherche).
Sa première sortie officielle a été consacrée au siège du CNRS ( le communiqué).
L'association organise une journée sur le 3-5-8 le jeudi 19 septembre à Paris. Cette journée d'information mutuelle permettra d'affiner la préparation du congrès. La participation à la journée sera gratuite pour les adhérents. Pour les autres, une participation aux frais sera demandée.
Le congrès aura lieu les 16 et 17 janvier 2003 à Toulon. Un de ses objectifs pourrait être de commencer la rédaction d'un livre blanc sur le métier d'enseignant-chercheur en informatique.
Contact : Michel Riveill, professeur à l'Essi (Université de Nice, Ecole supérieure en sciences informatiques), laboratoire I3S, équipe Rainbow.
Ce rapport est le résultat des travaux du groupe de travail du Cigref « carrefours d'affaires sur Internet » et du projet IMP. Ce dernier a rassemblé pendant 14 mois dix grandes entreprises. Le consortium ainsi constitué avait pour mission de mener une étude d'opportunité et de faisabilité de la création d'une place de marché dédiée aux biens et services informatiques et de télécommunications.
Ce rapport analyse dans une première partie la situation dans les grandes entreprises. Il passe aussi en revue les mauvaises pratiques et les raisons qui peuvent conduire à l'échec des projet d'e-procurement ou de places de marché électroniques. Il détaille les attentes des grandes entreprises dans le domaine des achats et met en perspective les réponses apportées par les solutions d'e-procurement et de places de marché.
Dans une partie plus opérationnelle, le rapport s'attache à décrire les différentes étapes de la conduite de projet : de l'étude d'opportunité à la mise en oeuvre, en passant par le business plan ou la recherche des solutions et des outils. Il se focalise ensuite sur les différents acteurs et certains points clés tels que l'intégration technique et fonctionnelle ou les catalogues électroniques.
Le rapport peut être obtenu gratuitement sur le site web du Cigref.
Le SNCS tient, comme d'autres professions, à acter ses promesses puisque le gouvernement a dit que toutes les promesses seront honorées. Le courrier de Jacques Chirac au SNCS est consultable sur le site www.cnrs-bellevue.fr/~sncs).
Business Interactif, qui avait déjà publié un white paper sur les méthodes agiles fin 2001, a participé à l’élaboration du premier livre français sur l’Extreme Programming.
L’Extreme Programming propose une gestion de projet informatique appuyée sur des itérations courtes, redéfinissant complètement le cadre de la collaboration entre le client et le fournisseur. A la clé : une meilleure qualité de développement, des délais respectés et une conformité des applications aux besoins réels des utilisateurs.
L’Extreme Programming fournit un cadre méthodologique, depuis l’analyse des besoins jusqu’aux tests, favorisant la souplesse et le facteur humain plutôt que la définition exhaustive et prédictive des besoins.