1988 : aurons-nous franchi les seuils ?
Notes sur l'évolution des matériels, des logiciels et de leur utilisation
Pierre Berger. Informatique et Gestion, no100, octobre 1978
Aujourd'hui premier juillet 1988 : Informatique et Gestion m'a demandé un article retraçant l'évolution des systèmes d'information depuis 1968, et il faut qbien que je me décide à leur envoyer mon texte.Que dire ? Bi en des choses ont changé, et pourtant l'univers parait tellement toujou rs le même ! En fait, la presse comme les informations télévisées sont inquiétantes. Je me demande si nous ne sommes pas à la veille d'une grande mutation. p>
Et, à vrai dire , cela ne peut plus durer. Nous avons jusqu'à maintenant réussi (si l'on peut appeler cela une réussite), à maintenir les structures techniques, politiques et sociales de l'ère industrielle. Mais le déséquilibre entre le discours et la réalité, e ntre les possibilités techniques et les réalisations est trop grand pour éviter longtemps la « catastrophe ».
En fouillant dans ma bibliothèque, je retrouve le texte d'une conférence que j'ava is préparée il y a dix ans pour une association d'utilisateurs. Dans l'ensemble, tout cela est resté à peu près valable aujourd'hui, et le mieux est de la reprendre telle quelle, en pensant que s ans doute, d'ici deux ou trois ans, la mutation qui nous attend aura tellement changé nos modes de pensée que les mots même n'auront p lus le même sens.
Quand Luca Paciolo inv enta la comptabilité en partie double, vers 1492, il ne disposait d'aucune machine à calculer. Peut-être s'aidait-il d'un boulier. Mais sa méthode comptable est toujours une pièce essentielle du système d'information de nos entreprises.
Quant René Carmille lança vers 1937 le numéro individuel du citoyen, il utilisait des tabulatrices dont le modèle est aujourd'hui conservé dans certains musées. Mais la structure du code choisi à l'é ;poque persiste dans notre « numéro de sécurité sociale » et pour une bonne part dans le projet Safari qui a tant fait couler d'encre.
Parallèlement, ni l'entreprise pour laquelle travaillait Paciolo, ni le département administratif où travaillait Carmille n'existent plus aujourd'hui, en tous cas sous la même forme.
Autrement dit, les str uctures les plus résistantes ne sont ni les machines, ni les organisations q ui s'en servent. Ce sont des formes, un peu abstraites, qui régissent le fonctionnement synergique de corps sociaux, d'individus et d'outils. A la f ois arbitraires et profondément accordées à des réalités « naturelles ». Arbitraires pa rce que résultant de choix faits par des individus ou des assemblé ;es. Naturelles parce que correspondant à des caractéristiques cognitives, par exemple.
Ne nous servons-nous p as, à quelques détails près, du même alphabet et du même type de langage que nos ancêtres grecs : 26 lettres au lie u de 24, dont une vingtaine ont le même usage et dix la même forme.< o:p>
Il est raisonnable de penser qu'il en ira de même dans les années qui viennent. La technolo gie, électronique essentiellement, progresse à grands pas. Les structures électroniques sont en crise permanente et pourraient subir des bouleversements profonds.
Les évolutions les plus lentes, les plus lourdes, les structures les plus stables, sont sensiblement à égale distance de la planche à dessin de l'ingénieur et du tapis vert des conseils d'administration./p>
Nous sommes cependant à une époque où ces structures intermédiaire sont l'obje t de renouvellements fondamentaux. Jusqu'à présent, en effet, l'informatique de gestion s'est surtout présentée comme l'automatisation de processus administratifs liés au papier. Certes, elle en a réduit le crût, accéléré l'exécution, permis un développement massif. Mais nous avons gardé l'essentiel des procédures, des modes de preuve, des techniques de règlement des conflits que le papier avait peu à peu conduit à mettre en place.
Nous entrons dans une
phase
nouvelle, largement basée sur l'emploi de terminaux à
clavier/écran, pour mettre en oeuvre des moyens électroniques
de
traitement, mais plus encore de stockage et de communication de l'informati
on,
avec des puissances et des débits nominalement illimités.
Les techniciens ont te ndance à dire que tout devient réalisable et que l'on bute sur des « problèmes humains ». Cela me semble à la fois vrai et faux. D'une part, en effet, la technique ne progresse qu'&agra ve; peine dans des domaines qui seraient d'un intérêt majeur pour les applications de gestion. De l'autre, l'humain est aussi moteur que « problème ».
C'est une défor mation de techniciens, ou simplement une attitude inévitable pour l'action, de classer les individus en grandes catégories opposées. Il y a des clients rois et des fournisseurs méprisables, des citoyens qui écrasent des contribuables... En informatique, il y aurait de bons informaticiens, dynamiques et porteurs de progrès, et de mauvais utilisateurs, incapables de comprendre les techniques modernes, opposant la force d'inertie au mouvement de l'histoire, et contre qui la mobilisation d e la direction générale est indispensable si l'on veut faire about ir quelque projet.
On assiste aujourd'hui à un retournement : c'est l'utilisateur qui demande de l'autonomie, du transactionnel, du temps réel... et c'est l'informaticien qui multip lie les bonnes raisons pour ne pas remettre en cause des systèmes dont il sait le prix qu'ils ont coûté, en argent et en nuits blanches.
En fait, nous allons s ans doute vers une nouvelle répartition de tâches entre spécialistes et utilisateurs. Il y a de l'humain chez les uns comme chez les autres. L'homme n'est ni fin, ni moyen, mais les deux indissolublemnet. Mais ce n'est guère facile à garder constamment à l'esprit.
Mais pourquoi, face &a grave; cette demande des utilisateurs, la technique ne répond-elle pas plus vite ? C'est qu'en fait, il y a de réelles butées techniques, et que probablement nous ne saurons pas les dépasser avant une dizaine d'années. Un certain nombre de ces blocages forment ce que l'on pour rait appeler le « triangle des Bermudes » des systè mes d'information
Nos moyens de communic ation, d'un homme à l'autre, se limitent pour l'essentiel à deux typ es de canaux : le geste s'adresse à l'oeil, la bouche parle pour l'orei lle. Ces canaux peuvent être relayés par des supports et des lignes de communication d'images ou de sons.
On passe aiséme nt d'un support d'image à un autre : film papier, ou enregistrement vid&eacu te;oscopique (type télévision). Par contre, on ne sait pas traduire une im age en son, et réciproquement. Les deux familles sont donc bien séparées, sauf dans le cas particulier d'images conçues spécialement pour représenter des sons (bande latérale d'un film sonorisé, texte écrit), ou de codification sonore d 'une image (télécopie). Les exceptions ne font que confirmer la règle.
L'informatique est ven ue apporter un troisième type de support de l'information : le codage digital, susceptible d'être physiquement porté par touts sorte s de supports physiques et transmis par différents moyens. La communicati on avec les autres supports ne s'établit que dans un sens : à pa rtir de l'information codée, on peut facilement générer des images (chiffres, textes, graphiques) ou des sons (parole, musique). Mais, en sens inverse, on ne sait que très médiocrement passer de l'im age ou de la parole à des informations codées.< /p>
On ne pourra sérieusement dépasser ces limites, s'affranchir du triangle d es Bermudes, qu'en développant de manière considérable ce que l'on appelle aujourd'hui intelligence artificielle.? C'est-à-dire, en pratique, la possibilité de reconnaître la signification des images et des paroles et d'avoir un comportement en conséquence (cet te notion de signification est d'ailleurs loin d'être simple et fait de nos jours l'enjeu de diverses réflexions, aussi bien au niveau technique que philosophico-politique. Mis on est loin, pour l'instant, de concevoir des machines de ce genre.
On peut penser qu'il n 'en ira pas autrement d'ici à 1985, en tous cas pour ce qui est des produits commercialisés. Les experts semblent unanimes sur ce point. En effet, pour que de nouvelles structures soient disponibles pour les utilisateurs, il faut un temps, qui reste assez long malgré l' « accélération de l'histoire », entre l es premières réalisations en laboratoire et la commercialisation .
Une des voies sans dou te les plus prometteuses est la structure de processeurs associatifs, ou en réseau. Certains modèles sont déjà disponibles commercialement aujourd'hui, après avoir fait l'objet d'articles pendant de longues années. Mais, dans l'immédiat, et sans doute pour plusieurs années encore, ils ne renouvellent pas vraiment la problémati que. La plupart du temps, on ne s'intéresse à ces structures que p our accroître la puissance des machines sur des travaux de type classique .
La récente anno nce du DAP d'ICL, par exemple, est typique : « le DAP permet de réaliser en parallèle un très grand nombre d'opérations... pour donne aux utilisateurs la possibilité d'utiliser un langage de haut niveau. ICL développe un nouveau diale cte de Fortran, le DAP Fortran » : la cause est entendue. Les machin es nouvelles comprendront sans doute les langages informatiques d'aujourd'hui, mais on peut espérer qu'elles ne s'arrêteront pas là. Dire qu'elles comprendront et utiliseront la 'langue naturelle » est sans doute excessif, car de toutes manières, il n'y a pas de raison que ce qui est naturel entre humains le soit entre l'homme et la machine, mê me très évoluée.
Cela dit, le DAP ICL e st peut-être plus intéressant que d'autres. Dans beaucoup de cas, en effet, les processeurs associatifs sont des réseaux de petits processeurs assez traditionnels. Ici, la documentation laisse attendre des évolutions plus importantes. Suivons-là un peu, ne serait-ce qu'à titre d'exemple.
« Le protot ype utiliser une matrice de 32 x 32 éléments semi-conducteurs (no ter le vague de cette expression) qui ont chacun une capacité mém oire de 1024 bits. Un élément de calcul est associé à ; chaque élément de mémoire. L'élément de calcul travaille sur un bit d'information et écrit les résultats dan s sa propre mémoire ; il est capable d'utiliser comme donnée d'entrée les informations de sa mémoire ainsi que les mémoires voisines ou les données acheminées par les colonnes et les lignes de la matrice ».
A partir du moment o&u grave; le processeur élémentaires descend au niveau du bit, on échappe aux structurations inévitables liées à une structuration en caractères ou octets, et l'on peut s'ouvrir à des conceptions radicalement nouvelles, notamment le traitement de texte ou d'images Mais alors, paradoxalement, ce calculateur n'apparaît plus c omme très puissant. Il a beau « réaliser 5 milliards d'opérations par seconde », la puisse réelle sera à notre avis relativement réduire, sauf pour certaines applications particulières, car une des caractéristiques du traitement d'images est un inévitable gâchis... qui n'aura d'ailleurs demain aucune importance car des processeurs de type DAP ne devraient pas coûter tellement cher. D'ailleurs, les modèles de série du DAP seront déjà plus puissants : une matrice de 64 par 64 éléments et des éléments de mémoire de 4 K bits.
Il y a là une intéressante amorce, mais les pas essentiels restent à franchir.
Une plus grande imagin ation se manifeste-t-elle pour les périphériques ? Les annonces nouvel les d'imprimantes, d'écrans, de disques, d'unités de contrô le de télécommunications sont abondantes : à peu pr&egrav e;s un millier de « nouveaux produits » chaque anné ;e.
Cependant, là e ncore, on peut s'étonner d'une relative lenteur sur des points essentiels L es imprimantes et écrans cathodiques, notamment, sont les lieux majeurs de contact entre l'ordinateur et ses utilisateurs. Or nous nous contentons toujours d'impressions à peine améliorées depuis le te mps des tabulatrices, et d'écrans souvent médiocrement contrastés, donc fatigants pour l'oeil. La qualité reste pres que l'apanage des loisirs, où l'on tient à bénéfici er de la haute fidélité ou d'éditions de bibliophiles, al ors qu'on se contente dans la vie de travail de présentations sommaires. On pouvait espérer, il y a dix ans, que le mariage de la photocompositi on et de l'ordinateur conduirait vite à des productions sinon luxueuses du moins plaisantes. Il n'en a pratiquement rien été.
Cette situation changera-t-elle d'ici à 1985 ? Il y aura certainement des améliorations de détail. Des écrans un peu plus soignés, munis de filtres de plus en plus élaborés, par exemple. Des imprimantes à bon contraste, à polices de caract ères et mises en pages variées. En matière d'impression, les obsta cles ne semblent pas essentiellement techniques. On bute sur des problèmes d'efficacité (on ne peut pas à la fois imprimer vite et beau) et de temps de conception. L'emploi de majuscules et de minuscules, de caractères variés, nécessite, pour être utile, u ne programmation spécifique et passablement complexe. Les entreprises se lanceront-elles dans les investissements et les frais de fonctionnement n&e acute;cessaires ? Après tout, le public lui-même s'est habitué à ces présentations. Il n'est même pas évident qu'il accueillerait très favorablement des sorties de machine qui voudrait trop faire semblant d'être « personnalisées &r aquo;. Dans un premier temps, en effet, le consommateur se sent flatté, mais ensuite, plus ou moins consciemment, il se défend contre les manipulations.
Techniquement, le problème des écrans est peut-être plus difficile. Les nouvelles technologies proposées (cristaux liquides, plasma...) ne paraissent pas pour l'instant en mesure d'améliorer beaucoup les présentations. Ce serait pourtant un point d'autant plus crucial que le rôle du papier diminue, et que nombre d'entre nous passent un temps de plus en plus considérable à regarder un écran, que ce soit la télévision familiale, les cours de la bourse, le mini-système, le terminal, etc. Il ne semble pourtant pas y avoir tellement de travaux de recherche en la matière. Pourtant, les personnels y sont aujourd'hui sensibilisés. Syndicats, écologistes, consumeristes se ligueront sans doute pour faire améliorer ces points.
On parle assez souvent, aujourd'hui, de l'emploi de la voix. Nous avons que, sur ce point, il ne fa ut guère espérer de progrès rapides. D'ailleurs, mê me si de légers progrès étaient faits, il n'est pas &eacu te;vident qu'ils auraient de grandes conséquences. La réponse vocale, p ar exemple, est commercialement disponible depuis 1964 (IBM 7772, Revue de la Mécanographie, juillet et septembre 1964). Elle n'a pas pour autant pris un développement substantiel, loin s'en faut.
Plus frappante encore, peut-être, est la stabilité, pour ne pas dire la stagnation, d es langages de programmation. On n'a pas inventé grande chose de bien fondamental, à ce niveau, depuis Cobol et Fortran. On n'attend guère d'annonces fracassantes pour les années qui viennent. I l y a eu, cependant, l'arrivée d'APL et de Basic, ce dernier ayant peut-être un avenir plus grand du fait de sa réelle simplicité (alors qu'APL est simple au départ mais devient rapidement très difficile à lire).
Au fond, ces langages correspondent vraisemblablement à un niveau approximativement optimal d'interface entre un utilisateur humain et une machine de Von Neumann. De même que l'emploi du papier a défini un alphabet d'approximati vement 26 lettres, de même les machines que nous utilisons conduisent pratiquement toujours à un même niveau de langage. Il n'a pas manqué d'efforts, cependant, pour en inventer d'autres, plus puissan ts, plus généraux... En fait, on n'a rencontré de succ&egr ave;s que pour des domaines spécialisés (Apt et ses épigones pour la commande numérique) ou en profitant de possibilités un peu plus riches qui ont justifié APL et Basic. Même en matière de langages spécialisés, les utilisateurs tend ent souvent à revenir aux codes les plus classiques : des spécialistes de la simulation, par exemple, préfèrent travailler en Fortran qu'en GPSS.
Dans une certaine mesu re, les « packages d'application » ont pu être considérés comme des langages spécialement orient&eacu te;s vers certaines professions ou fonctions. On sait le médiocre succès qu'ils ont rencontré pour la plupart.
Il est donc raisonnabl e de penser que les langages existants ne changeront guère avant 1985. Ou tre une bonne adaptation à ce qu'on leur demande, ils présentent désormais un avantage considérable : être connus et pratiqués par une grand nombre de personnes et implément&eacu te;s de manière plus ou moins normalisée sur toutes les machines. Pour que de nouveaux langages aient des chances de s'implanter sérieuseme nt, il faudrait qu'ils présentent des avantages considérables,et pour le moment on ne voit rien se profiler de tel. Il peut y avoir des évoluions du fait de la programmation interactive, mais jusqu'&agrav e; maintenant cela ne semble pas avoir eu une grande influence, sinon de faire progressivement croître l'importance de Basic.
Les packages, ou progi ciels, ont par contre bien réussi dans le monde spécifique des informaticiens : le système, les routines, les moniteurs, bref toutes les annexes des systèmes d'exploitation. Il est vraisemblable que le progrès, sur ce point, continuera d'être régulier, accompagnant par exemple la montée des réseaux, des bases de données, etc.
On consacre actuelleme nt beaucoup d'efforts à la facilité d'emploi (ease of use, disent les anglo-saxons). Il s'agit d'un ensemble de dispositifs logiciels et de petites améliorations matérielles... mais ces facilités suffiront-elles à seulement compenser l'accroissement de complexité engendré par la présence des grands systèmes, des réseaux....
Il ne faut donc pas espérer, ni craindre, la disparition des informaticiens pour les prochaines années. En effet, même si un nombre croissant d'utilisateurs est initié à la programmation et sait faire quelques programmes sur un terminal, la conception, l'implémentation et la maintenance des systèmes d'information (au sens un peu étr oit d'ensembles d'outils technologiques) des entreprises et de toutes les organisations continueront de nécessiter des compétences élevées et même de plus en plus élevées. A la limite, d'ailleurs, ce n'est même pas un problème spécifiquement informatique au sens traditionnel du terme. Même s'il devenait enfantin de programmer, il ne serait pas pour autant facile de concevoir un réseau ou une base de données. Il suffit de se frotter, même superficiellement, à la littérature abond ante consacrée à ces deux points pour s'en convaincre.< /span>
Le terme de bureautiqu e fut lancé par Informatique et Gestion en avril 1977 et fut généralement reconnu, à partir de la mi-77 du fait que l'Iria l'adopta pour un séminaire spécialisé et que la Convention informatique lui donné une large audience. Il est d'aille urs difficile d'en donner une définition précise. Il s'agissait essentiellement de trouver une traduction au terme américain de "office automation", qui ne pouvait adéquatement être traduit par "automatisation du bureau", ni même par "automatisation du tertiaire". On pourrait peut-être la définir comme "l'électronique des bureaux". Elle regroupe en effet l'ensemble des outils de traitement de l'information implantés dans les bureaux, à l'exception de l'informatique proprement dit. Son cheval de bataille est le traitement de texte et ses ou tils spécifiques, auxquels on ajoute les moyens de communication des text es (télécopie, courrier électronique) le téléphone et la téléconférence./p>
Le mérite essen tiel de ce terme, pour l'instant, c'est qu'il favorise la communication entre des spécialistes qui jusqu'à présent avaient du mal &agrav e; se rencontrer. En particulier, la collaboration université-industrie s'y présente de manière assez favorable, comme l'a montré le premier congrès français de bureautique organisé en ma rs dernier à Grenoble.
Son trait majeur est s ans doute qu'elle centre son attention sur un lieu précis : le bureau. Il n'est donc pas a priori dans sa vocation de construire de nouvelles salles climatisées avec un matériel aussi incompréhensible que l'informatique.
En sens inverse, on pe ut être tenté de réduire la bureautique à un complément de l'informatique, comprenant essentiellement des logicie ls spécifiques pour traiter les textes et des moyens d'impression un peu plus élégants que les imprimantes rapides actuelles. Le versa nt téléphonique étant représenté par des autocommutateurs et des postes un peu plus élaborés./p>
Il faut bien voir, cep endant, qu'il faut prendre en compte des problèmes spécifiques aux bureaux. Les instruments électroniques mis à la disposition d es personnels administratifs étaient jusqu'à présent assez peu nombreux pour se juxtaposer aux bureaux ou s'y poser. Ainsi voit-on couramment se promener au milieu des papiers le combiné téléphonique, la calculette plus ou moins développée et, sur un petit meuble à portée de main, la machine à écrire pour le terminal, parfois le lecteu r de microfiche.
Il deviendra progressi vement souhaitable puis nécessaire d'intégrer ces divers instruments. Pour des raisons d'économie de matériel (pourquoi avoir une multiplicité de cadrans, de claviers, d'afficheurs, de dispositifs d 'impression... puisque de toutes manières on ne peut taper qu'avec deux mains...), d'ergonomie et d'encombrement des plans, et même, plus profondément, pour intégrer les différentes utilisatio ns dans le cadre d'un système d'information personnel évitant les double-emplois, les recopies et les répétitions. Il faut &agr ave; s'attendre à quelques tâtonnements. Les informaticiens sont là pour rappeler sue les charmes de l'intégration se sont sou vent traduits par des nuits blanches, et que ses inconvénients ont contribué à donner un tour passionnel aux débats sur l'informatique répartie, par exemple.
Afin de mieux cerner l es limites du raisonnable dans l'horizon que nous nous sommes défini, offrons-nous quelques lignes de futurologie en regardant ce qui sera peut-être possible au-delà.
Au coeur de la mutation qui aura peut-être commencé alors depuis un an ou deux, une nouvel le famille de processeurs profondément différents de ceux d'aujourd'hui.
Des processeurs assez peu coûteux, en tous cas pas d'un prix supérieur aux mini-calculat eurs d'aujourd'hui (10 000 F ...).
Une puissance "nominale" (selon les catégories d'aujourd'hui) éno rme (le niveau indique pour le DAP, par exemple). Et l'emploi de cette puissance pour exécuter de fonctions toutes ordinaires, toutes banales, mais réalisées de manière très "intelligente&qu ot;. Il s'agit d'un énorme gâchis aux yeux d'un ingénieur, d 'un informaticien sérieux des années 1970. Plusieurs fois la puissance d'un gros 360 pour taper à la machine !< /p>
Alors, à quoi bon ?
Et à quoi bon dix milliards de neurones dans le cerveau d'un balayeur ?
Une expression actuell ement à la mode traduit traduit un des rôles de cette forme intellig ente : "fault tolerant computing", disent les anglo-saxons, et l'on traduit assez pauvrement par "sûreté de fonctionnement&qu ot;. On passe du confessionnal à la gendarmerie ! Oui, nous avons enfin, en 1985, des machines compréhensives. Il n'y a plus besoin de tout leur dire.
Mais il faut, d'une ce rtaine manière, leur en dire beaucoup plus que nécessaire, afin qu'e lles soient capables de redresser les erreurs éventuelles. En fait, le dialogue prend une autre ampleur, avec des phases de "formation" et des phases de travail extrêmement concises.
Ces machines, quand la firme utilisatrice en prendra livraison, auront été à l'école, si l'on peut dire, pour acquérir toute une culture linguistique, géographique, économique et dans une certaine mesure des compétences techniques spécialisées. Elles sont donc en mesure de comprendre les mots ordinaires sans qu'il faille commencer par leur faire enregistrer des codes. une culture, mais aussi une éducation, c'est-à-dire un ensemble de comportements, voire d'initiatives, qui répondent activement aux demandes des utilisateur s, et dans certains cas les préviennent.
Les erreurs mineures s ont automatiquement corrigées. Les erreurs qui créent des ambiguïtés donnent lieu à question complémentaire s, comme un interlocuteur normal.
Il va de soi que les p annes, rarement totales dans les systèmes d'une telle complexité, donnent lieu à une reconfiguration immédiate et à fonctionnement dégradé pour préserver les fonctions essentielles (cela est d'ailleurs aujourd'hui monnaie courante sur les mach ines récentes d'une certaine taille).
Cette tolérance va de pair avec une grande adaptabilité et compatibilité*. S'adapter dans le temps, aux évolutions des applications, des problèmes . Et le faire tout naturellement, automatiquement, en repérant les évolutions des flux de messages, les petites déviations significatives, en engageant le dialogue quand c'est nécessaire, pou r se mettre au courant. Et s'adapter à un moment donné à des interlocuteurs humains ou mécaniques de toutes sorte, en reconnaissa nt les codes, procédures et protocoles des uns et des autres. Sur certa ins points, ce genre de comportement n'est déjà plus de la science-fiction (par exemple, beaucoup d'appareils de mesure électroniques comportent non seulement un disjoncteur pour mettre ho rs circuit si on leur fait mesurer des tensions trop levées, mais une adaptation automatique de la gamme).
Une part de cette soup lesse, bien éloignée de la rigidité caractéristique de l'informatique traditionnelle, sera manifestée par la flexibilit&eac ute; physique des machines elles-mêmes. Le remplacement de la tôle p ar le plastique nous a déjà habitués à un peu moin s de raideur, un peu plus de rondeur. On fera probablement de plus en plus appel à des matériaux plus souples. D'ores et déjà, l es circuits souples prennent de l'importance dans nombre de machines, soit pou r réduire les encombrements, en logeant les circuits dans des espaces résiduels plus ou moins tordus, soit pour accompagner les pièces en mouvement. Il ne faut pas négliger le mode physique de réalisation des systèmes, et d'autant moins que les auteurs de science-fiction n'ont que trop tendance à nous présenter des avenir où la dureté et le poli de l'acier inoxydable répondent au caractère dictatorial des univers apocalyptiques qu'on nous promet.
Sauf une catastrophe socio-politique toujours possible et qui nous relèguerait tous dans d'horribles goulags, il est au contraire raisonnable d'imaginer le futur en lignes molles (mai qui ne seront harmonieuses qu'appuyées par de sol ides squelettes).
Molles, mais dynamique s. Les machines d'aujourd'hui sont largement passives. Il faut les mettre en march e, les arrêter, les pousser souvent pas à pas. Celles de demain se mettront en marche elles-mêmes, par exemple quand un utilisateur s'approchera d'un poste de travail, et s'arrêteront quand on les lais sera inutilisées plus d'un certain temps (certains terminaux sont déjà munis de ce type de gadget). Elles reconnaîtront l'utilisateur, s'adapteront à son mode et à son rythme de tra vail (il y a déjà diverses réalisations, par exemple un mode training), lui feront des suggestions.
Il ne s'agit ici ni de fiction ni de gadgets. Nous ferons des machines dynamiques tout simplement parce qu e ce sera non seulement plus agréable mais plus efficace et plus sûr. La mise en marche et l'arrêt automatique sont déjà disponibles sur certaines machines pour économiser l'énergie. La reconnaissance de l'utilisateur est de plus en plus développée pour protéger la confidentialité. Et les modes interactifs no us ont habitué à la présentation de "menus". Simplement, ce mode de fonctionnement aura pris un grand développeme nt et aura conduit à un retournement de la manière même de concevoir les machines. Actuellement, nous les pensons dans une longue tradition où elles ne sont que le prolongement de l'outil, ou m&ecir c;me de simples prothèses. Nous ne les avons pas encore vraiment acceptées comme des automates.
Les automaticiens eux-mêmes parlent de systèmes asservis, de théorie du contrôle... Il faudra vraisemblablement, à partir des années 1985, s'habituer à penser les machines comme des collaboratrices plutôt que com me des esclaves. Psychologiquement, cela ne sera sans doute pas facile. Mais de telles perspectives sont finalement moins traumatisantes que les monstres froids dans leurs carters gris dont la révolte a fait les beaux jour s de la science-fiction, parallèlement aux guerres de l'espace et autres cataclysmes nucléaires. Si l'on ne veut plus que les travailleurs so ient cet "appendice de chair de la machine d'acier" (dont parlait Marx, cité par Marc Lecarpentier, Télérama 28 juin 1978), il faut peut-être que la machine, en quelque manière, se fasse chair e lle aussi.
D'ici à 1988, on peut donc s'attendre à une longue période où l'évolu tion sera purement quantitative, suivie d'une évolution qualitative qui pourrait alors être rapide, du fait de la supériorité évidente de la nouvelle "génération" et de s on aptitude à travailler avec le parc des machines traditionnelles. Ces hypothèses de développement technologique doivent être complétées par des orientations sur les applications ou plutôt les modes d'utilisation. Nous nous limiterons à quelques remarques bien partielles.
Si nous sommes loin des machines intelligentes ou molles, nous assistons par contre, depuis au moins deux ou trois ans, à un phénomène nouveau, ou du moins à une ampleur nouvelle et une manière nouvelle du développement de l'informatique.
Les progrès de l'électronique ont en effet permis de réduire, de diviser par dix tous les dix ans à peu près, le coût des machines &agra ve; puissance égale. Dans le même temps, on réduisait dans proportions comparables leur encombrement et leurs consommations d'énergie (pour les parties logiques, bien sûr, puisqu'imprima ntes ou écrans voient leurs dimensions et leurs consommations déterminées par des facteurs pratiquement constants).
Dans les années 60 à 72 à peu près, ces possibilités ont surtout été utilisées à faire grandir des centres informatiques puissants ; depuis, nous assistons plutôt à une stagnation des grandes machines (stagnation relative, d'ailleurs) et &agrav e; une prolifération des petites. Il est important d'en percevoir le caractère général, et de ne pas limiter la réflexion aux mini-systèmes de gestion auxquels se réfère l'informatique répartie.
D'abord, il ne s'agit de mettre des micro-processeurs (ou, du moins, des dispositifs électroniques de complexité comparable), dans à peu près toutes les machines que nous utilisons dans notre vie quotidien ne : machines à laver, lave-vaisselle, cuisinières, appareils de photo, automobiles, téléviseurs. Avantages attendus : Parfois une réduction des prix de revient en remplaçant par quelques composants électroniques peu coûteux des programmateurs électro-mécaniques ou des composants discrets sensiblement pl us onéreux. Ensuite, une économie d'énergie due à un meilleur emploi et à une meilleure adaptation aux variations de l'environnement (notamment injection électronique, régulation s de chauffage). Enfin, mais j'en oublie certainement, une plus grande souplesse et variété des emplois, des programmes (lavage), du dialogue ave c la machine (jeux télévisés).
Les progrès ne sont cependant pas aussi rapides qu'on l'avait pensé un temps. L'automobi le, par exemple, ne fait encore qu'un usage bien modéré de l'électronique, alors que l'on a commencé à y penser i l y a maintenant une dizaine d'années. Cela tient pour une part à la difficulté de modifier les habitudes des chaînes de production, des réseaux d'après-vente et de maintenance, à la fiabilité limitée de l'électronique nouvelle mise en concurrence avec des techniques électro-mécaniques bénéficiant de décennies d'expérience. Pour l'électronique automobile, par exemple, on trouve des experts pour préconiser la construction immédiate d'usines importantes afi n de disposer des circuits nécessaires, et d'autres pour penser que ce marché restera marginal au royaume des composants.
L'électronique
a tout
de même de fortes chances d'accroître considérablement sa
présence dans toute notre vie quotidienne. Rappelons, mais c'est
essentiel, et cela concerne tout particulièrement le banques, l'appa
rition
probablement prochaine de petits appareils connectant le
téléphone familial au poste de télévision pour
toutes sortes d'applications. Des prix de l'ordre de 250 F sont
envisagés, ce qui les mettrait à portée de toutes les
bourses. Reste à savoir si ces gadgets seront faciles à utili
ser,
et si un marché de services (PTT, SVP...) sera suffisamment
développé pour justifier la dépense et l'apprentissage
de
ce nouvel outil. Il est permis d'être sceptique, en se rappelant tout
de
même que de bons observateurs américains, et non des plus timi
des,
ne croyaient pas en 1945 que la télévision se
développerait dans les foyers, du fait qu'il s'agissait d'une
technologie bien trop complexe pour prendre un tel développement.
Ce marché pourr ait trouver un développement très rapide si les entreprises, lass es d'encadrer et de payer un personnel de saisie de plus en plus mécont ent d'un travail fastidieux, envisageaient de reporter sur la consommateur la charge du dialogue avec la machine, quitte à lui offrir des prix plus intéressants. Le développement des distributeurs automatiques de sucreries ou de billets de banque montre une voie qui pourrait être largement explorée.
L'évolution pou
rrait
alors devenir très rapide, une fois franchi le seuil où
- le nombre de terminaux domestiques est suffisant pour rentabiliser la mise
à disposition de services nouveaux sur les réseaux,
- la variété et la qualité des services disponibles justifie pour les ménages la location ou l'acquisition du matériel.
On pourrait alors assi
ster
à une marginalisation progressive de ceux qui ne parviendraient pas
à s'assurer cet élément essentiel de niveau de vie et
de
standing... jusqu'à
l'apparition d'un SIMGe (système d'information minimum garanti).
Comme il restera tout de même des bureaux, en tous cas dans l'avenir prévisible, cette dissémination de l'informatique y aura bien sûr son pendant. Un microprocesseur sera demain c hose aussi commune qu'un interrupteur ou un moteur électrique aujourd'hui. Bien plus commune, même, car on tendra à les multiplier dans un même appareil, alors qu'on hésite à multiplie les moteu rs.
"Le calculateu ? Hier monstre, demain puce dans le pied de l'imprimante" a dit je ne sais plus quel expert. En fait, on va même au-delà. N'importe quel périphérique compte ra plusieurs microprocesseurs, en particulier pour gérer la communicati on avec les autres parties du système, pour réguler les fonction s de nature énergétique, pour rechercher, traduire et afficher les informations à fournir au tableau de bord pour surveiller fonctionnement, détecter les pannes, en avertir l'utilisateur et les autres parties du système, et plus ou moin automatiquement mettre en place un fonctionnement dégradé tout en procédant &agr ave; un diagnostic plus ou moins élaboré. Pour une simple machine à écrire, par exemple, il faut s'attendre à la voir mu nie d'un microprocesseur affecté au clavier (afin de prendre en charge toutes sortes de codifications, et de permettre au constructeur de répondre à des besoins variés avec un produit fabriqu& eacute; en série), d'un autre à l'affichage (les machines à écrire de demain comporteront toutes plus ou moins de moyens d'affichage^afin de faire les corrections avant de frapper le texte sur le papier), sans parler de microprocesseurs destinés aux fonctions plus élaborées de traitement de texte.
Il va de soi que les p etits et grands ordinateurs de gestion seront, et sont déjà, l'assembl age d'un grand nombre de microprocesseurs plus ou moins spécialisées.
Tout cela est déjà largement parmi nous. Essayons d'en tirer quelques conclusions pour les années qui viennent, sur deux points importants : le rôle des informaticiens et la décentralisation.
Ainsi que nous l'avons vu, il n'y a pas lieu de s'inquiéter pour l'avenir des informaticiens. Il est cependant vraisemblable que leur rôle évoluera, et en tous cas il semble possible pour eux d'aller vers de nouvelles fonctions, un nouveau rôl e. S'ils préfèrent se cantonner dans leurs fonctions actuelles, c'est leur droit, d'ailleurs.
Il me semble que nous pouvons nous appuyer ici sur une distinction établie par Michel Crozier, ent re l'acteur et le système. L'acteur, c'est-à-dire l'individu ou la petite équipe. Le système, c'est-à-dire l'entreprise, l'administration, l'organisation en général.
Or, quelle que soit l'évolution technologique, je pense qu'il faut distinguer les outils , le système d'information, de l'acteur de l'acteur et les outils, le système d'information de l'organisation. Sauf dans les toutes petites entreprises, il y a toujours une substantielle différence de niveau entre les deux. Jusqu'aux années 1972 à peu près, l'informatique et l'électronique étaient essentiellement au service de l'organisation prise comme un tout, du fait même du prix d es machines. Aujourd'hui, se développe le "personal computing" ;, et plus généralement le système d'information de chaque acteur. Or ces deux niveaux de système posent des problèmes radicalement différents.
Au niveau de l'acteur, une tendance actuelle - un peu gauchisante peut-être - tend à considérer non sans raisons que seul l'acteur est expert pour ce qui concerne les conditions de son travail. C'est le règne de la convivialité chère à Illich. Il faut des outils petits, faciles à utiliser, à faire évoluer. Ces outils sont d éjà disponibles aujourd'hui. La compétence doit être acquise par l es intéressés eux-mêmes, et il n'y a donc pas place pour un professionnalisme informatique, car à ce niveau, le banquier reste banquier, l'assureur assureur. Il ne devient pas informaticien parce qu'il sait programmer ou faire tourner sa machine, de même qu'il n'est pas devenu écrivain parce qu'il sait écrire.
Il peut cependant, de manière sporadique et à son initiative, avoir affaire à des experts pour le conseiller, l'aider à construire, à développer, à dépanner son système, à communiquer avec le système de l'organisation, etc.
Cet expert, on l'imagi ne avec un profil de conseil, d'ami, de confesseur peut-être. Il peut ê tre souhaitable qu'il soit extérieur à l'entreprise, et s'il y ap partient, son efficacité dépendra de sa discrétion, car il faut qu'on ait confiance en lui comme en un médecin.
Il en va tout autremen t au niveau du système, de l'organisation prise dans son ensemble. ici, la complexité inévitable des techniques, l'importance des investissements, l'inertie des structures, la protection contre les agressi ons possibles de l'environnent exigent un personnel permanent compétent, de haut niveau et spécialisé. Dans l'entreprise, il occupe nécessairement une place explicite et il exerce une autorité affichée. Pour les autres services, ce sera peut-être un ami, jamais un copain ni un complice. Arbitre et garant de la fiabilité du système, responsable de sa cohérence dans le temps et dans l'espace des différents acteurs des différents départements et des différents établissements, ce nouv el informaticien tient du ministre de l'intérieur. Il est pour une part un gendarme, et s'il se refuse à assumer cette fonction, l'entreprise la confiera à d'autres, ce qui n'est pas tellement souhaitable (d'aille urs, cet autre devra lui-même acquérir de solides compétences informatiques, comme on le voit déjà pour l'audit...). o:p>
Un rôle difficile, mais passionnant.
Comme on le voit, la problématique de l'informatique répartie a pris d'autres dimensions. A l'origine, l'essentiel était de prendre conscience que la micro-informatique ouvrait d'autres horizons que la grande informatique traditionnelle. Pour de multiples raisons, à al fois techniques et humaines (grèves intervenant dans des systèmes trop centralisés et multipliant le pouvoir de blocage de certaines minorités) tout le monde est aujourd'hui convaincu que l'informatique répartie est bien plus qu'une mode.
Mais le problème ne se pose plus en termes manichéens "répartir ou non". Il y a mille et une manières de répartir et de centraliser. On peut d'ailleurs faire les deux &agrav e; la fois. Il y a la répartition des matériels et celle des responsabilités. La décentralisation des traitements et celle des études. On peut déplacer des équipements sans toucher aux personnels et réciproquement.
Il y a une quasi-unanimité aujourd'hui pour penser que, de toutes manières, ce ne sont pas des arguments économiques qui permettront de décider si l'on veut et de qu'elle manière on veut décentraliser, différencier, intégrer.. bref structurer réseaux et systèmes.
Dès aujourd'hui, les différences de coûts sont de plus en plus marginales, même si les solutions réparties sont encore un peu plus chères (parfois assez sensiblement si l'on veut répartir fortement).
Mais, en fait, les chiffres sur lesquels on se base sont d'ores et déj&agr ave; biaisés. Les prix des matériels, par exemple, n'ont que des rapports lointains avec leur p rix de revient pour le constructeurs. Les coûts de fabrication ne représentent qu'une part minime du prix de vente que les constructeu rs et IBM en particulier fixent donc pour des raisons d'ordre commercial et non technique. Il en va sensiblement de même pour les colts de transmissi on : les tarifs sont fixés par les PTT en fonction d'impératifs pl us politiques qu'économiques.
On pouvait penser, il y a quelques années, que le degré de centralisation/décentralisation se définirait au fil du temps en fonction des évolutions respectives des prix de traitement et des pr ix de transmission. si le traitement était cher par rapport au transpor t, la centralisation allait de soi, et inversement. Ce type de raisonnement me paraît avoir perdu toute validité aujourd'hui.
On essaye aussi, parfois, de raisonner économiquement en termes de coûts de personnel : "telle solution nous ferait économis er en moyenne une personne par agence, par conséquent elle est rentable même avec un accroissement de tant pour cent des coûts informatiques". On voit de plus en plus mal comment de tels raisonneme nts peuvent avoir une validité quelconque à partir du moment où l'emploi devient le problème numéro Un, où l'État attend du tertiaire et notamment des banques de contribuer &a grave; la création de nouveaux emplois, où les organisations syndica les sont sensibilisées à ces questions et ne manquent pas de moye ns d'intervenir efficacement.
Loin de céder à un attrait quelque peu idéaliste ou l'enrichissement des tâches, c'est faire preuve de réalisme, aujourd'hui et plus encore à moyen terme, que de se fixer en termes essentiellement "politiques" des objectifs en matière de systèmes d'information.
Dans un premier temps, les informaticiens semblent avoir plutôt résisté que fait bon accueil à la vague de l'informati que répartie. On les accusés,&nb sp; non sans raisons sans doute, de défendre des situations de pouvoir acquises grâce à la nécessaire centralisation d es années 60-70. Ils ont répondu, là encore avec d'excellentes raisons, qu'il serait imprudent de lâcher la proie pour l'ombre, et de laisser l'anarchie s'installer là où l'on était enfin parvenu, après des années d'efforts, &agra ve; faire tourner plutôt bien des systèmes complexes et efficaces< o:p>
Il me semble aujourd'hui que l'on aura besoin d'eux en toute hypothèse, en particulier dans un domaine comme la banque, où le système d'information de l'organisation gardera toujours une place considéra ble par rapport aux systèmes d'information des acteurs individuels ou locaux, du fait de la sensibilité des matières traitée s et du fort degré de communication indispensable. Ils devraient donc tro uver tout naturellement leur place, et peut-être s'ils le souhaitent un développement de leurs pouvoirs, dans les structures nouvelles qui v ont se développer.
L'essentiel pour les utilisateurs est sans doute de savoir ce qu'ils veulent, et qui d'ailleurs ne se ramène pas à déterminer des besoins, amis bien à choisir tel ou tel type d'avenir. A partir du moment où cette volonté sera nette, où les utilisateurs saurant s'enten dre pour la faire connaître, il est permis de penser que la technique ser a en mesure de leur donner satisfaction.
* Il y là une contradiction qui n'est qu'apparente. Jusqu'à un certain nib eau de développement en effet, perfectionnement et complexité se traduisent par lourdeur et raideur. Par contre, à partir d'un certain stade, un accroissement de complexité, orienté dans le sens de l' "intelligence" se traduit au contraire par des facultés d'adaptation et de souplesse inaccessibles à des machines plus simples. C'est la "Montée vers le pl us grand cerveau"... et il n'est pas déraisonnable de transposer a ux machines les caractères qui ont marqué l'évolution des espèces animales. Avec, bien entendu, les risques d'erreurs de toute analogie de ce genre.