1961-1970 : plans et décollage de l'informatique
La guerre s'éloigne dans les mémoires, même les plaies de l'Algérie vont se refermer. C'est l'heure de construire l'avenir. La planification est à la mode. Pas seulement en URSS, mais aux Etats-Unis, avec le PPBS (Planning programming budgeting system), dont McNamara attend même la solution des problèmes américains au Viet-Nam.
De Gaulle a de grands projets. L'informatique est à la fois le moyen et planifier et un enjeu politique majeur, ne serait-ce que pour garantir notre indépendance nucléaire, après un refus américain de nous vendre un super-calculateur. Ce sera donc "Le plan calcul"
L'informatique promet beaucoup. A Grenoble, un de mes cousins travaille au laboratoire de traduction automatique du professeur Vauquois. Il me dit pendant les vacances : "Nous y sommes presque, entre le Russe et l'Anglais. Nous achoppons encore sur quelques mots, mais ce sera fini pour Noël".
Il faut dire que, cette fois, des machines de gestion relativement économiques et performantes viennent sur le marché (IBM 1401, Bull Gamma 30). C'en est fini d'une mécanographie dopée à l'électronique. L'intégration logique de tous les processus de traitement s'impose.
La création d'un mot approprié, par Robert Lattes et Philippe Dreyfus, le 2 mai 1962. "L'informatique est la technique du traitement logique de l'information, support des connaissances et des communications humaines". Nous sommes effectivement en avance sur les américains, sur le plan linguistique s'entend, puisqu'il n'existe entre autres pour désigner cette technique que les expressions "Information processing" ou 'Automatic data processing", que l'on n'hésite pas à remplacer par les symboles, pleins de sens pour les non-initiés : IP ou ADP (en français TI). " (Informatique et Gestion, octobre 1978).
Un mot que l'étranger ne reprendra pas d'ailleurs, et qui fait problème à certains français, par exemple un certain Raymond Moch, qui se demande "Qu'est-ce que l'informatique" et "si l'informatique mérite encore d'occuper une place aussi importante dans les préoccupations de l'homme d'aujourd'hui". Alors, allons y. C'est l'heure du "Pari Informatique" et du Plan calcul.
Alors, en avant pour les MIS (Management information system), qui vont enfin nous apporter une gestion intégrée du haut en bas de l'échelle, et même en temps réel grâce aux terminaux. A La Foncière, avec une machine de 32 K, nous étions persuadés que chacun pourrait avoir un terminal. Pensez-donc, 32 K. Et l'on a même été surpris, quelques mois plus tard, qu'IBM insiste sur la nécessité de passer à 64 K, et de réduire quelque peu nos ambitions. Quant aux mémoires de masse, les disques font leur apparition. 7 millions d'octets sur un 3311, 21 millions sur un 3330 (chiffres à vérifier). Cela ne devrait faire aucun problème pour stocker les 500 000 contrats de la Compagnie. Au pire, on recourra aux mémoires à feuillets magnétiques.
On attend aussi de l'informatique qu'elle concilie centralisation et décentralisation. Et, dans le principe, pourquoi pas !
Ces beaux rêves, outre qu'ils sous-évaluent les besoins réels en puissance de traitement, masquent en outre un fait technique déterminant pour les systèmes d'information, les informaticiens et les utilisateurs de l'époque : les mémoires de masse effectivement disponibles à l'époque ne sont pas des disques, mais des bandes magnétiques, qui vont peu à peu (il faudra près de 20 ans) supplanter la carte perforée. Or la bande a deux défauts majeurs:
. elle est séquentielle par construction, comme la carte ; la grande informatique fonctionne donc "par lots", avec des traitements périodiques, le plus souvent mensuels et annuels ; cela convient aux productions massives et aux grandes synthèses de gestion, mais nullement à la réactivité managériale courante ;
. à la différence de la carte, elle ne peut absolument pas se lire directement ; dans les ateliers classiques, il n'était pas impossible, d'aller fouiller manuellement dans les bacs de brêmes, et de retrouver, voire de corriger, une information élémentaire.
La bande magnétique instaure donc une barrière technique étanche entre informaticiens et utilisateurs. Cela expliquera, plus tard, l'importance de la micro-informatique. Si l'on avait eu, cinq ou dix ans plus tôt, de gros disques et des moniteurs d'accès performants, la face de l'histoire en eût sans doute été changée.
De toutes façons, la technique se fait beaucoup plus compliquée et difficile à maîtriser. A La Foncière, le meilleur connaisseur des techniques à cartes perforées était... le directeur du contentieux, un juriste, et quel juriste ! Avec la bande magnétique, ce n'est plus possible.
Cela dit, la coupure se fait aussi pour des raisons humaines et commerciales. Pour faire progresser cette informatique encore chère et peu mature, les fournisseurs ne peuvent compter sur leur interlocuteur traditionnel, le comptable. D'une part il a du mal à suivre (voir Mas, plus haut), d'autre part il connaît trop bien la musique, et compte les sous.
Pas question non plus, comme plus tard, de séduire directement les utilisateurs. L'investissement est trop énorme pour ne pas être global.
La seule solution, c'est de mettre en place des hommes nouveaux, qui jouent leur carrière sur ces nouvelles technologies. Et qui sont presque totalement dans la main des constructeurs. Un volant de compétences et de capacités de traitement se trouvera en parallèle chez les prestataires de services. Pierre Lhermitte aurait, paraît-il, rêvé d'une IDF, une "Informatique de France" à l'image d'EDF et de GDF pour le gaz et l'électricité. Une idée d'autant plus justifiée qu'Herbert Grosch avait déjà formulé sa loi : le coût d'un ordinateur ne croît que comme la racine carrée de la puissance. Je me rappelle, avec Alain de Lamazière, avoir calculé qu'une dizaine d'Univac 1108 suffiraient à remplacer tout le parc français d'ordinateurs, avec des avantages économiques considérables.
Ainsi, la coupure informaticiens/utilisateurs est-elle radicale, puisque les intérêts "sectoriels" se combinent avec les raisons techniques.
Pour autant, et contrairement à des simplifications hâtives mais très répandues, l'époque ne se limite pas aux grandes machines et aux informaticiens en blouse blanche.
De petites révolutions arrivent dans les bureaux avec le feutre marqueur (cela n'a l'air de rien, mais), la photocopie (dont personne à ma connaissance n'a analysé les impacts historiques), et toute une variété de petites machines électroniques. Programmables, même ! Sans oublier le perfectionnement par l'électronique des machines comptables traditionnelles, par exemple avec les comptes à piste magnétique. Les Allemands en font même la doctrine (Mittlere Daten Teknik). On en voit maints exemples, notamment à la comptabilité (qui ne peut se contenter des rythmes mensuels de l'informatique), ou aux services du personnel (on ne dit pas encore DRH), car on envisage mal de mettre l'ensemble de la paie dans ces grands systèmes encore mal maîtrisés.
A quoi s'ajoutent les terminaux, essentiellement les télétypes plus ou moins perfectionnés, mais aussi les terminaux lourds (des imprimantes à distance, pourrait-on dire).
A la fin de la décennie, au Sicob 1969, "un grand cru" (titre 01 hebdo du 22 septembre), on annonce aussi bien l'Iris 80 que de petits systèmes pour les PME : IBM 3 et GE 58.
On pense même à l'informatique domestique : en 1967, la revue "Sciences et mécaniques", dont l'article "Ordinateurs d'aujourd'hui" comporte les intertitres suivants :
. Un ordinateur pour chacun, voilà le but
. On lit la réponse sur un écran de télévision
. Les ordinateurs en médecine
. A l'USC, un ordinateur soigne les victimes d'un choc
. Les ordinateurs dans l'industrie
. Les ordinateurs dans les affaires
. La voix féminine de la machine répond aux questions
. Les ordinateurs dans l'enseignement
. Les ordinateurs en science et technologie
. Les ordinateurs au gouvernement
. L'avenir des ordinateurs
. L'ordinateur sera aussi courant que le téléphone
. Ce que nous faisons, la machine le fera mieux.
Mais c'est aussi le moment où l'on comprend que le matériel n'est rien sans le logiciel.
Mais on est encore loin, au début de la décennie, de lui attribuer sa véritable importance. Au Crédit Lyonnais, reprenons le projet lancé par Dupin de Saint Cyr et Raymond, raconté par Jacques Vanrenterghem
"Depuis 1959, 9 stages ont été organisés pour former des programmeurs.
Ces stages ont été suivis par 93 candidats, sélectionnés par tests parmi 286 employés choisis sur dossier. Finalement, 57 programmeurs ont été retenus.
Chaque stage comprenait 2 cycles : 3 semaines de préformation et de sélection quasi-définitive, trois mois de formation plus complète.
...
En janvier 1968, le Bureau d'études et de recherches comprenait à son effectif : 6 ingénieurs analystes, 4 analystes programmeurs et 22 programmeurs".
Les "programmes de base" furent surtout réalisés par l'équipe de la SEA. Toutefois, écrit Vanrenterghem "je crois me souvenir que nous sommes intervenus à plusieurs reprises : pour un ordre symbolisé de progression (OSP) dans les fichiers, pour réaliser un programme de tri, pour des programmes de service (OSQ : gestion des "étiquettes" enregistrées sur les bandes magnétiques ; OSG : programme généralisé de "fusion" de fichiers". ...
"OSP libéra nos programmeurs d'écrire dans chaque programme les commandes détaillées de lecture et d'écriture des bandes magnétiques et des contrôles associés. Ils pouvaient se consacrer au principal, qui consistait à faire beaucoup de tests de comparaison, à opérer quelques additions (pour les ajustements comptables et les statistiques), plus rarement à faire une règle de trois (calcul d'agios d'escompte ou d'intérêts)."
On voit le très faible nombre des hommes engagés. Les informaticiens, dans les très grands comptes comme le Crédit Lyonnais, se compteront bientôt par milliers, et non plus par dizaines !
On voit aussi que les utilisateurs eux-mêmes mettent la main à la pâte pour élaborer... les systèmes d'exploitation. Les grands langages de programmation sont nés pendant la décennie précédente (Algol, Cobol, Fortran, Jovial, Lisp...), mais ils sont bien gourmands, et l'on écrira beaucoup d'assembleur pendant encore une bonne vingtaine d'années.
La France marquera en outre sa spécificité, pour le meilleur et pour le pire, en développant une culture très orientée vers la programmation. En particulier dans la recherche (rapport Nivat, qui voudrait mettre toute la recherche informatique sous le contrôle des seuls gens sérieux, les mathématiciens) comme dans l'enseignement supérieur, où Jacques Arsac me disant en 1969 (en substance) : "La programmation, je sais ce que c'est. L'analyse, je ne sais pas. Donc, ne serait-ce que par honnêteté, je ne peux pas l'enseigner".
Pourtant, dans le même temps, sont apparus les progiciels. Et les "sociétés de software", qui vont bientôt s'appeler SSCI, puis SSII, prennent conscience de leur communauté d'intérêts. "La nouveauté peut-être la plus importante de ce Sicob 69 est sans doute la présence, pour le première fois, de sociétés de software (Cegos, ECA-Automation, Sesa, Sema, Cap), regroupées à proximité de l'entrée de l'avenue du général Leclerc. Elle prouve en effet que le software est maintenant reconnu comme un produit industriel "vendable" au même titre que le hardware. Que cette apparition suive de près l'annonce par IBM de la facturation séparée du hard et du soft montre que bien que cette technique est en marche vers un nouveau statut".
On pourrait avoir l'impression que les événements de mai ont glissé sur l'informatique comme sur les carters bien propres des nouveaux ensembles électroniques. On va voir dans la décennie suivante qu'une nouvelle mentalité va percer sous l'informatique "lourde".