1980-1990 : Cohabitation et complexité
En 1981, François Mitterrand devient président de la République. On entre dans une décennie politique complexe, avec des configurations politiques variées et l'arrivée d'une cohabitation certes prévue par la Constitution, mais bien éloignée de la mentalité du Général.
L'économie sort des trente glorieuses, et le chômage prend des proportions qu'on n'aurait jamais osé imaginer. En même temps, l'Europe se conforte, la croissance continue.
En informatique, les grandes machines continuent à progresser et les millions de lignes de code à s'empiler sur les disque. Mais c'est la micro-informatique qui tient le devant de la scène. Jusque là, il s'agit surtout de spéculations d'intellectuels, ou de jouets à usage domestique. Pour être branché, il fallait avoir écrit quelques lignes de Basic. Maintenant, arrivent des machines sérieuses, efficaces, utiles en entreprise parce qu'elles savent faire, en pratique, des choses où les grandes sont trop inefficaces, et en particulier offrir aux utilisateurs deux outils majeurs : le tableur et le traitement de texte. En 1981, IBM annonce son Personal Computer et, selon l'expressoin consacrée, "donne ses lettres de noblesse" à cette machine jusque là méprisée par toute la profession.
L'évolution est très sensible au niveau des interfaces hommes machine. Les fenêtres font leur apparition (avec notamment Framework). Elles deviennent plus efficaces et plus lisibles avec les écrans bitmap et la couleur. La souris se généralise...
En même temps, la France se lance dans une aventure dont les Américains eux-mêmes commencent (en 1999) à reconnaître qu'elle n'était pas aberrante : Télétel.
Il va donc falloir, ici aussi, cohabiter. C'est à dire, techniquement, à construire des architectures à plusieurs niveaux. Combien de niveaus ? On en discute encore. Le client-serveur a ses adeptes, ses variétés, ses générations répertoriées par le Gartner Group... On monte des systèmes à trois niveaux, avec des machines personnelles, des serveurs locaux et la bonne vieille informatique classique au milieu. (Ne pas confondre ces trois niveaux avec le modèle actuel des "trois tiers" : postes clients, serveurs de traitement, serveurs de données).
Du point de vue des systèmes d'information, l'évolution passe très souvent par un "revamping" des applications traditionnelles. On ajoute une couche locale et interactive aux grandes chaînes traditionnelles. Dont beaucoup sont d'ailleurs "batch" par nature plutôt que par la volonté des informaticiens.
En pratique, le coût du logiciel continue à s'envoler. Car il faut ajouter les coûts de développement des nouvelles couches aux frais de maintenance curative et évolutive des systèmes traditionnels. Pour le plus grand bonheur des éditeurs et des sociétés de service, mais aux dépens des entreprises qui commencent à le faire savoir à leur DSI.
C'est au milieu de la décennie qu'apparaissent les virus. Ils n'étaient jusque là connus que de quelques universitaires californiens. Leur arrivée laisse les informaticiens, même très compétents sceptiques. Ils ne veulent pas y croire. Je ne citerai pas de nom (et d'ailleurs, ils démentent, mais mon souvenir est bien net). Encore une complication de plus.
Le génie logiciel fait naître de grands espoirs, avec ses ateliers qui sont censés donner toute leur efficacité aux méthodologies. Idéalement, il suffirait aux utilisateurs de bien définir leurs besoins, grâce à quelques rectangles et quelques flèches dessinées à l'écran, pour que la machine se charge ensuite toute seule d'écrire les programmes et, tant qu'à faire, de les mettre en exploitation.
La situation du développement de l'informatique dans les entreprises prend donc un tour passblement cahotique. D'autant qu'on lui propose aussi d'absorber l'EDI (Echange de donénes informatisé, habit nouveau de projets anciens, qu'on envisage au départ de rentabliser par simple économie de timbres-poste, pour s'apercevoir assez vite que sa vraie utilisation ne prend sens qu'après une reprise de fond en comble des applications principales, notamment de gestion de production et de gestion financière). On lui porpose aussi d'absorber une nouvelle vague d'intelligence artificielle, lancée en 1982 notamment sous l'influence de Laurière et Gondran à l'EDF. D'ajouter le son à ses interfaces utilisateur (on s'aperçoit que c'est très difficile à mettre en pratique efficacement, même si les problèmes techniques de base sont résolus et pour un coût très raisonnable).
Pendant ce temps, la recherche sur les systèmes d'information a pratiquement cessé de vivre.
Pour des raisons psychologiques : Inforsid, les aspects humains se perdent dans une systémique plus philosophique que pragmatque, les informaticiens sont bloqués (y compris les constructeurs, quoique Warnier chez Bull), échec des méthodes participatives
Pour des raisons techniques : la micro-informatique secoue trop les entreprises et leur système pour qu'on puise les employer rationnellement... Ou, plus équitablement, que le rythme de l'évolution technologique est devenu définitivement incompatible avec les inerties naturelles des processus de formation universitaires.
Et les gouvernements, qu'ils se désintéressent de l'informatique comme celui d'Alain Juppé (qui ferme le Ciiba) ou de Lionel Jospin (bien au courant et porteur d'un discours positif) ne sont plus en mesure de faire autre chose que des initiatives à plus ou moins grand spectacle (Entretiens d'Hourtin, et aux Etats-Unis, grandes gesticulations autour de Cals, puis des autoroutes de l'information);
Au passage, notons la grande poussée du Japon, (Tsukuba, 5e génération, projet Tron etc.), puis son incapacité à se placer au niveau des grands standards (systèmes d'exploitation, bases de données, protocoles de télécommunications) et son repli sur des domaines sans doute rentables mais secondaires (machines compatibles, périphériques, copieurs...). Où allons-nous?