Downsizing technique et industriel

Note sur downsizing à la fin du XXeème

Cette note, dans une version un peu différnte, est parue dans Logiciels et Services

Au cours des quinze dernières années du XXe siècle, la montée de la micro-informatique va de pair avec l'écroulement, au moins relatif, de toute l'informatique des "mainframes". Non qu'ils aient disparu. Si l'on pouvait faire un recensement méthodique en termes de Mips (TPS, giga-octets ou autre mesure appropriée), on trouverait certainement que la croissance a été aussi forte que continue pour les grandes machines, et qu'elle se poursuit aujourd'hui encore.

Pourquoi, alors, cette presque-disparition d'une industrie hier florissante. Rappelons-nous qu'IBM, au niveau mondial, a pratiquement divisé ses effectifs par deux, depuis le record de 405 000 salariés atteint en 1984. Et le chiffre d'affaires actuel, pour ne pas parler des marges, vient désormais des services, comme le Numéro Un lui-même ne cesse de le clamer à grand renfort de budgets de communication sur le "e-business". Quant au "bunch", c'est à dire la petite dizaine deconstructeurs de second rang qui permettaient de parler de "Blanche Neige et les sept nains", il a pratiquement disparu de ce créneau, quitte à y survivre en vendant, comme ils peut, des compatibles d'origine japonaise. Le rachat de Digital par Compaq a marqué comme la fermeture définitive d'un marché hier universellement dominant. Les fleurons de l'informatique européenne ne font plus que traîner des fonds de parc dans ce domaine, alors qu'en 1985 encore, ICL pouvait encore jouer les innovateurs mondiaux avec sa série 39 "à architecture nodale"!

Compaq fait donc figure d'exception, en jouant le même jeu que Digital il y a une dizaine d'années: devenir un grand à partir des petites machines. Il est encore trop tôt pour tirer des conclusions. Plus surprenant encore, l'envol de Sun, qui réussit brillamment avec des machines de plus en plus grosses, tout en jouant un rôle "idéologique", notamment avec Java.

La cause profonde de cette évolution majeure, c'est que le "downsizing", qui faisait ricaner les DSI des années 80, a bel et bien eu lieu. Au profit de nouvelles catégories de machines, notamment celles qui s'appuient sur Unix, qui tendent aujourd'hui à devenir très grosses et dominantes sur le marché des applications de gestion. IBM, qui ne méprise plus aujourd'hui la croissance externe, vient de le montrer récemment en rachetant Sequent.

Le premier "downsizing" passe par la limitation du nombre des instructions au niveau du processeur. C'est la technologie Risc (Reduced Instruction Set Computing), qui sera la base de la série 9000 de Hewlett-Packard, par exemple (annoncée en 1992). Elle est plus économique que l'architecture classique CISC (Complex Instruction Set Computing), RISC (Reduced Instruction Set Computing) et a fortiori que l'EPIC (Explicit Parallel Instruction Computing), orientée vers le grand calcul

Le deuxième downsizing consiste à employer pour les grandes machines des chips qui au départ se situaient dans des environnements "micro" ou du moins "stations de travail", par exemple l'Alpha de Digital (annoncé lui aussi en 1992).

Le troisième remplace les grosses machines mono-processeur, ou comprenant un petit nombre de processeurs, par des assemblages de plusieurs dizaines de machines (Sequent, par exemple), voire de plusieurs centaines dans le cas du calcul scientifique, avec les "fermes de micros". Dans des cas extrêmes, par exemple une expérience de "cassage" d'un code américain de sécurité, des dizaines de milliers de machines, réparties sur tout le territoire américain, auraient pu coopérer. Cependant la mise en oeuvre efficace de ces vastes populations n'est une sinécure, comme le prouve l'échec de Thinking Machines (64 000 processeurs). Dans les applications de gestion, les grandes populations de processeurs vont appeler des architectures de plus en plus compliquées.

En revanche, cette dernière technique a fait ses preuves sur le terrain des applications, par exemple à l'Igirs, un institut de retraite français qui a joué un rôle de pionnier en la matière.

Cette réduction de taille n'a pas fait disparaître les grandes machines, mais a obligé leurs fournisseurs à réduire les marges considérables qui avaient assuré leur profit et leur expansion pendant quatre décennies. Le vocabulaire lui-même a marqué cette modestie nouvelle : le mainframe n'est plus aujourd'hui qu'un serveur !

Il semble d'ailleurs, qu'au début de l'année 2000, a baisse du prix des réseaux et le développement du commerce électronique ait donné un nouvel élan aux grands ordinateurs.Et comme les besoins de puissance des grands utilisateurs n'ont pas de limite, le Cern (Centre européen pour la recherche nucléaire, à Genève) pousse à la constitution d'une "grille de calcul" entre les principaux centres du continent ! "The sky is the limit", disent les Anglo-Saxons.

P.B.