09/02/1990 Exposé de Pierre Lévy (Philosophie)

Laboratoire des sciences de l'éducation (Université Paris X Nanterre)

L'invention de l'ordinateur

cf. son article publié dans l'ouvrage dirigé par M. Serres : éléments d'histoire des sciences (Bordas 1989)

P.L. a recherché le fil conducteur pour expliquer le développement de l'informatique. Ce faisant, il a été amené à critiquer les différents fils conducteurs habituellement reconnus.

La guerre est souvent annoncée comme l'événement qui a provoqué la fabrication de l'ordinateur, parce qu'on avait besoin de puissance et de vitesse de calcul. En fait, on s'aperçoit que la guerre a été un argument employé par des acteurs qui voulaient développer de nouvelles machines. En regardant de près, on constate que si certaines recherches ont été accélérées par l'effort de guerre, d'autres ont été freinées, voire stoppées ; et d'autres encore menées pendant la guerre n'ont pas été exploitées ensuite (ex. Colossus).

Les génies fondateurs (Babbage, Turing, von Neumann) : en fait, les idées de Babbage et de Turing ne sont pas vraiment mises en application dans le ordinateurs. Quant à Von Neumann, son rôle fut plutôt de synthétiser les idées d'un groupe et de les relier à la théorie des automates. Ce faisant, il a fait beaucoup pour diffuser les idées et le calcul électronique.

En donnant le rôle essentiel à ces trois mathématiciens, on privilégie abusivement le point de vue logico-mathématique ; il serait plus conforme à la vérité de parler de duos ou de trios ; le mécanicien J. Clément a largement contribué aux inventions de la machine de Babbage, et Lady Lovelace à l'élaboration des nouveaux concepts. Le conflit entre Clément et Babbage interrompit la réalisation de la machine. ne pas oublier Max Newmann et Wynn-Williams avec Turing, le secret militaire mettant le voile sur leurs découvertes respectives. La rupture d'Eckert et Mauchly et de von Neumann est une autre expression de la complexité du processus de l'invention de l'ordinateur.

Pour certains, les générations de matériel résument l'histoire de l'informatique : c'est oublier l'influence des langages et des usages sociaux qui ont fait évoluer le matériel (ex. le micro-processeur : une même cause technique peut être interprétée autrement dans des projets différents).

La téléologie enfin conduit à de fausses interprétations. Dans l'évolution de l'ordinateur, il y a eu tant de choix, de bifurcations, d'arrangements, d'emprunts... C'est nous qui réinterprétons, après coup, en unifiant. Personne en réalité n'a visé l'ordinateur tel que nous le connaissons. Il n'existe pas un concept d'ordinateur préexistant, qui se serait concrétisé dès que possible. Son sens a d'ailleurs notablement changé : au début machine à calculer, il devient machine à communiquer. Que deviendra-t-il ? Nous sommes peut-être encore dans la préhistoire de l'informatique.

La discussion fait ressortir entre autres les thèmes suivants : il n'y a machine universelle que si le programme peut se modifier lui-même ; mais cette potentialité n'a pas été prévue par von Neumann et son équipe, qui n'ont enregistré le programme que pour gagner du temps. L'idée novatrice est venue après, comme une réinterprétation.

L'idée de machine pensante n'existait pas chez Babbage, elle date du 20e siècle. Elle se raccorde directement au postulat fondamental de notre époque : le réel est calculable.

Compte-rendu rédigé par C. Hoffsaes.