CNRS, Centre Alexandre Koyré
cf. "La physique du calcul, histoire de l'ordinateur", Hachette 1989
L'auteur souligne quelques points qui lui paraissent importants
Ce qui est crucial est toujours la liaison entre la pratique du calcul et l'organisation de la machine : on fait une machine sans savoir pour quoi et on se trouve devant des problèmes de logiciel énormes. Exemples : les projets Larc et Stretch.
Larc était élaboré sur le projet de remplacer les tubes à vide par les transistors. Si la machine qui en est sortie est considérée comme le prototype de la deuxième génération (une petite unité contrôlait les E/S, hors l'organe de calcul), elle n'eut aucun succès commercial car cette architecture ne se révélait performante que si les programmeurs l'étaient.
Stretch avait reçu des spécifications très précises, visant à développer des technologies nouvelles pour améliorer l'organisation de la mémoire, par faciliter la programmation. IBM s'était engagée à rendre compatibles les programmes avec deux du 709. Les spécifications ne purent être satisfaites.
Deux projets, deux bijoux de mécanique, mais deux échecs, alors qu'à la même époque le TX2; dont l'architecture n'avait rien de révolutionnaire, fut un succès commercial. Mais ils aidèrent à la prise de conscience de l'importance du logiciel et à l'émergence du concept de compatibilité. C'est entre 60 et 65, avec la série des 360 qui posèrent des problèmes monstres de compatibilité, qu'on peut marquer le basculement vers l'importance financière de la programmation.
Depuis 1972, on instaure le traitement parallèle : on renonce donc à l'architecture Von Neumann, tout en la gardant comme modèle.
Entre 1960 et 1975, on dispose de machines dont la puissance et la rapidité dépassent tout ce qu'on a connu. On élabore des théories de la calculabilité. Mais on a pu oublie que l'ordinateur est une machine, avec des contraintes et des limites physiques. Pour en faire une machine réversible, il faudrait pouvoir conserver tous les résultats intermédiaires. Aux USA, certains pensent qu'il faut se rapprocher des lois de la physique pour faire une théorie du calcul. Actuellement, on parvient aux limites physiques du silicium : le débat devient donc crucial. Pourra-t-on utiliser l'optique ? Dans ce cas, puisque les modes de pensée de l'une et l'autre technique sont différents, reviendra-t-on à l'analogique ?
Question du groupe : Peut-on vraiment revenir à l'analogique qui ne permet pas de suivre ce qui se passe comme avec le digital ?
Pour JR, les réseaux neuronaux semblent être prometteurs si on se réfère aux investissements. C'est une façon de concevoir de nouvelles connexions entre les machines.
Le débat débouche sur la question des relations entre les mathématiques et la physique : les mathématiques ne sont pas de la physique. C'est une erreur de considérer les ordinateurs comme des machines abstraites, mathématiques. Ce sont des machines physiques, elle en ont les limites : mémoire, temps de traitement.
Compte-rendu rédigé par C. Hoffsaes.