09/01/1989 Texte de Pierre Mounier-Kuhn (Histoire)

Centre Science, technique, société (Cnam)

Aux origines de la science de l'information

La science de l'information commence à faire parler d'elle assez largement après la seconde guerre mondiale, dans le mouvement d'intérêt suscité par la cybernétique. On la fait généralement remonter à l'article de Claude Shannon, à partir duquel un petit groupe de chercheurs, notamment américains, a donné de l' "information" une définition précise, permettant de l'étudier scientifiquement comme un paramètre physique.

Mais n'a-t-elle pas des origines plus lointaines ? Sans remonter au Moyen-Age, où apparaît le mot "information" dans son sens commun de "renseignement", on peut distinguer quatre directions de recherche qui ont conduit à la conceptualisation de l'information :
- les travaux de thermodynamique et de mécanique statistique, notamment sur la notion d'entropie et sa formulation mathématique (Maxwell, Boltzmann, Szilard),
- la physiologie du système nerveux, depuis Claude Bernard et Helmholtz jusqu'aux études plus récentes sur l'homéostasie et la régulation interne des organismes vivants (W. Cannon)
- le développement, en psychologie, des théories fonctionnalistes et comportementalistes, menant à concevoir le cerveau comme un processeur d'information et à une demande de vérification expérimentale de ces idées,
- le développement de la théorie des fonctions récursives en logique mathématique, avec son ambition de formaliser la démarche calculatrice du cerveau humain.

Au milieu des années 40, ces domaines ont fait l'objet d'un effort concerté d'unification, à travers une caractérisation mathématique commune des concepts d'information et de traitement de l'information. Cette collaboration interdisciplinaire était en partie la conséquence de la guerre de 1939-1945, t des grandes entreprises de coopération entre chercheurs qu'elle avait entraînées. Le groupe mentionné au début de cet article (Mc Culloch, Pitts, Shannon, Von Neumann, Wiener, auxquels on peut ajouter Turing) avait une certaine cohésion -celle des "collèges invisibles" - et se réunissait régulièrement, comme par exemple à la conférence de Princeton en 1944, organisée pour échanger des idées autour des notions de cybernétique et de machines à calculer. L'introduction du livre de Wiener (Cybernétique et société, Paris, 948) évoque bien cette convergence novatrice de savants et d'idées.

Shannon avait commencé à travailler sur la théorie de la communication avant son arrivée aux laboratoires Bell. Mais ceux-ci avaient eux-mêmes produit des études sur la question avant lui.

Harry Nyquist, qui, étudiant l'amélioration des vitesses de transmission des signaux télégraphiques, écrivit en 1924 un article sur deux facteurs affectant cette vitesse : la forme du signal et le choix des codes.

Un autre ingénieur de recherche aux laboratoires Bell, R.V. Hartley, essayait d'établir les limites théoriques de la transmission de l'information en situation idéale. Ceci l'amena à réaliser que toute définition scientifiquement opérationnelle de l'information devait concevoir celle-ci comme une donnée physique, et non comme la notion psychologique de "sens d'un message". Sa publication "Transmission of information" (Bell System Transmission Journal, no7) date de 1928.

Le mémoire de maîtrise de Shannon ("Symbolic analysis of relays and switching circuits", Cambridge, MIT) est soutenu en 1940, et son article sur la théorie mathématique de la communication (Belle System Transmission Journal no 27) date de 1948.

Pierre Mounier-Kuhn.