Centre Science, technique, société (Cnam)
La science de l'information commence à faire parler d'elle assez largement après la seconde guerre mondiale, dans le mouvement d'intérêt suscité par la cybernétique. On la fait généralement remonter à l'article de Claude Shannon, à partir duquel un petit groupe de chercheurs, notamment américains, a donné de l' "information" une définition précise, permettant de l'étudier scientifiquement comme un paramètre physique.
Mais n'a-t-elle pas des origines plus lointaines ? Sans remonter au Moyen-Age,
où apparaît le mot "information" dans son sens commun
de "renseignement", on peut distinguer quatre directions de recherche
qui ont conduit à la conceptualisation de l'information :
- les travaux de thermodynamique et de mécanique statistique, notamment
sur la notion d'entropie et sa formulation mathématique (Maxwell, Boltzmann,
Szilard),
- la physiologie du système nerveux, depuis Claude Bernard et Helmholtz
jusqu'aux études plus récentes sur l'homéostasie et la
régulation interne des organismes vivants (W. Cannon)
- le développement, en psychologie, des théories fonctionnalistes
et comportementalistes, menant à concevoir le cerveau comme un processeur
d'information et à une demande de vérification expérimentale
de ces idées,
- le développement de la théorie des fonctions récursives
en logique mathématique, avec son ambition de formaliser la démarche
calculatrice du cerveau humain.
Au milieu des années 40, ces domaines ont fait l'objet d'un effort concerté d'unification, à travers une caractérisation mathématique commune des concepts d'information et de traitement de l'information. Cette collaboration interdisciplinaire était en partie la conséquence de la guerre de 1939-1945, t des grandes entreprises de coopération entre chercheurs qu'elle avait entraînées. Le groupe mentionné au début de cet article (Mc Culloch, Pitts, Shannon, Von Neumann, Wiener, auxquels on peut ajouter Turing) avait une certaine cohésion -celle des "collèges invisibles" - et se réunissait régulièrement, comme par exemple à la conférence de Princeton en 1944, organisée pour échanger des idées autour des notions de cybernétique et de machines à calculer. L'introduction du livre de Wiener (Cybernétique et société, Paris, 948) évoque bien cette convergence novatrice de savants et d'idées.
Shannon avait commencé à travailler sur la théorie de la communication avant son arrivée aux laboratoires Bell. Mais ceux-ci avaient eux-mêmes produit des études sur la question avant lui.
Harry Nyquist, qui, étudiant l'amélioration des vitesses de transmission des signaux télégraphiques, écrivit en 1924 un article sur deux facteurs affectant cette vitesse : la forme du signal et le choix des codes.
Un autre ingénieur de recherche aux laboratoires Bell, R.V. Hartley, essayait d'établir les limites théoriques de la transmission de l'information en situation idéale. Ceci l'amena à réaliser que toute définition scientifiquement opérationnelle de l'information devait concevoir celle-ci comme une donnée physique, et non comme la notion psychologique de "sens d'un message". Sa publication "Transmission of information" (Bell System Transmission Journal, no7) date de 1928.
Le mémoire de maîtrise de Shannon ("Symbolic analysis of relays and switching circuits", Cambridge, MIT) est soutenu en 1940, et son article sur la théorie mathématique de la communication (Belle System Transmission Journal no 27) date de 1948.
Pierre Mounier-Kuhn.