L'informatique libère l'humain.
L'informatique libère l'humain. 2. L'âme digitale émerge du monde.
L'incarnation
Voir notes ultérieures sur ce sujet, sur le temps
Nous voici donc capables de décrire l'univers, aussi bien la "nature" que l'ensemble des machines, par quelques modèles tous bâtis sur le système binaire. Pour en prendre toute la mesure, il faut l'étudier de manière quantitative. L'universalité du digital laisse espérer l'uni-versalité de la mesure et, au-delà, la possibilité de lois générales de fonctionnement des systèmes binaires dans l'espace, le temps, voire les consommations d'énergie et les pollutions. La maîtrise passe par le tableau de bord !
Dans sa logique même, et a fortiori dans la mesure où elle nous est accessible, l'âme digitale n’existe pas dans un éther indéterminé et intemporel. Nous n’en prenons connaissance que dans « ce monde », notre monde matériel. C’est là qu’elle « s’incarne » et se développe.
Mais d'abord, comment les bits, les systèmes digitaux existent-ils ? Leur caractère logique, immatériel, tendrait à les faire appartenir aux langages, aux idées, donc au monde du "spirituel". On pourrait en tirer des conséquences optimistes pour un certain humanisme. La montée des systèmes d'information pourrait être considérée comme une chance pour l'esprit. Or les mystiques et les religieux se méfient des machines, de leur caractère athée. Passe encore d'en admettre la neutralité, la nécessité, voire l’utilité pratique...
Mais de là à donner une valeur religieuse, proprement spirituelle, aux ordinateurs, à leurs pompes, leurs œuvres, leurs souris et leurs circuits électroniques... Ces outils ou, au mieux, ces œuvres d'art, relèvent bien de la sphère terrestre et, finalement, matérielle.
Le problème, il est vrai, se pose déjà avec les mathématiques, dont les objets flottent un peu entre le ciel et la terre : des idées pures, mais tout de même rattachées quelque part à l’étendue, éloignées des sphères transcendantes de l’esprit.
Les bits, eux aussi, subsistent dans un état intermédiaire par rapport à ces conceptions. Ils sont une forme particulière qui s'inscrit dans
la matière, pour parler le langage des philosophes scolastiques du Moyen Age. Et c’est cela qu’ils appellent une âme. D’où notre expression : l’âme digitale. Cette incarnation impose aux systèmes logiques ses structurations, à moins que les structures de la matière ne soient, au contraire, que des conséquences, que l'expression même de nécessités internes à la logique. Peu importe car, de notre point de vue, l'appréhension du monde matériel et de ses structures se réalise, en pratique, d'une manière toute différente de celle des structures logiques.
Mesures et localisation dans la matière
Les mesures ne sont plus ici de simples comptages de bits, même complétés par des systèmes probabilistes. Elles se rattachent à la "physique", aux mesures du monde matériel.
Tout système logique, tout automate, doit s'inscrire dans un support matériel. Il lui faut donc d'abord "assurer son existence", obtenir l'espace et l'énergie nécessaires. Or les circuits digitaux, qu'ils soient biologiques ou électroniques, ne fonctionnent que dans un "biotope" assez étroitement défini, en température notamment. Il faut aussi les protéger contre les agressions mécaniques de l'environnement : météorologie, prédateurs.
On peut définir un poids par bit, un volume par bit. Ces mesures se prennent en général globalement au niveau d'un dispositif (poids d'une unité de disques, encombrement au sol ou "facteur de forme", défini par exemple pour les disques durs à partir du diamètre des plateaux (quelques pouces, en 1998). Les circuits logiques proprement dits ne représentent qu'une assez faible proportion du poids total.
De même le découpage du temps en cycles successifs doit-il s'ins-crire dans la temporalité du monde physique, pour nous définie principalement à partir du mouvement de la terre par rapport au soleil. Une caractéristique importante de tout système concret, c'est son nombre de cycles par seconde. On sait qu'il atteint actuellement le milliard de cycles pour les microprocesseurs.
On s'est interrogé sur la relation directe entre la formule de l'entropie au sens informationnel et au sens thermodynamique. Mais les experts pensent actuellement qu'il ne s'agit que d'une analogie entre formules, et une théorie unifiée entre la physique quantique et la théorie de l'information reste encore à faire. A supposer même qu’elle soit possible. Les comptages peuvent s'appliquer à chaque système (capacité mémoire, débit de transmission, puissance de traitement), mais les comptages globaux par rapport à la masse de la planète, sinon de l'univers, ont leur importance aussi.
L'ici et le maintenant
Un système logique ne peut exister dans le monde qu'à un endroit et à un moment déterminé. Certes la souplesse de position est sensiblement plus grande pour un système logique que pour un système matériel. Le jeu des pointeurs permet d'avoir la racine d'un objet à un endroit donné et tout ou partie du reste à un autre endroit ou à tout un ensemble d'endroits différents.
Par ailleurs, la position dans le temps n'est pas indifférente. Chaque époque, depuis le big bang, a des caractéristiques physiques, techno-logiques et logiques qui déterminent dans une grande mesure les conditions d'existence du système logique. La vitesse d'évolution du système global est liée à son âge, mesuré à partir de l'origine. Une belle équation différentielle à résoudre !
Les limites de la matière : 1040 ?
Le monde matériel réel enferme les systèmes logiques qu'il supporte dans un certain nombre de contraintes : vitesse, énergie, masse ...
Limites en vitesse
Insérés dans l'espace, au sens ordinaire et matériel, les processeurs (ou au moins leur centre) sont nécessairement à une certaine distance les uns des autres. Les échanges I/O qui marquent le passage d'un cycle à l'autre doivent donc tenir compte du fait qu'aucun signal ne peut se transmettre plus vite que la lumière, sauf si l'on parvient un jour à mettre en œuvre un effet du type EPR (Einstein-Podolsky-Rosen).
Bien que la vitesse de la lumière soit élevée, elle n'est plus imperceptible au rythme où tournent les horloges de nos machines. Entre deux parties d'un système fonctionnant à une fréquence d'un giga-hertz, il suffit de trente-trois centimètres de distance pour créer un décalage d'un cycle. Les écarts deviennent considérables à longue distance. Une transmission par satellite géostationnaire, en orbite à 36 000 km d'altitude, exige le franchissement d'au moins le double pour un aller simple, quadruple pour un aller-retour, soit une demi-seconde. 500 millions de cycles… une éternité pour un processeur rapide !
Limites en énergie et masse
La physique nucléaire impose aussi des minima de matière pour représenter un bit ou effectuer une opération binaire élémentaire. Quand on descend vers des seuils proches de l'atome, on bute sur des "relations d'incertitude" qui ne permettent plus de travailler de manière fiable.
Le progrès des technologies permet d’abaisser régulièrement ces niveaux, donc d’augmenter la densité binaire, de réduire la distance entre deux bits. Les experts pensent que l’on continuera à croître encore de l’ordre de 1000 fois dans cette voie. Après, qui sait ? Jusqu’à présent, sauf pour la vitesse de la lumière, les ingénieurs ont toujours réussi à franchir les limites prévues.
Dans tous les cas, la réalisation de dispositifs matériels pose des problèmes de fiabilité que l’on pourrait sans doute traiter mathé-matiquement comme une distance entre bits. Nous ne pouvons jamais être absolument sûrs que les mécanismes que nous construi-sons exécuteront toujours les ordres donnés, suivront les processus donnés sans aucune faille. Leur fiabilité peut s'accroître indéfiniment par une large gamme de moyens, mais le "zéro défaut" n'est qu'un slogan. De même, la transmission des signaux pose des problèmes d'affaiblissement du signal, qui se traduit en pratique par une perte de fiabilité. L'un des avantages des transmissions digitales est de pouvoir gérer de manière diversifiée et très "intelligente" (retransmission automatique si le message reçu est perturbé) des canaux de tout débit.
Limites globales
Ces limites s’appliquent à chaque dispositif, à chaque machine, mais aussi à la combinaison de plusieurs machines (en raison notamment de la vitesse de la lumière et de la fiabilité limitée des liaisons). Il doit aussi exister des limites globales quant au nombre de bits que l'on peut inscrire dans la totalité de l'univers, des limites au L du Monde. La question semble dans l'immédiat sans objet, car nos ordinateurs sont loin d'avoir saturé le silicium, qui est un des corps les plus répandus sur la planète. Dans combien de temps se posera-t-elle concrètement ? On pourrait tenter de le calculer, en tenant compte des technologies disponibles, des quantités de matière et d'énergie qu'elles exigent par bit, et des réserves interstitielles qu'elles supposent pour subsister.
Enfin, se pose la question des limites de durée d'existence de l'univers lui-même (P global). Pour situer le problème, offrons nous le plaisir d'une rapide estimation. S'il a commencé il y a 15 mil-liards d'années et si l'on postule qu'il durera encore autant (de toute façon, nul n'en sait rien), nous avons 3.1010 années. Chaque années comprend 3.107 secondes (3600.24.365 = 31 536 000). Pour un processeur à un gigaghertz (à peine trois fois plus rapide que celui de mon petit-fils), soit 109 cycles par seconde, nous arrivons à un nombre de cycles total, du début à la fin du monde, de 1027. En supposant qu'il y ait un jour mille milliards de calculateurs sur terre, cela nous conduirait à quelque 1040 cycles par seconde. Cela peut sembler beaucoup, mais quand on monte dans les échelles de complexité, les exponentielles grimpent elles aussi vertigineusement. Tout laisse penser qu'il y a donc une limite, et qui sait si nous n'en sommes pas déjà proches ?
Des structures pour passer les limites
Toutes ces conditions et limites viennent compléter les principes de la relativité digitale pour pousser à réduire les distances, volumes, masses et consommations d'énergie pour augmenter le L des systèmes que nous construisons.
L'appui des structures logiques sur les structures de la matière
Ces réductions s'obtiennent par une complexification des structures, d'une part le jeu même de la logique digitale (par exemple, com-pression des données, langages), d'autre part une bonne utilisation des structures de la matière. La nature elle-même en se construisant, comme le sculpteur exploitant le fil du bois ou l'ingénieur tirant le meilleur parti des technologies, élabore des structures de plus en plus fines, hiérarchisées, bouclées, subtiles...
Par exemple, l'atome nous offre un intéressant modèle de dépas-sement de limite par changement structurel. Quand le poids atomique (c'est-à-dire le nombre de protons et de neutrons constituant son noyau) progresse, on va d'abord vers un minimum énergétique très stable (typiquement, le plomb), puis l'accrois-sement se traduit par la fragilité qui permet les réactions nucléaires de fission. Et, au-delà d'un certain poids atomique, les atomes n'ont plus aucune stabilité ou ne peuvent même pas se former. La nature a donc inventé un autre type de liens: les liens cristallins ou moléculaires. Nous retrouvons ici le jeu historique décrit dans la première partie.
Le temps et sa structure de base: l'orientation du passé vers l'avenir
Non seulement les systèmes existent à un moment donné de l'histoire, mais ils participent à l'orientation de cette histoire. La recherche de maximisation de leur L les conduit à évoluer en eux-mêmes et dans leur manière d'exploiter "le monde".
Matériel et logiciel
L'insertion dans le monde matériel donne une autre densité à la dis-tinction organe/fonction. Elle conduit aussi à expliciter le logiciel (software) comme différent, ou émergent, du matériel (hardware).
Un organe ne peut plus se définir simplement par une zone dans une grande chaîne binaire. Il doit se matérialiser, organiser phy-siquement son horloge, son alimentation énergétique, ses relations avec les autres organes. La fragilité d'un organe complexe le conduit à s'entourer de dispositifs protecteurs (membranes et dermes en biologie, carters rigides et blindages électromagnétiques pour l'électronique).
Typologie des processeurs
Dans le monde matériel, un processeur se distingue d'un compo-sant, d'un périphérique ou d'un programme par le fait qu'il a une implantation physique bien définie dans l'espace et le temps, et sa propre horloge. C'est la structure essentielle de l'ensemble, l'auto-mate incarné.
Cela n'empêche pas d'en établir une typologie. L'une des plus cou-rantes se base sur le type de modifications qu'il imprime aux objets qu'il traite : changements de temps, d'espace ou de forme.
Les traitements sur la forme sont tellement généraux qu'on pourrait aussi bien parler de "processeurs indifférenciés", de "processor processor" comme les zoologistes parlent du "vulpes vulpes" pour désigner le renard proprement dit.
Par processeurs opérant sur le temps, on entend essentiellement les mémoires. Cela correspond bien à certaines catégories pratiques de dispositifs digitaux, comme le sait tout utilisateur d'un ordinateur.
Mais il s'agit d'une simplification pragmatique plutôt qu'autre chose. Les mémoires s'organisent en strates autour des registres du processeur central. Et même celui-ci peut encore s'analyser en mémoire et processeur proprement dit, puisqu'une partie de ses circuits est consacrée à des "microprogrammes", pour stocker notamment son jeu d'instructions. Quant aux mémoires les plus périphériques, certaines, comme les disquettes, cassettes ou CD-ROM, servent parfois moins de mémoire à proprement parler que de support de communication entre systèmes. Enfin, dans les orga-nismes biologiques, la frontière n'est pas nette, et la totalité du corps, muscles compris, joue un rôle de mémorisation, même si certaines parties du cerveau y sont plus directement affectées.
Les processeurs de "communication" relient entre eux les systèmes, et agissent "sur l'espace" en les faisant communiquer entre situa-tions géographiques plus ou moins éloignées, avec les trois niveaux actuellement bien connus : réseau local des bureaux, réseaux à moyenne distance, réseaux à longue distance. Sur ce point, les systèmes biologiques, limités aux couples bouche/oreille et main/œil, ne sont jamais allés très loin, en distance physique. Ils sont en revanche très sophistiqués et difficiles à égaler par les machines quant à leur articulation, leur modulation, leur contenu. Ils atteignent une densité et une puissance, émotionnelle en particulier, étrangère aux systèmes matériels les plus perfectionnés.
Un problème difficile se pose pour unifier la mesure de puissance de ces processeurs. Il est relativement simple de ramener un processeur de traitement ou une mémoire à une capacité binaire et à un cycle de fonctionnement ou à un temps d'accès. Pour les communications, on mesure d'une part un débit binaire et de l'autre une distance dans l'espace physique. Pour unifier l'ensemble, il faudrait voir comment notre modèle généralisé du monde des processeurs peut se mesurer en tant que déployé dans le monde matériel. La tâche n'est sans doute pas insurmontable.
Pour certains systèmes, les relations avec l'extérieur ne se limitent pas à des jeux d'entrées-sorties avec d'autres systèmes digitaux, mais incluent des prises d'information sur le monde extérieur et des actions sur ce même monde : les capteurs et les actionneurs.
Capteurs
Les capteurs sont les organes qui informent le système sur ce qui se passe dans le monde extérieur, ses organes sensoriels. Leur variété est aujourd’hui immense. Les plus simples ne fournissent qu'un bit: un interrupteur indique qu'une porte est ouverte ou fermée. D'autres, plus élaborés, fournissent un nombre binaire de plusieurs chiffres pour représenter une grandeur : température, vitesse de rotation, tension électrique... (On peut alors parler de capteur "analogique", puisque la mesure se réfère à une grandeur qui varie continûment et la représente d’abord, en général, sous forme d'une tension électrique proportionnelle à la valeur mesurée. Cette tension est ensuite convertie en bits par un circuit dit "convertisseur analogique-digital"). Parmi les capteurs les plus complexes, citons les caméras qui fournissent des images.
Actionneurs
Les "actionneurs" sont souvent des interrupteurs électriques qui commandent des moteurs, des résistances de chauffage, etc. Si l'on veut obtenir des actions "continues", les ordres comportent des nombres binaires, traduits dans la grandeur appropriée (intensité électrique à fournir, degré d'ouverture d'une vanne) par des convertisseurs digital-analogiques symétriques de ceux des capteurs.
Parmi ces ensembles de capteurs et d'actionneurs, les plus courants sont ceux que nous utilisons chaque fois que nous nous asseyons devant notre ordinateur: clavier et souris comme capteurs, écran et carte son comme actionneurs. La plupart des ordinateurs courants n'ont pas d'autres périphériques. En revanche, les systèmes industriels ou les ordinateurs intégrés à des automatismes envoient leurs ordres à tous les types de machines connus. La chaîne d'exécution part alors du signal électrique faible engendré par l'électronique, transforme si nécessaire le signal digital en signal analogique, l'amplifie par différents moyens (transistors, relais) puis le transmet éventuel-lement à des organes mécaniques (moteurs, vérins), thermiques, etc. Ajoutons que, comme les êtres vivants, plus les systèmes digitaux sont perfectionnés, plus ils disposent de capteurs pour s'informer sur leur propre état de fonctionnement (pour savoir par exemple s'il y a une disquette dans le lecteur ou s'assurer que ses parties les plus sensibles ne chauffent pas trop).
Perfectionnement des représentations du monde
Le progrès passe par la multiplication du nombre des capteurs et actionneurs, l'amélioration de leur précision et de leur fiabilité, mais aussi par la réduction systématique des nombres de bits qu'ils fournissent ou qu'il faut leur fournir.
Nous avons vu que la compression tirait parti de régularités connues pour réduire le volume des données. Cela s'applique en particulier à ce qui est reçu des capteurs qui, à la base, fournissent un nombre élevé de bits dont beaucoup sont inutiles, en particulier par le fait que bien des phénomènes observés changent peu d'un cycle à l'autre. Une des manières les plus simples sera de ne faire émettre un message du capteur vers le processeur qu'en cas de changement significatif.
Symétriquement, l'exécution des actions vers le monde extérieur comporte des opérations largement répétitives, qui pourront être déléguées à des organes spécialisés. Prenons différents exemples.
Les codes Midi
Conçus pour les synthétiseurs, les codes Midi codent la musique comme une suite d'ordres envoyés à un ensemble d’instruments électroniques. Par exemple "Basson, jouez un ré mineur avec telle force". Ces ordres sont traduits en machine par des codes aussi courts qu'illisibles directement. Les musiciens n'ont pas à les connaître. Tout au plus certains peuvent-ils s'y intéresser pour exploiter à fond les machines dont ils disposent. Les instruments électroniques, les claviers, par exemple, fabriquent automatiquement ces codes. Avec un logiciel approprié, on peut aussi les écrire avec l'aide de la souris, sur une feuille de papier à musique affichée à l'écran. L'ordinateur se charge ensuite aussi bien d'imprimer la partition que d'exécuter le morceau.
Représentations des images par pixels, vecteurs et objets
Pour les images, le mode de représentation le plus simple consiste à les découper en petits carrés (pixels) et à affecter une valeur à chaque point (en général par l'intensité de trois couleurs : vert, rouge, bleu). Simple à appliquer par l'électronique de l'écran ou de l'imprimante, cette codification a deux inconvénients: le volume de stockage nécessaire (mais on peut comprimer, comme on l'a vu plus haut) mais aussi le faible niveau de maîtrise sur ce qui est représenté. D'où l'intérêt de codes vectoriels : le fichier décrit les traits (vecteurs) qui composent le dessin, ou une série d'ordres de dessin (se placer en tel point, et aller vers tel autre point en tirant une ligne de telle épaisseur et de telle couleur).
La liste des formes est plus ou moins riche selon les logiciels utilisés. Elle comporte par exemple des splines, formes souples pouvant envelopper au mieux un ensemble de points déterminés. Elle va jusqu'au dessin "réaliste" des formes les plus complexes. Ici encore, les codes internes à la machine pour désigner ces codes et ces opérations n'ont pas besoin d'être connus des dessinateurs, qui travaillent à l'écran avec une souris ou, pour plus de précision, une tablette graphique.
Pour être présentés, joués, enregistrés, ces fichiers son ou image exigent des programmes ou des processeurs plus sophistiqués que les fichiers codés plus simplement. En revanche, ils permettent toutes sortes d’opérations impossibles autrement. On peut, par exemple, transposer d’un ton ou d’un demi-ton un morceau de musique codé en Midi, ou changer sa vitesse d’exécution. Cela serait impossible avec un enregistrement digital ordinaire (type CD par exemple). Dans une image codée par un métafichier, on peut créer des objets, les modifier, les déplacer les uns par rapport aux autres sans pour autant tout redessiner.
Reconnaissance et génération des caractères typographiques
Une page de texte peut être saisie par une caméra ou un scanner, stockée, transmise et reproduite telle quelle. Cette solution est simple et se contente de matériels peu coûteux si l'on se limite à des reproductions assez médiocres, comme celles de la télécopie.
En termes digitaux, et en particulier si l'on veut stocker les docu-ments, cette solution est tout de même peu efficace, car un texte est l'assemblage d'un assez petit nombre de caractères typographiques, qui peuvent avantageusement être représentés par un code de 8 bits (pour les langues occidentales, 16 pour les langues à idéogrammes). Le gain obtenu est considérable : une page en noir et blanc à bonne densité (300 dpi) exige au moins 5 millions de bits pour un codage en pixels, mille fois moins sous forme de texte codé. En outre, l'avantage de cette codification est de fournir un fichier textuel qui se prête à des reconnaissances de niveau supérieur, à une certaine compréhension du texte. Cela permet soit de le traduire (assez mal sans intervention humaine, il faut le dire, en 1999 encore) d'une langue dans une autre ou, plus couramment, d'y faire des recherches par exemple avec l'aide d'un moteur d'indexation et d'un navigateur comme ceux d'Internet.
Ces avantages se paient. Ils supposent, à l'entrée, que l'on sache "reconnaître" ces caractères, c'est-à-dire remplacer la matrice des pixels par une séquence de codes de caractères et, à la sortie, que l'on dispose d'une imprimante. Ce gain se paie aussi par la possi-bilité d'erreurs dans la reconnaissance, et par la limitation des codes reconnaissables. Une page de texte ordinaire comporte souvent des graphiques, des annotations manuscrites, etc. qui passeront, médio-crement certes, avec un stockage en pixels, et disparaîtront avec la reconnaissance des caractères. Plus les machines progressent et plus il y a intérêt à employer des techniques de traitement élaborées, bien qu'il y ait parfois des surprises et que des solutions brutales s'avèrent efficaces si l'énergie (en l'occurrence la puissance de calcul) est peu chère. Pensons au bulldozer, que les Américains importèrent en France après la guerre, efficace en pratique bien qu'en théorie d'un rendement faible. Ainsi, dans les trois cas, il faut un processeur sophistiqué, mais on gagne en "objectivité" et en capacité d'action.
Une seule âme, deux corps : le carbone et le silicium
L'âme digitale s'incarne dans deux grands types de supports matériels, de chimies. C'est d’une part le monde de la nature, qui se structure et, avec l'apparition de la vie, devient porteur de systèmes vraiment digitaux : simples coupures avec les atomes, codes (ADN) et échanges binaires (neurones) avec les systèmes biologiques (c’est pourquoi nous parlerons de "chimie du carbone", pour simplifier) puis avec la rationalité humaine. C'est d’autre part les machines que nous construisons à l’extérieur de nous : comme l'ensemble de ces dispo-sitifs est actuellement dominé par les circuits (chips, puces) à base de silicium, nous parlerons de « chimie du silicium ».
La dialectique digitale
Le digital se construit comme une zone tempérée, habitable, entre deux pôles extrêmes ou comme une dorsale entre deux continents : d'une part la "nature", de l'autre nos valeurs, nos objectifs, nos intentions ; d'une part la matière informe, de l'autre la forme pure.
Et d'abord, le digital commence par les constituer, ces pôles ou ces continents, par sa rupture même, comme le Dieu de la Genèse sépare la terre des eaux, la lumière du jour… Mais ces séparations originelles ne nous sont pas données immédiatement. Nous les reconstruisons après coup. Il faut beaucoup de coupures, beaucoup de bits, pour que chaque homme dans son existence et l'humanité dans son ensemble, puissent en prendre conscience, en faire un récit et un plan d'action (les trois allant de pair).
Cette construction est une dialectique permanente entre le sujet et l'objet, entre l'expression (la phénoménologie) de l'esprit dans la matière, l'horizontalité, les "œuvres" et le retour vers soi, le recueillement dans la verticalité, la foi. Tout cela a déjà été mille fois écrit. Mais notre modèle nous en laisse espérer une nouvelle expression, plus formelle, plus quantitative, avec un double espoir : d'abord la possibilité d'une meilleure compréhension de nous-mêmes, de formes de recueillement à la fois fidèles aux grandes traditions et porteuses du progrès de l'espèce, ensuite une meilleure appréhension des problèmes de notre temps, de l'éthique et de la politique qu'elle appelle. Nous y viendrons dans la troisième partie. Mais, avant de passer à l'action, offrons-nous encore le plaisir du regard sur quelques volets de la dialectique digitale dans son mouvement permanent de coupures et de synthèses.