Géologie et thermodynamique de l'hypermonde
Pierre BERGER
Président du Club de l'Hypermonde , janvier 1995
Espace largement ouvert à notre expansion, l'hypermonde ne sera vraiment fécond que si nous en établissons les lois, appuyées sur celles du monde traditionnel, mais s'en éloignant parfois à une vitesse sidérale. Pour les établir, nous pouvons nous appuyer, au moins par analogie, sur les sciences dures. Après la présentation d'un premier modèle formel, nous prenons ici l'exemple de la géologie et de la thermodynamique. La géologie se fonde notamment sur l'histoire des technologies et leur prospective, mais peut partir aussi de modèles technologiques comme celui de l'OSI. La thermodynamique, partant de différentes définitions possibles des "distances" entre objets de l'hypermonde, conduit à une série de première lois, dont nous ne donnons ici qu'une formulation "littéraire". Ces lois partagent un trait commun: elles butent sur des limites de validité, déplaisantes a priori pour leurs constructeurs mais rassurantes pour les philosophes.
La pénurie de modèles explicatifs gène les entreprises autant sinon plus que la difficulté de trouver des investisseurs. La métaphore de l'hypermonde apporte une base nouvelle à la construcion de modèles, aussi bien "durs" que "mous", relevant des sciences humaines aussi bien que de la modélisation mathématique et de la référence, au moins par anlogie, aux sciences phyisques. C'est ce volet formalisateur que nous allons explorer ici, renvoyant pour les sciences humaines à d'autres contributions, notamment celles de Jean-Marie Letourneux, Jean-Paul Bois et Eddie Soulier.
1. L'hypermonde, une métaphorepositive
1.1. Définition
L'hypermonde est l'espace immatériel où conduit la convergence des nouvelles technologies de l'information. De même que le Nouveau Monde offrit à nos Pères les vastes espaces de l'Amérique, les technologies nous ouvrent aujourd'hui de nouveaux lieux, immenses, qu'il nous appartient de développer.
Il y bien des manières de concevoir cet espace. Difficile de l'imaginer. Du moins faut-il rester modestes: Christophe Colomb pouvait-il imaginer Manhattan, Hollywood et la Maison Blanche? Il n'en est pas moins utile de commencer à y pénétrer, ne serait-ce que pour en montrer les richesses, et donner envie à tous de faire le voyage, à une époque qui paraît à beaucoup désespérément privée d'horizons.
1.2. Sciences dures, sciences molles
Il y a bien des manières, et après moi Eddie Soulier et Jean-Paul bois vont s'y employer avec les moyens des "sciences humaines" et, au delà, de l'humanisme ou du post-humanisme. Je vais tenter une exploration dans l'optique des "sciences dures". D'où le choix, en partie métaphorique, de la géologie et de la thermodynamique. A vrai dire, le travail reste à faire: l'hypermonde attend son Newton et son Einstein. Nous pouvons au moins leur préparer la voie, espérer que parmi ceux qui nous écoutent, peut-être parmi vous aujourd'hui dans cette salle, quelques uns, et un seul peut suffire, attiré par ces vastes espaces, s'y engagera assez pour trouver l'illumination. Vous allez voir d'ailleurs, que l'espace hypermonde recèle, dès qu'on s'éloigne de ses médiatiques rivages, de surprenantes perspectives.
2. Un modèle "en dur", pour fixer les esprits
2.1. L'archipel des mémoires
On peut pour commencer considérer l'hypermonde comme la connexion des espaces de mémoire de tous, ou en tous cas d'une part croissante des ordinateurs existants. Théoriquement, en suffixant le système d'adressage de tout ensemble informatique par une adresse Internet ou X.400, nous pouvons symboliquement les réunir en un seul espace. Et même donner une première évaluation de sa surface actuelle: environ 50 millions de micro-ordinateurs disposant chacune de 100 millions d'octets sur disque, soit 5.10**15 octets. A peu près autant sur les grandes machines (50 000 mainframes ou équivalents avec chacun 100 giga octets). Donc en tout 10**16 octets. Ou encore environ 10**17 bits. On peut aussi y a jouter l'ensemble des supports magnétiques mobiles (bandes magnétiques, CD-Rom).
Comment s'organise le contenu de cet immense espace binaire? La première image est celle d'un archipel. Tout ordinateur ou micro-ordinateurr constitue une île avec l'ensemble des mémoires qu'il emploie ou contrôle.
2.2. Croissance de l'archipel
Cet archipel s'accroît rapidement
- par la multiplication des îles, du fait de l'augmentation du parc de micro-ordinateurs et de l'introduction de chips numériques dans un nombre croissant d'appareils;
- par l'augmentation de surface des îles, aux différents niveaux de leur mémoire (aujourd'hui, 4 Mo octets de mémoire centrale commencent à sembler peu sur un micro-ordinateur, et l'on en recommande 8 pour bien des applications, et les disques durs sont à 300 Mo).
Cet archipel se densifie et les îles se relient peu à peu. On tend, dans une entreprise, à connecter tous les postes de travail par des réseaux locaux. Et tous les établissements d'une entreprise, et toutes les entreprises avec leurs partenaires. De brèves connexions font place à des liaisons permanentes. L'archipel se fait continent.
Parallèlement, la vitesse de circulation dans l'archipel s'accroît. Les temps d'accès aux mémoires se comptent en nanosecondes. Les débits des télécommunications passent de 1200 bits/seconde à plusieurs centaines de mégabits. L'image météorologique, appelant la thermodynamique, d'une "montée en température" vient ici relayer la géologie de constitution de l'archipel.
La "température" n'est pas partout identique. Elle s'élève autour des processeurs et s'abaisse en zones "concentriques" avec les registres, la mémoire vive et les différents types de supports de mémoire "externe".
Enfin, l'espace se fait toujours plus cohérent, continu, par toutes les formes de la standardisation. Avec ses différents niveaux. A la base le "miracle du binaire", au dessus la machine de Von Neumann, les systèmes d'exploitation, SGBD, standards de communication, etc.
2.3. Le monde entier, à partir de nos îles
L'espace-mémoire colonise toute la planète. Toute machine moderne d'un certain niveau de complexité s'équipe d'une "puce". Qu'elle soit industrielle ou domestique. Elle y gagne tout à la fois:
- des possibilités de programmation et d'automatisation
- la possibilité d'une interface ergonomique avec l'homme
- la possibilité de se mettre en réseau avec les autres machines, d'entrer dans l'archipel.
Du point de vue formel de l'archipel des mémoires, une machine donnée apparaît comme une zone de mémoire spécialisée, dans ses fonctions comme dans sa localisation et ses liaisons avec d'autres zones de mémoire.
On peut en tenter une description formelle sur quelques exemples:
- un poste téléphonique est constitué par deux points binaires, géographiquement proches l'un de l'autre (environ 15 centimètres), pouvant se mettre en relation avec un autre couple similaire, éventuellement très éloigné chaque couple comportant un point "récepteur" asservi au point "émetteur de l'autre", avec une fréquence d'asservissement de 30 à 3000 KiloHertz;
- un poste de télévision numérique est une mémoire locale constituant une matrice de pixels, dont le contenu est constamment mis en correspondance à l'identique avec une mémoire origine dite émetteur; comme un grand nombre de postes sont asservis au poste émetteur, on parle de mode "diffusion";
- une machine outil ou un automatisme comporte des points "origine", dont la valeur binaire est donnée par des appareils dits "capteurs", placés en des points bien déterminés de l'espace (topographique), et d'autres sont des points de valeur calculée par les automates, les "actionneurs";
- une horloge est un point binaire qui change de valeur à une fréquence bien déterminée; elle est en général entourée d'une zone binaire plus ou moins étendue permettant d'enregistrer l'heure, voire la date; et souvent aussi complétée par une assez vaste zone "graphique" permettant de présenter l'heure aux opérateurs humains.
On notera aussi:
- des objets passant d'un point à un autre,
- des flux de bits, fichiers, messages,
- la répétition, en quantité nombreuse, de certains objets ou types d'objets.
Dans ce modèle, nous pourrons peu à peu reconstruire l'ensemble de l'informatique, essentiellement comme des relations entre les différentes zones de ce vaste plan mémoire. Ces liaisons, et la manière technologique dont elles s'accomplissent, sont extérieures au plan mémoire proprement dit. Les "fils" ou "canaux" ne sont pas dans l'espace binaire, même s'ils figurent dans le même morceau de silicium. En revanche, les communications étant numérisées, ces liaisons sont décrites et pilotées par d'autres zones binaires.
2.4. Topologie, topographie, géographie
Il va falloir construire une sorte de topologie de cet espace et des relations entre ces points. Cela conduirait, par exemple, à définir des opérateurs ou des processeurs. A retrouver par exemple la typologie TEF (temps, espace, forme):
- processeurs temporels, ou mémoires, en y plaçant ici essentiellement les "accès",
- processeurs d'espace, (communication et réseaux)
- processeurs de forme, la case "divers" de cette typologie, c'est à dire à la base les opérateurs logiques et au dessus des combinaisons de plus en plus riches jusqu'aux systèmes informatiques complets.
Conjecture: il existe entre ces structures des jeux de dualités et de réciprocité, les structures de l'espace mémoire renvoyant à celles de l'espace des processeurs. On pourrait partir d'une définition de type "un processeur est une relation entre deux zones mémoire, lui-même défini par une zone mémoire dite programme".
Bien que simpliste, ce modèle va nous permettre d'esquisser les points de départ possibles d'une géologie et d'une thermodynamique de l'hypermonde.
3. Esquisses d'une géologie
3.1. Les strates historiques
La première inspiration peut venir de l'histoire. Chaque île de l'archipel émerge du magma analogique en s'appuyant sur des strates historiques. Peut-être plus comme une croissance de corail que de notre géologie habituelle avec son érosion. En creusant sous l'apparence, sous l'état de l'art des technologies présentes, nous pouvons retrouver leurs racines. Certes de plus en plus fondues dans la normalisation de l'hypermonde, comme le montre le multimédia, mais encore largement présents: un téléphone, même numérique, est encore bien loin de se confondre avec un ordinateur, a fortiori avec un téléviseur. Les racines se prolongent d'autant mieux qu'elles sont portées par nos cultures. Jean-Paul Bois, par exemple, oppose informaticiens et télécommunicants, les uns axés sur la computation, les autres sur la commutation.
N'en sous-estimons pas l'importance. Nous avons beau niveler les sols et masquer leur nature en les recouvrant de béton et de bitume, la nature parfois se rappelle à nous, par exemple en période d'inondation ou de tremblement de terre. Et ne nous privons pas non plus d'en savourer les plaisirs: l'histoire et la préhistoire de l'hypermonde constituent une véritable saga que nos arrière-petits enfants se chanteront peut-être, le soir, à la chandelle (virtuelle).
3.2 Une géologie "modèle OSI"
Bien connu des informaticiens et des télécommunicants, le modèle OSI (Open systems Interconnect) évoque d'emblée une géologie avec sa stratigraphie en sept "couches", depuis le niveau "physique" jusqu'aux "applications". Ou, en généralisant, depuis le matériel jusqu'au conceptuel. Et pourquoi pas, pour ceux qui le souhaitent, jusqu'au spirituel. Quitte à sous-décomposer le niveau "applications".
Ce modèle présente l'avantage de distinguer -tout les reliant- des ordres de réalité bien différents. Et de préciser les relations entre les contraintes rencontrées à chaque niveau, chacun ayant, en quelque sorte ses contraintes spécifiques.
Comme la géologie traditionnelle, renforcée depuis quelques décennies par la théorie des plaques tectoniques, la géologie de l'hypermonde aura pour principale utilité la recherche et le choix des emplacements appropriés pour les infrastructures ainsi que les "gisements" des différents types de ressources de l'hypermonde.
4. Première esquisse d'une thermodynamique
Alors que l'approche "géologique" nous pousse plutôt à de grandes modélisations graphiques et historiques, l'approche thermodynamique va chercher des lois formelles, de type mathématique.
A partir du moment où nous nous sommes donnés le modèle d'un espace, nous pouvons commencer à y introduire, ou plutôt à y transposer, les concepts de distance, de vitesse, d'accélération, de masse, de température et de pression qui font la trame de la thermodynamique. Avec bien entendu, au sommet, mais un sommet dangereux, l'entropie.
La transposition n'ira cependant pas sans difficulté. Nous nous limiterons ici à la distance. Nous pouvons nous donner plusieurs types de mesure.
4.1. Distance "géographique"
Vient immédiatement à l'esprit, la distance euclidienne de l'espace ordinaire, disons la distance "géographique" séparant l'emplacement physique de deux bits. Pour les distances courtes, il serait préférable peut-être de parler de distance topographique ou même géométrique. Mais il vaut mieux prendre le terme de "géographique", valable par extension dans tous les cas, et qui exprime plus clairement l'insertion des objets binaires dans le monde concret.
Elle peut varier entre
- la distance entre deux bits contigus dans la technologie de mémoire la plus évoluée à une époque donnée;
- la distance entre les deux mémoires numériques les plus éloignées connues; le record sera alors tenu par les satellites d'exploration spatiale lointaine, avec des millions de kilomètres; comme cas particulier fréquent de grande distance, nous aurons deux points reliés par satellite géostationnaire, soit au moins 72 000 kilomètres.
Cette distance "géographique" est importante, car nous ne savons pas transmettre de signaux à une vitesse plus grande que la lumière. Cela a dès à présent deux conséquences pratiques connues:
- un calculateur puissant doit être concentré dans l'espace;
- l'interactivité par satellite souffre d'un délai minimum d'environ un tiers de seconde, ce qui n'a rien de négligeable pour certaines applications.
4.2. Distance sémantique
A l'autre extrême des possibilités de définition de la distance dans l'espace des mémoires, on peut tenter de s'appuyer sur la signification des objets (c'est à dire, dans ce modèle, des paquets de bits), suivant la proximité de leur signification, leur consonance cognitive. Deux objets identiques seraient à distance nulle, deux objets "sans aucun rapport" seraient à une distance infinie.
Une vraie définition de ce type obligerait à se poser des questions, difficiles mais peut-être pas insolubles, sur la mesure du "sens"... On peut partir de la très simple "distance de Hamming": on compare bit à bit deux objets binaires de même longueur et la distance est donnée comme le nombre de positions différentes.
On peut introduire ici la distance "par le bruit", qui donna naissance aux travaux de Shannon avant la deuxième guerre mondiale. Au cours d'une transmission, un certain nombre de bits sont modifiés aléatoirement. On rejoindrait aussi en partie la théorie de l'autonomie de Vendryes. De ce point de vue, le bruit peut se mesurer, par exemple, avec la distance de Hamming.
4.3. Distance d'adressage
Un peu intermédiaire entre distance géographique et distance sémantique, on peut définir une distance entre deux objets par le chemin à accomplir dans l'espace d'adressage comme la somme des longueurs de leurs adresses. Cette distance ayant un intérêt surtout technique, on pourrait plus précisément prendre la somme des temps d'accès, exprimant ainsi qu'un objet stocké sur une cassette magnétique d'un robot de stockage peut être pratiquement plus éloigné qu'un autre auquel situé en mémoire centrale d'un autre ordinateur relié à grande vitesse par satellite.
Cette définition, prise sans correction, a cependant un inconvénient, si on l'applique brutalement à partir d'un espace universel: deux objets contigus mais d'adresse longue seront considérés comme très éloignés. Ce qui peut correspondre à la réalité pratique dans certains cas, et pas du tout dans d'autres.
Il faudrait alors préciser: distance entre deux objets dans un sous-espace déterminé. En pratique, on retirerait du calcul le tronc commun de leurs deux adresses. On notera que deux objets binaires contigus géographiquement peuvent se trouver très éloignés dans l'espace d'adressage. Mais cela correspond bien à la pratique.
4.4. Elaboration des lois
D'une manière générale, les relations entre différents types de distance conduisent à des notions comme la "densité", ou nombre de bits par unité de volume. Ce qui pourrait nous pousser, par la suite, à considérer les bits comme des masses... restant à vérifier que l'analogie est ici féconde.
On voit ici apparaître la nécessité de définir des distances entre objets plutôt qu'entre bits. La thermodynamique classique prend les distances entre centres, ou centres de gravité. Cette notion ne se transpose pas aisément.
Loi 1. Plus les objets sont gros, plus ils sont éloignés
Mais on voit déjà que la distance entre de gros objets ne peut pas être nulle, ni réduite à la distance géographique de deux bits contigus. Plus ils sont gros, plus ils sont éloignés. Et l'on remarquera que cela s'applique quelque soit la définition choisie pour la distance. Cependant, pour la distance sémantique ou la distance de Hamming, la possibilité d'avoir des objets strictement identiques est bien réelle. Et bien qu'elle soit a priori d'autant moins probable que les objets sont grands, en pratique, un certain nombre d'objets assez volumineux sont répétés en grand nombre: micro-code, systèmes d'exploitation standards, progiciels... code génétique. Avec une probabilité non nulle, mais faible, d'avoir ici et là une erreur de transmission ou de conservation en mémoire.
Loi 2. Plus la distance à franchir par un objet est grande, plus il doit être "enveloppé" pour y parvenir.
Il faut en effet compenser les différentes formes de distance. Par exemple faire figurer une adresse de plus en plus longue pour atteindre le point de destination (distance d'adressage), ou compléter par des explications (distance sémantique), ou ajouter des moyens de correction (redondances, codes de contrôle) pour compenser les risques de pertes.
Les systèmes de préfixage, les en-têtes ("headers" des fichiers de texte ou d'image) et à la limite les aides en ligne matérialisent cet alourdissement.
Loi 3. Plus un objet est gros, plus il se fissure
Cette formulation de loi est bien naïve, mais c'est une de celles qui mériterait les analyses les plus poussées. Les fissures sont plus intéressantes que les bons pleins continus.
Plusieurs exemples illustrent cette loi. Qui traduit d'ailleurs l'accroissement inéluctable du "bruit" au sein même d'un objet quand il grossit.
Matériellement, il n'est pas possible de faire grossir indéfiniment les puces. Au fil des années, le diamètre des barres de silicium monocristallin augmentent, mais reste limité (une dizaine de centimètres). Quant aux puces que l'on y découpe, plus elles sont grosses, plus le déchet est fort. On est d'ailleurs conduit à prévoir des parties redondantes pour compenser, dès l'origine, une partie au moins de ces défauts.
Au sein d'un ordinateur, les grands volumes de mémoire obligent à recourir à des dispositifs diversifiés, répartis. Les grandes puissances de calcul aussi.
Mais cela est vrai aussi pour les grands volumes de données. Plus un "tableau" comporte de lignes et de colonnes, plus la proportion de cases vides augmente.
Enfin, et surtout peut-être, cela est vrai pour les théories formelles elles-mêmes, comme l'a montré Gödel: toute théorie assez complexe pour incorporer par exemple les nombres entiers conduit à des propositions indécidables et même à des contradictions.
Corollaire de la loi 3: l'inaccessible continu
A partir de l'espace binaire, nous cherchons constamment à reconstituer le monde continu, le monde analogique, bref le monde "réel".
Nous le faisons techniquement, d'abord. Cette reconstruction réussit dans une large mesure. Qui, à part quelques audiophiles d'ailleurs suspects de passéisme, conteste la supériorité du disque laser sur le disque vinyle, au moins une fois un peu usé. Et pourtant, le taux d'échantillonnage et la finesse du codage de nos CD actuels ne sont pas aux limites des technologies musicales possibles. Qui conteste la qualité des textes photocomposés d'aujourd'hui... il suffit de prendre de vieux livres pour en voir au contraire aisément les imperfections et la monotonie. Sauf, ici encore dans des cas exceptionnels, certains ouvrages de bibliophiles soignés avec amour par des typographes presque mystiques.
Gardons-nous, en tous cas, de taxer trop facilement l'univers digital de "manichéen" parce qu'il se base sur une logique à deux états. A partir du moment où l'on allonge le mot binaire, on peut aller aussi loin qu'on veut. En tous cas bien à des degrés de finesse supérieurs à la perception humaine courante.
Mais, parallèlement, les mathématiques nous montrent, par exemple, comment on peut reconstruire le continu à partir du discontinu. La construction de la droite réelle à partir des entiers et des rationnels le montre puissamment. Mais là aussi, on bute en pratique sur des limites. Dès que nous voulons expliciter les séries de nombres qui vont nous permettre cette reconstruction, ils vont s'allonger, aussi bien sous leurs expressions formelles (développements en série) que sous leur traduction numérique, en nombres rationnels. Comme on ne dispose jamais d'une capacité infinie pour stocker ces nombres et les manipuler, il faut bien s'arrêter un jour, et tous les praticiens du calcul scientifique le savent. Les formules "aussi près qu'on veut" de l'axiomatique du continu doivent donc se traduire, dans le concret, par "aussi près qu'on peut".
Il reste donc toujours un "gap". Où les uns verront une blessure inguérissable, une incapacité radicale de la raison à atteindre le "réel. Où les autres verront la faille féconde où peut passer "l'Esprit" (par exemple, Eccles).
Loi 4. Tout cela "progresse"
L'espace n'est pas séparé du temps. Un certain nombre de lois sont valables "de tout temps", comme les lois proprement mathématiques, ou la vitesse de la lumière.
D'autres, toutes celles qui sont liées à la technologie, évoluent avec le temps, de manière relativement cohérente et régulière. La loi la plus connue concerne les circuits électroniques intégrés, et sa régularité est remarquable, si sa précision reste approximative. Gordon Moore, fondateur d'Intel, l'a ainsi formulée: le nombre de circuits élémentaires (transistors) que l'on peut placer sur une puce de silicium double tous les deux ans. Cette loi se vérifie depuis une vingtaine d'années et devrait continuer à s'appliquer pendant encore au moins dix ans. Toutes les fois qu'on la pense bloquée par une limité technologique, l'innovation permet de continuer la progression.
En pratique, cette loi se traduit approximativement dans un certain nombre d'autres lois:
- tous les deux ans, un ordinateur d'un volume déterminé est deux fois plus puissant;
- tous les ans, on en a deux fois plus sous le même poids;
- tous les ans, on en a deux fois plus pour le même prix.
On voit par là que les différentes échelles d'examen de l'hypermonde s'emboîtent et se correspondent, depuis les circuits intégrés à l'échelle aujourd'hui micronique jusqu'au parc des machines et aux lignes des réseaux.
Cela est vrai temporellement aussi. Si l'on procède par substitution avec les technologies précédant l'arrivée des transistors et des circuits intégrés, on devrait pouvoir retrouver les exponentielles depuis très loin. En particulier depuis les origines de l'humanité, comme le montre par exemple la courbe établie par Leroi-Gourhan sur les silex taillés de la préhistoire: de façon exponentielle, quoique bien entendu beaucoup plus lentement que la loi de Moore, progresse le nombre de mètres de tranchant obtenus avec un kilo de silex. Et cette évolution a joué un rôle fondamental dans les progrès de l'humanité, en permettant au chasseur une mobilité de plus en plus grande... qui devait le conduire, paradoxalement, à renoncer au nomadisme pour entrer dans le néolithique.
Loi 5. La concentration des complexités
La loi de Moore a aussi des conséquences, ou des parallèles, dans l'organisation générale de l'espace géographique. La montée de densité du chip et la baisse de son prix conduit à concentrer la complexité dans le silicium, dans les puces. Ne laissant à l'extérieur que les dispositifs "de puissance" et les interfaces, notamment avec les être humains.
Notons qu'une première loi, moins connue aujourd'hui quoique pourtant peut-être toujours valable, dite "loi de Grosch", posait que la puissance d'un calculateur variait comme le carré de son prix. Autrement dit, il y a en général intérêt à concentrer la puissance sur un nombre minimal de machines. La montée des micro-ordinateurs a fait perdre son actualité à cette loi. A tort peut-être.
4.5. Les deux "chimies"
Cette concentration prolonge celle qui s'est produite depuis l'origine de la terre avec la chimie du carbone: la complexité s'est accrue dans les êtres vivants simples, puis a crû dans quelques espèces plus avancées qui ont dominé les autres, pour arriver finalement au sommet, en tous cas au sommet actuel de la chimie du carbone: l'homme.
L'homme a peu à peu organisé l'univers autour de lui. D'une certaine manière, il en a fait croître la complexité, mais toujours comme une complexité "asservie", c'est à dire au moins en principe, dépendante de lui.
Pour cette raison, il n'a pu tolérer les formes de complexité qu'il ne pouvait contrôler, et a donc peu à peu fait disparaître les formes concurrentes, notamment les "bêtes sauvages" et les "mauvaises herbes".
D'une certaine manière, la chimie du silicium tend aujourd'hui à prendre le relais de la chimie du carbone. Et l'une des questions clés qui s'ouvrent pour le prochain siècle, sinon pour le prochain millénaire, c'est de voir comment ces deux chimies réagiront entre elles.
Première hypothèse. Stabilité: la chimie du carbone continue à n'évoluer que très peu. L'homme reste lui-même. Et la chimie du silicium reste sous son contrôle, sans remises en cause fondamentales. L'ordinateur n'est qu'un outil.
Deuxième hypothèse. Fin de l'humanité: la chimie du carbone n'évolue plus, voire régresse (The Bell Curve). Le silicium continue de monter et un beau jour prend le dessus, avec la complexité volontaire de l'homme (parabole de Forge), en luttant contre lui ou en prenant le pouvoir "gentiment" (thèse d'Asimov dans Les Robots ou de Moravec). Le tout est de savoir à quelle date se fait la mutation (2050 pour Moravec, ce qui paraît tout de même surestimer largement la vitesse de progrès du silicium).
Troisième hypothèse. Synthèse/symbiose. L'homme accepte de mieux en mieux la montée du silicium et commence à accepter les liaisons directes de son système nerveux avec les outils informatiques. Bien que choqué au départ par cette évolution (L'homme terminal, Total Recall), il l'accepte néanmoins au service des handicapés, puis pour le plaisir, puis finalement de gaieté de coeur, comme seul moyen de marcher vraiment vers un au-delà d'une humanité que, certes, nous respectons, mais qui a aussi montré ses limites, à Auschwitz par exemple.
4.6. Intégrer la monnaie, et l'économie au sens large
La loi de Moore, celle de Grosch aussi, nous conduisent à associer dans une même équation des paramètres en général considérés comme étrangers à la science autre qu'économique: la monnaie.
Car, outre qu'une formulation de la loi de Moore est économique par nature, même sa forme la plus technique, en nombre de circuits élémentaires par puce, ne peut s'expliquer que par une analyse des conditions industrielles de leur production, avec un bouclage positif entre l'allongement de séries (loi de Caquiot), l'élargissement des marchés, la possibilité (et la nécessité pour des raisons de concurrence) de pousser la recherche même fondamentale. L'homme ne peut être sorti de cette boucle... tant du moins qu'il reste un des facteurs majeurs de la production, et le seul facteur possible d'innovation.
D'un point de vue strictement formel, remarquons au moins que la monnaie, comme l'information binaire, fonctionne avec un quantum. Qui cependant n'a pas le même degré d'universalité puisque chaque zone monétaire a le sien.
5. Vers une formule générale de la valeur
Appelant une nouvelle géologie et une nouvelle thermodynamique, à partir de modélisations formalisées, l'hypermonde peut aussi nous conduire à une théorie générale de la valeur et même des valeurs.
5.1. L'espérance d'autonomie
La formule de l'entropie permet ici une puissante synthèse, d'autant plus impressionnante que la théorie de l'information rejoint ici la thermodynamique classique dans le concept d'entropie. Même si de bons auteurs mettent en garde contre une trop facile analogie.
"Il y a donc une analogie complète entre densité diacritique et entropie physique du point de vue mathématique, c'est pourquoi Shannon a donné le nom d'entropie à l'expression de H. Il ne s'agit, en fait, que d'une analogie formelle" (Jacques Oswald, Théorie de l'information ou analyse diacritique des systèmes, Masson 1986).
Prenant l'entropie, ou la néguentropie, comme valeur générale pour tout objet et tout système, matériel ou informationnel, nous pouvons tenter d'aller jusqu'à fonder dessus une nouvelle éthique. En posant par exemple que tout système tend à maximiser l'intégrale de son espérance mathématique de néguentropie, nous obtenons ainsi aussi bien un modèle explicatif et normatif à la fois de l'ensemble des comportements.
5.2. Objectivation de l'épistémologie
Notre modèle ouvre aussi la voie à une nouvelle épistémologie, à un nouveau critère du vrai. L'hypermonde s'accomode mal des vieux débats sur le réalisme et la validité en général de notre connaissance du monde. Il s'agit surtout de le construire, ce monde. Et, en particulier, selon la formule donné par Lenoble pour la science (cité par Jean-Louis Le Moigne), d'organiser les apparences, mais aussi les créations, par un système de lois. Et, plus généralement, de "médiations" de bonne qualité. Depuis les théories au sens classique jusqu'aux médias au sens le plus moderne du terme. La connaissance se fait de plus en plus objective, externe par rapport à noter conscience. Son centre se déplace de l'homme vers les médiations, et en pratique vers les machines informatisées.
Cette évolution remonte aux origines de l'humanité. L'homme est non seulement faber, mais faiseur d'outils, en particulier pour s'aider à connaître le monde. Il marque les objets, il représente le monde dans les cavernes, les stèles, les pyramides. Il matérialise le langage par l'écriture. Le texte supplante le sage comme référence du savoir: c'est la Bible. Au moyen-âge, une fois brûlées les bibliothèques de l'antiquité, la cathédrale reprend temporairement le flambeau. Mais Hugo annonce la fin de son rôle ("Ceci tuera cela", chapitre de Notre Dame de Paris, qu'il aurait ajouté après coup, influencé par Hegel). Actuellement le livre, et la presse écrite, sont peu à peu relayés par l'audiovisuel et plus généralement l'informatique. La science, comme le bureau, se fait de plus en plus "sans papier", à coups de calculateurs, de bases de données, de réseaux. Cette montée progressive du support matériel s'accompagne d'une mouvement intellectuel (conceptuel...) plus important encore.
Au départ, l'information matérialisée sur un support n'est considérée que une prothèse, une assitance à l'écriture, une capacité de transmettre la connaissance depuis un auteur jusqu'à des lecteurs. (Cet auteur pouvant être Dieu lui-même, relayé par les rédacteurs des textes sacrés). La conviction naît de l'autorité de l'auteur (deux mots de la même famille...) et, pour l'auditeur, de l'évidence et de la cohérence avec son expérience.
Mais, au fil des temps, l'autorité et l'évidence cèdent le pas à la solidité du texte, de sa structure, de sa méthode: logique du syllogisme, cohérence des "sommes" scolastiques. Peu à peu, le raisonnement mathématique devient le type même de la connaissance solide.
Parallèlement, la connaissance du monde physique compte de moins en moins sur la perspicacité de l'auteur et de plus en plus sur la solidité du montage exéprimental, de sa précision, de sa reproductibilité.En histoire même, Voltaire travaille la méthode (et la pluralité des sources), comme Descartes en philosophie.
Le succès universel des technologies dans les trois derniers siècles valide cette confiance dans les machines à connaître, répondant à la demande de Francis Bacon (préface du Novum Organum): l'esprit, dès le départ ne doit pas pas être laissé à lui-même, mais toujours guidé, comme par une machine.
Ainsi la science devient construction de systèmes cohérents, d'une logique sans faille, et prenant appui soit sur des axiomes, acceptés pour leur évidence, soit sur la cohérence avec la réalité expérimentale.
La philosophie elle-même s'organise en systèmes La cohérence, de forme plus que de fond, de la scolastique, s'approndit. Kant fonde plus solidement la notion de système, en partie sous l'influence de la physique newtonienne. Mais les philosophes rencontrent des difficultés particulières. Pour eux, la
vérification expérimentale est sans objet, sous réserve d'une cohérence avec le bon sens. Et l'évidence des principes premiers se fait de plus en plus aléatoire. Avec Fichte et Hegel (explique Tom Rockmore) la consistance des systèmes finit par l'emporter sur la valeur des fondements. On va vers des systèmes sans fondement. De grandes théries cosmologiques comme l'évolution darwinienne convainquent bien plus par leur cohérence grandiose que par leur solidité expérimentale, contestée encore aujourd'hui.
Les mathématiques se mettent de la partie. Peu importe la vérité de leurs axiomes, d'aileurs fort éloignés de l'évidence comme de l'expérience. C'est laconstruction qui compte.
Après la guerre, sous l'influence de la cybernétique et de la recherche opérationnelle, le modèle va prendre le dessus. Porté par l'ordinateur, lemodèle s'anime. Une part croissance de nos données, de nos modes de raisonnement, de nos savoirs, passent dans la machine. Les syndicats, un temps, se sont émus de ce transfert du "savoir ouvrier" vers kes ribits. Les systèmes experts vont dans le même sens, de même que l'audio-visuel pour l'ensemble des fonds musicaux et maintenant graphiques. La culture même! Pierre Lévy montre, (Idographie dynamique) que la transformation est profonde, et dépasse nos capacités d'imagination.
La connaissance ne peut donc progresser qu'en allègeant sa dépendance par rapport aux humains. Bertalanffy écrit déjà en 1968: "Un système symbolique, un algorithme comme ceux de la physique mathématique, finit par vivre de lui-même. Il devient une machine pensante, et si on lui donne de bonnes instructions, la machine marche seule, fournissant des résultats inattendus qui dépassent les faits apportés initialement".
Cela conduit alors à une "mesure" épistémologique.
Non tout à fait du "vrai", mais de l'utile, du
pertinent, du rentable :
- plus un concept est employé plus il est pertinent et
utile
- plus une loi s'applique à des cas nombreux, plus il est
fiable, valable, utile, bien sûr.
L'objectif deviett alors de perfectionner, d'affiner le modèle. si nécessaire seulemnt, de le changer. f
D'une manière caricaturalement quantitative, un système de lois est d'autant meilleur qu'il rend compte d'une plus grande quantité d'apparences. On peut écrire directement le ratio:
nombre de bits occupés par la théorie/nombre de bits d'apparences organisés par cette théorie.
Avec, pour conséquence pratique, la possibilité quand cela est souhaitable de dégager les bits occupés par la représentation des apparences pour y stocker autre chose de plus intéressant. Et de même, sans doute, pour les processeurs.
Par ailleurs, l'ordinateur peut-il devenir créatif. L'idée nous choque, mais progresse doucement. Des informaticiens comme Michie et Johnston parlent de "L'ordinateur créatif" Un peintre comme Harold Cohen, déjà connu dans les milieux spécialisés, s'oriente vers la création automatique. De toutes façons, l'homme ne peut revendiquer le monopole de la création de nouveauté: la nature, ou Dieu, ne l'a pas attendu pour créer les atomes, les plantes, les animaux... et lui-même. Pourquoi ne continuerait-elle pas?
N'exagérons pas, cependant, les capacités de l'ordinateur ni la vitesse de son développement. Il est encore bien loin de créer des concepts et de construire des théories sans l'aide d'êtres humains. Mais, pour prendre une métaphore biblique, l'homme, mis au monde pour cultiver le jardin, est désormais au service, ou en communauté avec, un arbre de la connaissance dont il n'est ni le maître ni le consommateur exclusif.
5.3. Epistémologie de l'éthique
En matière de morale et d'éthique, bref, de "bien", aussi, le modèle de l'autonomie et de son accroissement apporte facilement des orientations. Mais soulève deux problèmes:
Le premier est de passer d'un principe général descriptif: tout système tend à maximiser son espérence de néguentropie à un principe normatif: je dois maximiser. Pour que cela ait un sens, il faut qu'il y ait une indétermination. Cela est facilement apporté par la richesse extrême des environnements informationnnels. Dans la société de consommation et a fortiori dans l'hypermonde, les contraintes de la substistance sont faibles. Il y a de multiples voies pour croître, et coment le faire?
Le deuxième est de passer d'une exigence individuelle à une morale colective, communautaire.
Est d'autant meilleur un principe qui s'adresse à tous. L'universel appelé par Kant.
Mais de même que la connaissance, la morale, l'éthique... tendent à se matérialiser et à s'externaliser dans des lois, des codes. Que l'on sculpte dans la pierer (stèle d'Hammourabi), qu'on écrit sur des parchemins. Puis que l'on codifie (Napoléon), un mot qui évoque déjà la digitalisation ( la loi, la leettre tue (Paul) , la loi informatique et libertés
5.4. Objectivation de l'esthétique
Le patrimoine culture, la Renaissance
5.5. Ne perdons pas le sens de l'humour
Malgré la puissance possible d'un tel modèle, on se gardera de le prendre trop au sérieux. Comme nous l'avons vu plus haut, il a toutes les chances de perdre d'autant plus de rigueur et de solidité qu'il se voudra étendu. L'hypermonde est un vaste espace qui ne connaîtra jamais complètement ses lois. Mais sa construction stimule notre passion, ravive nos craintes séculaires de l'avenir, et nous laisse plus que jamais face à nos responsabilités.
Bibliographie
ASIMOV Isaac: I, Robot. Doubleday and Cy, 1956.
BERGER Pierre: Mendiant, égoïste et sarcastique, Max,
le robot philosophe. L'ordinateur individuel, avril 1979.
BERGER Pierre: The rise of orgware (structural software, or the
variable geometry organization). Congrès Datenverarbeitung
in Europaïsche Raum. Vienne, mars 1980.
BERGER Pierre: Maintenant l'hypermonde. Inédit, 1989.
BULLA DE VILLARET Hélène: Introduction à
la sémantique générale de Korzybski. Le courrier
du livre, 1973.
CLUB DE L'HYPERMONDE: Manifeste de l'hypermonde. Editions du Club,
1992.
COHEN J.: Les robots humains dans dans le mythe et dans la science.
Vrin, 1968.
CULLMAN Georges: Codage et transmission de l'information. Eyrolles
1968.
ECCLES John C. : Evolution du cerveau et création de la
conscience. Fayard 1992.
GANASCIA Jean: L'âme artificielle. Seuil, 1990 (à
véfifier)
GAUDIN Thierry (sous la direction de), assisté de Jean-François
Dégremont et de Catherine Distler, Gilbert Payan, François
Pharabod: 2100, récit du prochain siècle. Payot
1990.
HAVELKA Georges: Qu'est-ce que la loi de Grosch. Zéro-Un
Informatique mensuel, avril 1969.
HERNNSTEIN Richard J. et MURRAY Charles: The Bell Curve. The Free
Press, New York 1994.
HILTZ Star Roxanne et TUROFF Murray: The Network Nation. Human
communication via Computer. Addison Wesley 1978.
LE MOIGNE Jean-Louis: La théorie du système général.
PUF, 1977.
LEVY Pierre: L'idéographie dynamique. La Découverte,
1991.
LOMBROSO Gina: La rançon du machinisme. Traduction française,
Payot, 1931.
MCCORDUCK Pamela:Aaron's code. Meta-art, artificial intelligence
and the work of Harold Cohen", Freeman 1991.
MARITAIN Jacques: Distinguer pour unir, ou les degrés du
savoir. Desclée de Brouwer, 1932.
MARITAIN Jacques: Art et scolastique. Librairie de l'art catholique
1920.
MICHIE D. et JOHNSRON R. :L'ordinateur créatif" (Traduction
française, Eyrolles 1987).
MORAVEC Hans: Mind children, Harvard University Press, 1988.
NAGEL Ernest, NEWMAN James R., GODEL Kurt et GIRARD Jean-Yves:
Le théorème de Gödel. Seuil 1989.
NORA Simon et MINC Alain: L'informatisation de la société.
La documentation française, 1978.
OSWALD Jacques: Théorie de l'information, ou analyse diacritique
des systèmes. Masson, 1986).
PIAGET Jean (sous la direction de) : Logique et connaissance scientifique.
Encyclopédie de la Pléiade, NRF 1967.
RHEINGOLD Howard: The virtual community. Homesteading on the electronic
frontier. Addison Wesley 1993.
ROCKMORE Tom: Georg Wielhem Friedrich Hegel. Avant/Après.
Criterion, 1992.
SCHUHL Pierre-Maxime: Machinisme et philosophie. PUF, 1947.
SEGURA Jean: Réalités virtuelles, univers de synthèse.
Tech Images, janvier février 1990.
SHANNON et WEAVER W. : Théorie mathématique de
la communication. Réédition, Retz-CEPL, 1975.
SIMONDON Gilbert: Du mode d'existence des objets techniques.
Aubier, 1979.
TURCKLE Sherry: Les enfants de l'ordinateur. Denoel (vers 1986).
Titre anglais: The second self.