Science ou technique ?
L'informatique est-elle une science ou une technique? Il s'agit peut-être d'une question académique. Mais peut-être les points de vue exprimés permettent-ils de donner une réponse.
Une science est une discipline essentiellemnet spéculative: on étudie, on expérimente pour connaître une réalité qui s'impose comme extérieure, comme objective.
Une technique vise à construire quelque chose, en général pour en retirer quelque bien, quelque utilité.
De nos jours, science et technique s'entremêlent de plus ne plus. L'histoire de la science nucléaire reflète de bien près l'histoire des outils que l'on a conçus et réalisés pour explorer l'atome.
Dans les domaines biologiques, les interventions de l'expérimenateur se font de plus en plus profondes. Jean Rostand est-il un savant ou un technicien? On pourrait parfois en douter si ses "créatures", par le perfectionnement de son art, devenaient viables et valables. Mis où classera-t-on le généticien qui met au point de nouvelles espèces de maïs ou de blé? Technicien, certes, mais si près du savant... On va vers un "engineering biologique" où la part du spéculatifs et du technique seront de plus en plus difficiles à dégager l'une de l'autre.
Pour prendre une comparaison informatique, on pourrait dire que le savant fait une consultation pendant que le technicien fait une mise à jour. Mais on réalise finalement, aujourd'hui, des systèmes où les deux notions se combinent dans celle de "transaction".
Plus généralemnet, les relations de l'homme à la nature ne se décomposent plus en une contemplation mystique (ou stoïcienne) et une action profane (ou prométhéenne), au travers d'actes répétitifs. Praxis et noësis se fondent dans des actes uniques.
Dans cette explosion de l'épistémologie, le calculateur joue un rôle exceptionnel: une abstraction efficace.
Dans le concret, autour de ce foyer de convergence du spéculatif et du pratique, les deux approches, atomistique et totlisante, restent distinctes. Nous ne pouvons donc éviter de les étudier séparément, en commençant par l'approche totalisant, parce qu'elle est restée fort sous-développée jusqu'à présent.
L'ORDINOSPHERE
Je n'aime guère ce titre. Je le garde faute de mieux, car il renvoie au vocabulaire de Teilhard de Chardin, qui se reconnaîtrait peut-être un peu dans les paragraphes qui vont suivre.
Recherche des totalités dans l'existence concrète des systèmes. Voilà le plan partons de l'ordinateur lui-même pour nous étendre progressivement aux niveaux successifs de son environnement.
Le hardware
Quelques lois générales ont été dégagées.
La loi de Grosch, par exemple, pose que la puissance de calcul d'une machine croît comme le carré de son coût. On s'est d'ailleurs aperçu que la loi, exacte au niveau du hardware, pouvait être trompeuse en matière de systèmes informatiqeus pris avec leur environnemnet. L'efficacité des équipes de programmeurs ne croît pas comme le carré de leurs effectifs. On a bien au contraire remarqué -ans en faire de statitiques précises- que "jamais un façonnier n'a gagné d'argent avec des matériels plus gros que les 360/40". (Note en 2011: Il semble qu'en fait il se soit agi d'une décision d'IBM pour des raisons purement commerciales, pour encourager l'acquisiion de plus grosses machines, et non d'une loi à caractère technique comme la loi de Moore).
Les travaux de M. Duvergger sur les petits ordinateur peuvent se classer ici. Classification synchronique et étude des filialisations de classes de calculaeurs mériteraient d'être mieux mis en lumière. Cette histoire paraît encore trop jeune, aux informaticiens expérimentés, pour qu'on l'écrive. Les débutants en jugent souvent autrement. D'ailleurs, les racines se prolongent au delà de l'informatique propremnet dite. Nombre de caractéristiques des calculateurs d'aujourd'hui ne peuvent trouver leur explication que dans ces filiations.
Il est vrai que les mécanismes de causalité sont dans une large mesure cachés dans les dossiers des constructeurs. Mais, outre qu'ils sont peut-être disposés à ouvrir certains tiroirs, les approches puremnet externes, purement objectives peuvent être valables. Même aux commerciaux, la technique parfois s'impose.
Dans toutes ces approches, les problèmes de nombres, de temps de coûts (il y avait tant d'ordinateurs de telle valeur, à telle date) sont essentiels. La paléontologie le sait désormais. Pourquoi l'informatique serait-elle en retard?
Le software
Des études semblables pourraient être faites sur le software. Les filiations sont ici peut-être encore plus nettes. On change plus facilemnet de machine que de système d'exploitation. L'histoire est plus courte, cependant, car la nécessité du software n'apparut que longtemps après l'émergence du hardware.
Les racines, d'ailleurs, sont plus diffuses, plongeant autant dans les bureaux du "fonctionnel" que dans le roc relativemnet solide de l'"organique".
Le dialogue homme-machine
Il est légitime d'étudier la botanique indépendamment de sa relation au jardinier. C'est autrement contestable pour l'informatique, artefact par essence.
Bien peu de choses ont été écrites sur l'homme informaticine, hors des éditoriaux humanitaires ou poliiques. (Voir cependant le dossier publié par Informatique et gestion de mai 1971, qui comporte une bibliographie).
Les systèmes informatiques sont conçus et utilisés par des individus. Ils induisent chez eux des réactions: fascination, crainte, attachement affectif.
La psychologie expérimentale qu'il faudrait mettre en oeuvre exige des moyens assez coûteux. Et les psychologues comme les biologistes préfèrent souvent des domaines plus aisés comme le comportement de la mouche drosophile ou de la souris blanche
Il sagit pourtant d'études intéressantes sur le plan même de la psychologie. les recherches d'un Cohen (Les robots humains dans le mythe et dans la science) mériteraient d'être poursuivies.
Mais ces études ne seraient pas inutiles en pratique. On connaît au moins un informaticien suicidaire. La sécurité des sysèmes exige des responsables au psychisme solide. le développement des langages de programmation et des langages d'analyse devrait aussi y faire appel. On disait autrefois que pour apprendre l'anglais à Paul, il fallait d'abord connaître Paul. A fortiori quand il s'agit de concevoir un langage neuf. Algol est sans doute une splendide construction. Ce n'est pas un langage utilisable par les informaticiens.
Les années 50 virent quelques recherches intéressantes sur la gymnastique des "perfos", sur la "perforation au son". tout cela a été oublié. Un constructeur a récemment lancé "la saisie confortable".
Sans doute, une large part de ces études relèvent-elles de l'ergonomie ou de l'organisation des bureaux plus que de l'informatique. Mais, tant par l'aspect architectural de la conception des systèmes que par la dépendance fondamentale des ordinateurs, une partie de ces études, leur aspect formel, les conséquences qu'elles ont sur la structure des machines, elles
figureraient légitimement dans les cadres de l'informatique fondamentale.
L'informatique et la société
Les travaux de Claudine Marenco, de Catherine Ballé et Jean-Louis Peaucelle sont l'oeuvre de sociologues. mais, pour les mêmes raisons que la psychologie, une part de leurs résultats relèvent de l'informatique fondamentale. Notons qu'il est essentiel, pour comprendre, même la structure hardware des systèmes, de savoir que dans l'ensemble les ordainteurs
appartiennent à des corps sociaux et non à des individus: le développement de la multi-programmation, des protections mémoire, des systèmes à terminaux ne s'explique que de cette façon.
Au lieu de reprocher aux constructeurs leur excessif esprit commercial, une approche socio-économique pourrait cerner leur rôle dans le développement de l'informatique.
Mais, ici encore le biologiste, l'informaticien se sent toujours menacé par la "philosophie". Et l'on reconnaîtrait bien des informaticiens dans cette phrse de F. Meyer (Logique et Connaissance scientifique, La Pléïade): "Tout ce que se permet le biologiste, c'est de quitter parfois le terrain de la stricte observation pour se donner au niveau de la vulgarisation ou du discours académique, la détente de quelque théorie personnelle qui ne tarde pas à déboucher sur une profession de foi... bon nombre de biologistes restent sans doute très sensibles à la spécificité de leur champ de recherche... mais sans jamais prendre l'offensive conceptuelle qui paraît s'imposer".
Les oeillères des systématiciens
Outre la hiérarchie de niveaux de globalisation dont nous venons de parcourir les potentialités pour une recherche fondamentale, un autre ensemble théorique devrait être développé: l'évolutionnisme des systèmes en général (ce qui bien sûr dépasse l'informatique) et des systèmes informatiques en particulier.
Les instruments conceptuels d'approche de cet évolutionnisme pourraient être trouvés dans le domaine biologique, et plus généralement, dans le structuralisme piagétien. Mais les théories des systèmes répandues dans les milieux proches de l'informatique sont conçues dans un autre esprit et souffrent, pensons-nous, de limitations qui les rendent inefficaces. Au point que les informaticiens les rangent le plus souvent dans la catégorie du
"baratin". Notons ici deux de ces limitations.
Les théories des systèmes laissent une place insuffisante au temps. Elles sont statiques
Le temps est en général prix en considération dans la seule mesure où il ne met pas en cause la structure du système (cycle et sous-cycles du système).
Cette faiblesse est peut-être dûe pour une part aux modes concrets de représentation: le papier. Tout système intéressant présente un certain niveau de complexité: relations d'appartenance, relations d'ordre, relations, etc. Cela suffit à saturer les possibilités expressives d'une feuille de papier blanc avec ses deux dimensions (1)
--------
(1)Quelques notes sur la représentation sur papier . Il s'agit de représenter dans R2 des structures évoluant dans des espaces présentant un plus grand nombre de dimensions. Il y a donc une certaine perte. On la pallie par toutes sortes de moyens: projections multiples de la descriptive ou du dessin industriel, par exemple.
Mais, de plus, on a toujours des portions assez limitées de R2: la taille de cette feuille de papier (nota 92. la feuille A4 où j'écrivais l'original de ce texte il y a 20 ans). Ou d'un tableau blanc.
De plus, le papier a un grain. On ne peut pas descendre en dessous d'une certaine finesse de trait.
Il faut un minimum de contraste entre les différentes teintes.
La surface est en général orientée. Ce qui peut être une gêne dans certaines applications, bien que ce soit en général une aide. Orientation de haut en bas et de gauche à droite (en particulier, le temps croit toujours en allant vers la droite).
On utiliser un grand nombre de processus de globalisation et de réduction. Une croix, par exemple, sera perçue soit comme exprimant une partition de l'espace, si elle est très grande, soit comme un symbole, soit comme une catégorie de poitns, distingués par le caractère symbolique d'autres points (petits cercles, petits carrés, etc.).
-------
La représentation du temps exigerait une troisième dimension. Perspective, couleur, sont en pratique insuffisantes. Il n'est pas exclu que la visualisation graphique sur écran cathodique facilite la représentation des systèmes évolutifs. Dans l'état actuel des softwares graphiques et du coût des consoles, cela ne peut que rester très limité.
(Note, presque contemporaine. Des travaux de software auraient été réalisés sans aucune feuille ded papier: le concepteur n'aurait utilisé qu'un écran cathodique).
On notera donc quelques éléments d'évolution... mais les phases de mutation se traiteront par passage à la page suivante, sans étude du phénomène transitoire.
Les théories des systèmes répugnent à formaliser les conflits
Conçues dans un esprit aristotélicien et cartésien, ces théories, plus ou moins explicitement, se veulent harmonisatrices. Les conflits seront donc décrits en annexe sous le titre "dysfonctionnements du système". Or toute l'histoire de la vie, de l'homme et de ses artefacts est profondément marquée par les situations conflictuelles. La concurrence commerciale en est la forme la plus civilisée.
En pratique, les informaticiens représentent en général un seul système dans un "environnement" supposé inorganisé et vide. On étudie peu les ensembles et populations de systèmes. Ce serait pourtant une voie intéressante, à ma connaissance inexplorée (note 92: Huberman, jeu de la vie), pour le développement de la sociologie théorique.
Dans le domaine informatique, la construction consciente et volontaire de systèmes mis au service des structurse conflictuelles de l'entreprise serait peut-être plus efficade que les éternelles lamentations sur les "problèmes humains". Au lieu de demander au directeur de la production de sacrifier ses intérêts au bénéfice du MIS maison, pourquoi ne pas lui proposer explicitmnet l'emploi de l'informatique pour renforcer sa position dans ses conflits avec les directeurs financier et commercial... (*2011 : il y a eu un peu de cela dans le concept d'informatique stratégique (Wiseman); mais plus clairement dans les jeux en général, les jeux d'entreprise, les systèmes de simulation pour militaires).
Cette approche permettrait l'étude d'un phénomène important dans le développement de l'informatique, pourquoi marque-t-elle le pas dans les pays de l'Est, malgré les dons certains des mathématiciens russes. Les soviétiques ont fait la théorie de grands systèmes... trop grands pour être viables dns l'état actuel de la technologie. A l'opposé, le monde capitaliste admet implicitement la lutte par la concurrence des entreprises. Il estadmis que cette lutte peut être mortelle. Les systèmes peuvent donc rester plus petits, mieux ramener leur environnemnet à un néant non structuré, ou peu structuré. Et l'informatique a progressé.
Il y a sans doute d'autres raisons. Mais pourquoi se refuser à de telles études, quand elles auront atteint le degré suffisant de rigueur, voire de formalisation, le titre de "fondamentales"?
Ici, le rapprochement avec la "lutte pour la vie" des évoutionnistes pourrait être éclairante.
Note à peu près contemporaine je pense. Cela pourrait changer avec le progrès de la technologie. La taille accessible des ordinateurs change... cependant il ya des oimites théoriqeues, équation du 5e degré...
Information et énergie
(note 92: se traduira par un dossier Informatique et Gestion quelques années plus tard, dossier qui d'ailleurs ne retiendra guère l'attention autant que je me souvienne)
Au delà du temps et des conflits, une omission plus profonde. Encore que peut-être plus clairement volontaire. On consière toujours que l'information n'est pas liée à des phénomènes énergétiques. Les concepteurs de hardware doivent résoudre des "problèmes calorifiques" (dissipation de la chaleur engendrée par le travail des circuits). Mais, comme par symétrie avec les "problèmes humains" de l'informaticien d'entreprise, ces questions sont considérées comme étrangères à l'informatique.
C'est peut-être une étude des relations entre énergie et information que pourraient naître les découvertes les plus fécondes pour un nouveau développement de l'informatique. Elles sont à faire. Tout ce qui est possible est d'indiquer quelques points d'insertion pour cette recherche.
Les démons de Maxwell
C'est peut-être à lui qu'il faut faire remonter la découverte de ce que information et énergie ne sont pas indépendants. Ou plus exactement d'un paradoxe exigeant de considérer le recueil d'une information comme un processus physique mettant en jeu de l'énergie. Des auteurs comme Brillouin ont ensuite approfondi la question et noté qu'information et énergie s'exprimaient par des formes mathématiques semblables, au signe près
Somme pi log pi
Mais il ne semble pas que l'on en ait tiré beaucoup de conséquences, sauf peut-être dans le domaine biologique (Prigogine).
Des ordres de grandeur très différents mais...
La séparation information-énergie est dans l'ensemble rendue légitime par la très grande disproportion entre les deux domaines: l'énergie consommée pour piloter un four électrique est négligeable par rapport à celle mise en jeu pour le chauffage.
Cependant, avec l'inflation du tertiaire et, parallèlemnet, le développement de grands automatismes, les ordres de grandeur pourraient se rapprocher. Et, de même que l'on pouvait considérer autrefois la géométride de l'univers concret comme euclidienne et la vitesse de la lumière comme infinie, il faut maintenant cerner de plus près le réel, de même, l'apparition de gigantesques systèmes de calcul obligera à y regarder de plus près. (*2011! Google consomma des milliers de mégawatts, je crois).
Notons tout de même que le progrès est passé par une dissociation de l'acte au geste symbolique, du geste à la parole, du courrier par porteur à la lettre, au télégraphe, aux ondes hertziennes. Entrons-nous dans une nouvelle phase?
La porte et la boucle
Quand on présente la théorie des automates, ou les rudiments du hardware informatique, on utilise des représentations de fonctions logiques. Par exemple une "porte" ET:
-------->
(inter) --------->
-------->
Dans ce cas, l'on ne voit pas ce qu'une étude énergétique pourrait apporter. Certes, il faut bien que cela fonctionne. Il y aura une petite perte. Mais l'impulsion d'entrée est porteuse d'une énergie suffisante. Tant que le nombre de prtes mis en jeu est faible, on peut considérer que l'on a affaire à de purs "transducteurs" passifs, pouvant sans inconvénient être réduis àleurs fonctions logiques.
Mais il ne suffit pas de telles portes pour construire unautomate. Il est important d'introduire des fonctions comme une mémoire, une constante, etc. On sera conduit à introduire des schémas du type
(porte union avec rebouclage sortie sur l'entrée)
Cette porte, dès qu'elle aura reçu une impulsion 2, continuer d'émettre des 1.
Mais un tel dispositif oblige à faire intervenir la notion de cycle (avec la temporalité), sans quoi le fonctionnement est incompréhensible. Et surtout, sur le plan énergétique, il est fondamentalemnet différent du précédnet. En effet, pour conserver sa fonction logique, cette porte doit émettre indéfiniment des 2 une fois reçu le premier 2. Si celui-ci était porteur d'énergie, celle-ci sera progressivement consommée. La logique impose donc de supposer qu'il existe un apport d'énergie permettant à l'émission de se poursuivre.
Cet apport d'énergie n'est pas, en général, noté. Il paraît pourtant essentiel à une théorie complète des automates.
Le dispositif choisi est particulièrement probant, parce qu'il fait intervenir directement l'infini. Mais, dès qu ele nombre de portes est grand, les problèmes énergétiques se posent. La dégradation de l'information par le bruit rejoignant les pertes d'énergie. En tous cas, si l'on perd parfois de l'information, du moins dans le cas des automates, on n'en gagne jamais.
Transmission d'information sur une ligne. Toute transmission exige un courant porteur, une fréquence porteuse, dont l'entretien est nécessaire à la transmission. Il existe des relations assez complexes entre la quantité d'information transmise et l'énergie consommée.
Intuitivement, on admettra qu'il doit exister, pour une ligne donnée, un optimum. En dessous de celui-ci, l'énergie est trop faible et, par exemple, ne permet pas de distinguer les paramètres induits sur la ligne par d'autres sources d'énergie. Au dessus, c'est la ligne elle-même qui peut émettre des parasites et, à la limite, être détruite par un courant trop puissant. L'avantage de ce point est qu'il se prête à l'expérimentation et à la mesure précise. Les travaux de base existent sans doute, car la transmission de données a conduit à s'y intéresser. Il suffirait peut-être d'en tirer les conséquences.
Echanges énergie-information dans le domaine biologique. Je ne sais si la question a été clairement étudiée sous cet angle. Mais de nombreux exemples pourraient sans doute être trouvés; ici, l'on transforme souvent l'énergie en information: photosynthèse, échanges au niveau des membranes, etc.
Le théorème de Prigogine (exposé par Science et Avenir, juillet 1966), très schématiquement pose "qu'un système ouvert est en évolution constante et que cette évolution se fit dans le sens d'une moindre dégradation de l'énergie; si l'on interprète ce résultat, cela signifie que son rendement s'accroît sans cesse et que ses structures deviennent de plus en plus complexes et de
plus en plus fonctionnelles". Si l'on rappelle que, dans ce contexte, un système ouvert est celui qui échange énergie et matière avec son environnement, l'interaction énergie/information devient tout à fait évidente et importante pour la compréhension de tous les systèmes, qu'ils soient informatiques ou biologiques.
Au niveau nucléaire, le défaut de masse introduit très suggestivement la relation; fait intéressant, et que l'on retrouverait souvent dans ces relations, le défaut est maximal pour une complexité "moyenne", correspondant un nombre de masse de l'ordre de 70. On trouverait sans doute nombre de points où cette relation est fortement marquée.
Mais ce sont certainement les relations d'incertitude de Heisenberg qui posent le problème de la manière la plus cruciale. Cruciale parce que désagréable pour notre entendemnet. Mais c'est peut-être précisément de là qu'il faut partir pour construire à nouveau. De même que le renouvellement des théories physiques est devenu posible à partir du moment où l'on a pris comem élément de départ le fait que la vitesse de la lumière représentait une valeur absolue, une limite infranchissable.
Le défaut de masse, en effet, ne fait apparaître l'information que sous la forme de complexités de structure. Et il n'existe guère, actuellement, de théorie de la complexité qui permettent de la rattacher aisément et sans contexte à l'information.
Il en va autrement des relations d'incertidute, dont il y a lieu de rappeler l'essentiel.
Les relations d'incertitude de Heisenberg introduisen au coeur de la théorie atomique un aiguillon douloureux d'incertitude. Elle peut s'écrire sous diverses formes. On a par exemple (d'après Max Born, structure atomique de la matière. Armand Colin 1971):
Delta x Delta p tildé h
signifiant que le fait de définir la position d'un électron avec une incertitude possible Delta x a pour conséquence que la particule acquiert dans la direction parallèle à la fente une quantité de mouvement de l'ordre de grandeur h sur Delta x... h représente une limite absolue pour la mesure simultanée de la position et de la quantité de mouvement. Plus on aura d'information sur un paramètre, moins on en aura sur l'autre. Rien ne permet d'ailleurs d'échanger information contre énergie, même sous une forme de la relation:
DeltaE x Delta t tildé h
où E représente l'énergie et t le temps. Mais on se rapproche d'une telle idée, et d'autant plus que h se définit par la formule:
E = h nu
où E est l'énergie d'un corpuscule, c'est à dire un quantum d'énergie.
Dans le cas de la lumière, en particulier, E est l'énergie d'un photon. Mais on sait que la quantité d'informtaion que l'on peut transmettre sur une ligne est égale, en bits/seconde, à deux fois la fréquence de la proteuse. Si cette équivalence était maintnue, la constante de Planck relierait directement et très simplemnet l'énergie à la quantité d'information maximale transmissible par un rayonnement donné. Les choses sont sans doute plus complexes que cela...
La théorie de la relativité elle-même, autant qu'une théorie de la matière, peut être présentée comme une théorie épistémologique. Ce n'est sans doute pas par hasard que l' "observateur" y joue un si grand rôle. Et ses changements de systèmes d'axes peuvent se présenter comme le problème d'échange dinformation entre deux systèmes d'information distincts. A la limite, toute la théorie de la relativité pourrait être considérée comme un chapitre de l'informatique théorique. Et pourrait lui donner une solidité et un sens du concret qui lui manquent, de même que la cohérence.
La relativité présente d'ailleurs quelques avantages sur l'informtaique théorique telle qu'elle nous est présentée. En effet:
- les objets étudiés par le physicien sont sans doute abstraits, mais constamment rattachés au monde concret par une expérimentatino d'une ampleur unique; cependant, l'objet même se dérobe, au point de poser au physicien des problèmes s émantiques: que représentent finalement ses belles théories?
- le sujet, tout en restant théorique, n'est pas purement implicite comma dans les études informatiques sur les langages; de ce point de vue, les systèmes d'axes peuvent êre représentés comme des modèles très simplifiés de sujets échangeant des descriptions de l'univers.
Cependant, ayant admis que la communication entre deux observateurs ne peut jamais être instantanée, ces théories continuent d'admettre implicitement qu'elle peut être aussi précise que l'on veut. La vitesse est limitée, non le débit d'information. Il y a là une voie de recherche qui pourrait être fructueuse. En partant du niveau corpusculaire (débit informationnel d'un "rayon") on pourrait s'élever à des niveaux de complexité progressive (échangse d'information entre molécules de plus en plus grosses, cellules, organismes, corps sociaux).
Les ensembles flous sont un exemple de notion gâchée par une approche non énergétique. En se donnant des ensembles flous une idée aussi nette, Zadeh tue l'intérêt d'une notion qui pourrait être utile. Rappelons qu'il postule, en gros, que si un ensemble au sens habituel se définit par une relations d'appartenance x élément de E, qui est vraie ou fausse, un ensemble flou est clui pour lequel l'appartenance se mesure: x appartient plus ou moins à E, la valeur d'appartenance variant continûment (ou "prenant des valeurs dans n'importe quel ensemble ordonné) de 0 à 1.
Cette définition est choquante: elle contraint à se donner d'un ensemble flou une notion plus complexe que celle d'ensemble simple. Au demeurant, les applications en informatique semblent limitées. Certes, les opérations classiques de l'algèbre des ensembles peuvent s'appliquer aux ensembles flous. Mais comme, de toutes façons, l'appartenance à un fichier ne peut être que binaire (l'article figure ou ne figure pas dans la pile de disques concernée), les ensembles flous ne peuvent être que des ensembles découpés, suivant les besoins, en fonction d'une valeur affectée aux articles. Il s'agit d'une sélection avec seuil. On n'avait pas attendu M. Zadeh. (Cependant, il est vraisemblable que, dans certains cas, la définition choisie permette des présentations simples de certaines questions).
Je pense, au contraire, que les véritables ensembles flous ne se prêtent pas à la définition, en chaque point, d'une fonction d'appartenance.
Les ensembles flous, et cette approche rendra bien mieux la richesse de l'intuition du sens commun, sont ceux sur les quels pèsent des relations d'incerditude, telles qu'on ne peut les lever sans perdre de l'information sur d'autres plans. On pourra préciser l'appartenance à l'ensemble, mais en perdant de l'information contenue dans l'élément. Je ne peux adhérer à un
groupe polituqe, religieux ou conjugal, qu'en sacrifiant quelque chose de ma liberté, de mon autonoime, de ma définition, de ma nature.
Information et argent
Si les relations entre l'énergie et l'information n'ont guère été élucidées jusqu'à présent, malgré l'abandon des germes d'où une recherche aurait pu partir, c'est peut-être parce qu'il y faut faire intervenir un médiateur. Et le dernier auquel des scientifiques pourraient penser: l'argent, qu'on l'appelle franc lourd, livre flottante, dollar ou lingot d'or.
Scandale? Introduire Mammon au sein du désintéressement de la recherche fondamentale! Pourtant, là encore, les points d'ancrage ne manquent pas.
Avec de l'argent, on peut acheter de l'information aussi bien que de l'énergie. Avec un chèque, vous pouvez obtenir de l'essence, de l'électricité, de la lumière pour y voir clair, de la chaleur pour votre foyer, de quoi vous réchauffer le moral avec un bon déjeuner, l'huile de coude d'une femme de ménage, ou l'énergie revigorante de votre médecin.
Avec de l'argent, vous pouvez recevoir la télévision, un extrait de registre du commerce, un journal froid ou dynamique selon votre goût, ou des informations réconfortantes sur votre santé.
Bref, on pourrait comparer les prix: 10**6 bits d'information pour 0,50 F, 100 chevaux.heure pour 2 F, donc un bit = O,5 10**-4 cheval heure.
(Note. Par exemple, un quotidien de 16 pages , chacune de 10 000 caractères de 6 bits par page.
100 km heure, soit une heure de marche d'une voiture de 100
Cv réels consommant dix litres an cent).
Jeu d'enfants? Bien sûr. A ce régime, on peut établir qu'un choiu vaut 4 carottes, etc.
Ce ne serait qu'un jeu d'enfants, si d'autres voies ne montraient, chaque jour plus nettemnet, l'interaction plus profonde de l'argent, de l'énergie et de l'informtaion.
Les circuits intégrés digital/analogique d'Alsthom sont l'exemple d'une recherche sur le traitement de l'information. Ici, la transformation de signaux digçitaux en tensions analogiques, et réciproquement, qui n'a de valeur que si elle se rèvèle plus économique que les solutions classiques.
En effet, sur le plan conceptuel, la méthode choisie (Le Monde du 24/5/72) est plus complexe que les méthodes traditionnelles, car l'on passe par une étape supplémentaire: la génération de tensions aléatoires. Si la méthode n'est pas économique, elle présente aussi peu d'intérêt qu el'étude de n'importe quel cheminemnet farfelu imaginable pour passer du digital à l'analogique. Si elle est économique, elle prouve que les économies de concepts ne sont pas nécessairement des économies énergétiques et... économiques. Une mesure est peut-être possible.
Ce passage par le probabiliste et l'aléatoire est instructif, puisque l'on retrouve ainsi le coeur de la relations formelle énergie/information (Sigma de pi log de i).
Banques de données et abus de pouvoir. Ce problème d'actualité a quelques difficultés à trouver des solutions conceptuelles satisfaisntes. On peut faire apparaître des couples dé désirs contradictoires:
- l'Etat doit faire respecter le secret de la vie privée, mais il doit largement informer le citoyen de ce qu'il fait;
- l'Etat doit cloisonner l'information pour éviter des tranfserts illicites, mais il ne peut accroître son efficacité et la qualité des services qu'il rend qu'en pratiquant la gestion intégrée (saisie unique des faits fondamentaux, réduction du nombre de fichiers faisant double emploi);
- le citoyen doit être protégé contre des interdictions tatiques excessivement répressives voire dictatoriales, mais il aussi être protégé contre les agissements dangereux de ses concitoyens "déviants"; seule une efficacité nouvelle des "forces de l'ordre" permettra de donner satisfaction à un voeu profond et de plus en plus répandu: la suppression des prisons et des asiles
d'aliénés, dont le caractère inhumain est de plus en plus ressenti.
Il s'agit ici de trouver des équilibres. Et d'autant plus que les solutions parfaites, les garanties absolues, sont impossibles. La seule protection absolue contre les déviants serait de les supprimer dès qu'ils se manifestent. D'ailleurs, c'est déjà trop tard... on voit où cela mène.
Il faut donc rechercher des optimums. Cela ne peut se faire qu'en se donnant des échelles de mesure. Liberté du citoyen et efficacité de l'Etat doivent pouvoir se mesurer dans la même unité.
Il est intuitivement assez clair que cette unité aura un caractère probabiliste. Et que l'appel aux unités monétaires, ou à des unités de type monétaire, apparaîtra souhaibable. Déjà, dans certains cas, de tels arbitrages sont classiques, comme la liberté sous caution. D'autres exemples ne manquerient pas.
Quelques points communs
(2015. ce passage est-il bien placé ?)
Information, énergie, argent, mesurent des échanges. La théorie de l'information de shannon est une théorie de la communication. Les principes de Carnot traitent de machines thermiques échangeant diverses formes d'énergie. C'est dans second temps seulemnet, quant à la connaissance que nous en avons, que ces valeurs se stockent: banques de données, stockage
chimique ou nucléaire.
Ces échanges ont tous gagné en efficacité en se distinguant progressivement de leurs supports matériels. L'information sur tables de pierre, tablettes d'argile, papier, ondes; véhiculées par porteur, poste, télégraphe, TSF. L'argent, troc, puis or, puis papier, puis ondes entre calculateurs et terminaux.
L'énergie hydraulique, chargon, pétrole, puis courant sur lignes haute tension (d'ailleurs alternative, ce qui la rapproche, peut être pas purement symboliquemnt, de la transmission de données).
Ces échanges conduisent tous, progressivement, à la constitution de réserves. C'est sans doute pour l'argent que la constatation est la plus évidente. Et l'avare comptant des ous est une des faces essentielles du système monétaire, avec les réserves d'or des grandes banques. Images de stocks s'opposant aux images de flux (Note 92: la fin d'Eugénie Grandet, avec le Père changeant son or pour des rentes).
Le fait est chaque jour plus patent pour l'information et le terme de "banques de données" est on ne peut plus évocateur. Mais soulignons que l'on n'a pas attendu l'ordinateur: les premières banques de données ont été les bibliothèques. Et, avant elles, les tables de la loi: solennels embryons de banques, gravés sur la pierre dure du code d'Hammourabi, ou mystérieusemnet cachées dans l'arche d'alliance. Avant, ou simultanément, d'être des hommes de l'argent, les juifs ont été des hommes du livre ("Bible" veut dire "livre" (ou "les livres)).
Quant à l'énergie, son stockage pose beaucoup de difficultés. C'est un vieux rêve que de garder la chaleur de l'été pour la retrouver en hiver. On a tout de même su faire des réserves: barrages hydro-électriques, bois. Et l'on a trouvé et recensé les réserves naturelles: tourbe, charbon, pétrole; et l'atome sous une autre dimension. Avant cela, on peut considérer que les réserves alimentaires, internes dans la bosse du chameau ou le ventre du riche, puis externes avec les greniers, la viande boucanée, etc. Là encore, la tradition juive est fort parlante: Joseph fait la conquête de Pharaon en lui conseillant de faire des réserves de blé.
Le souci actuel de rentabiliser l'informatique n'est peut être pas seulemnetp une contrainte externe, imposée aux informaticiens dans le cadre d'une conjoncture moins aisée qu'à d'autres moments. En effet, l'introduction de l'ordinateur a été l'un des moyens de rechercher la rentabilité de l'entreprise. Et c'est précisément parce que les utilisateurs ont appris, grâce à l'ordinateur, à meux gérer leurs moyens qu'ils ont clairement perçu le coût de l'informatique.
Au delà de quelques économies, la gestion des moyens de gestion est un intéressant phénomène de bouclage. Une réflexion approfondie sur le coût de l'informatique est difficile. Dans sa montée vers le plus grand cerveau, le phylum peut il réfléchir au niveau d'un individu... la méditation pourrait être fructueuse, au delà de l'efficacité du bon sens et de l'honêteté qui sont, bien sûr, les atouts essentiels de la rentabilité à un niveau de conscience donné.
Quelques points communs
Information, énergie, argent, mesurent des échanges. La théorie de l'information de shannon est une théorie de la communication. Les principes de Carnot traitent de machines thermiques échangeant diverses formes d'énergie. C'est dans second temps seulemnet, quant à la connaissance que nous ena vons, que ces valeurs se stockent: banques de données, stockage
chimique ou nucléaire.
Ces échanges ont tous gagné en efficacité en se distinguant progressivement de leurs supports matériels. L'information sur tables de pierre, tablettes d'argile, papier, ondes; véhiculées par porteur, poste, télégraphe, TSF. L'argent, troc, puis or, puis papier, puis ondes entre calculateurs et terminaux. L'énergie hydraulique, chargon, pétrole, puis courant sur lignes haute tension (d'ailleurs alternative, ce qui la rapporche, peut être pas purement symboliquemnt, de la transmission de données).
Ces échanges conduisent tous, progressivemnet, à la constitution de réserves. C'est sans doute pour l'argent que la constatation est la plus évidente. Et l'avare comptant des ous est une des faces essentielles du système monétaire, avec les réserves d'or des grandes banques. Images de stocks s'opposant aux images de flux (Note 92: la fin d'Eugénie Grandet, avec le Père changeant son or pour des rentes).
Le fait est chaque jour plus patent pour l'information et le terme de "banques de données" est on ne peut plus évocateur. Mais soulignons que l'on n'a pas attendu l'ordinateur: les premières banqeus de données ont été les bibliothèques. Et, avant elles, les tables de la loi: solennels embryons de banques, gravés sur la pierre dure du code d'Hammourabi, ou mystérieusemnet cachées dans l'arche d'alliance. Avant, ou simultanément, d'être des hommes de l'argent, les juifs ont été des hommes du livre ("Bible" veut dire "livre" (ou "les livres)).
Quant à l'énergie, son stockage pose beaucoup de difficultés. C'est un vieux rêve que de garder la chaleur de l'été pour la retrouver en hiver. On a tout de même su faire des réserves: barrages hydro-électriques, bois. Et l'on a trouvé et recenser les réserves naturelles: tourbe, charbon, pétrole; et l'atome sous une autre dimension. Avant cela, on peut considérer que les réserves alimentaires, internes dans la bosse du chameau ou le ventre du riche, puis externes avec les greniers, la viande boucanées, etc. Là encore, la traduction juive est fort parlante: Joseph fait la conquête de Pharaon en lui conseillant de faire des réserves de blé.
Le souci actuel de rentabiliser l'informatique n'est peut être pas seulemnetp une contrainte externe, imposée aux informaticiens dans le cadre d'une conjoncture moins aisée qu'à d'autres moments. En effet, l'introduction de l'ordinateur a été l'un des moyens de rechercher la rentabilité de l'entreprise. Et c'est précisément parce que les utilisateurs ont appris, grâce à l'ordinateur, à meux gérer leurs moyens qu'ils ont clairement perçu le coût de l'informatique.
Au delà de quelques économies, la gestion des moyens de gestion est un intéressant phénomène de bouclage. Une réflexion approfondie sur le coût de l'informatique est difficile. Dans sa montée vers le plus grand cerveau, le phylum peut il réfléchir au niveau d'un individu... la méditation pourrait être fructueuse, au delà de l'efficacité du bon sens et de l'honêteté qui sont, bien sûr, les atouts essentiels de la rentabilité à un niveau de conscience donné.