Divers sur épistémologie quantitative

Message is massage parce qu'avec la montée de l'information, la plupart des décisions sont incorporées dans des messages.

niveaux: bits de poids faible

raccorder avec le modèle en L

le niveau 4 serait alors au centre de la vision

la montée vers les hauts niveaux correspond à un déplacemnet "à gauche", vers les invariants, le constant, dieu immuable

la descente vers les niveaux bas se perd dans l'aléaoire

le progrès de la machine se traduit notamment par le nombre de bits que l'on peut conserver en zone centrale

ou si l'on préfère,

avec rationalité limitée

le nombre de bits effectviement vus restent constants

ou le nombre de pixels

mais grace au bouclage, aux automates, au chunking

le travail sur les pixels visibles se traduit (gain) par un travail beaucoup pous important sur ce qu'il y a en dessous

nécessité d'une thermodynamique

bcp de pb ds HM vont se poser sous la forme de régulations

-température de médias

-distanciation

-taux de zap/stabilité

-taux d'ouvertur/concentratino

-répartition de moyens

-conception de systèmes

Diagonaliser

Appliquer le quantitatif à l'EQ ele-même. Longueur de cette théorie (la brièveté est souvent considérée comme un facteur de crédibilité). Rendement d'une science, d'une épistémologie.

remarques sur la démonstration (Warusfel, Desreumeaux)

on passe d'éléments logiques

à niveaux élevés

pourrait-on fair des AGL pour matheux?

Montée du 3D après le graphique

le 3D nous ramène à la réalité non-symbolique

le texte ést comme l'extrême

un très bas niveau énergétique aussi

chuchotement/ très petits mouvements de la plule sur le papier, des doigts su le clavier

en retrouvant le geste, l'inuitif, on va retrouver de l'énergétique, de l'analogique

même si c'est analogique surtout avec notre psychisme

mais il est vrai que, dans l'informatique de 1991, il y a quelque chose d'oppressant par la dominance du textuel

cela dit, n'exagrons pas l'effacité du "petit croquis qui vaut un long discours". s'il est trop simple, il ne dit pas grand chose. s'il est compliqué,

il exige de grands efforts

dans le 3D, re-passage dans la -urgie à partir de la -logie...

mais les écarts seront d'autant plus dangereux, l'écart, le gain entre le petit geste et les mofifications considérables de l'hypermonde observé.

peut certainemnet être dangereux

"L'opérativité symbolique est constitutive de la "textualité" même de la liturgie" (Chauvet).

Convergences:

humain mécanisé/robot et machine humanisés

symboles vers objets informatiques actifs, autonomes, à support matériel/

objets passifs montant vers l'autonomie et la prise en compte de la signification

Avec le schéma de Jakobson

et inspiration des langages performatifs

émetteur/récepteur/référentiel,

on peut mesurer des ressemblances:

- entre signe et référentiel. analogique/digital indice zéro si purement digital, Un si image hifi).

ensuite, distinguer des niveaux en se référant à mon schéma

-entre émetteur et signe. zéro si le signe est parfaitemnt objectif, un si le signe est un pru cri, à la limite sans référence

-entre émetteur et signifié

-entre émetteur et récepteur: consonance/dissonance cognitive

-entre récepteur et signe.

Ces mesures, leur utilité, leur importance, vont changer quand le signe s'enrichit.

Un simple bit n'a de ressemblance avec rien. Ou peut être totalement analogique (un point blanc si le rférentiel est blanc, noir dans le cas contraire)

Quant l'objet comporte un grand nombre de bits, les différents types de ressemblance vont commencer à avoir de l'importance.

Méthodes. Il est tout à fait anormal qu'on ne parle pas plus de chiffres, de mesure. Un Système expert, ou plutôt le type même de système expert. a une limite de validité. A 10 ou 20 règles, un pg fait mieux. A 10 000 règles, c'est ingérable. IL y a un evalidité autour de 100 à 500 règles. Cependant,

Desreumaux dit qu'on peut avoir un méta-système expert pour valider la cohérence des règles.

Id en méthode. Des km de papier méthode dans les caves de la BNP sont inexploitables.

Et c'est pour cela que le passge du papier à l'électronique a de l'importance.

R...

Il serait aussi très intéressant de voir comment les applications, certaines applications, ont évolué au fil du temps avec la montée en puissance des machines.

Comparer une facturation du tps des CP à une facturation aujourd'hui. Comment s'absorbe la puissance: sécurité, confort, rapidité-temps réel, etc.

souvent la mesure s'exprime par une fenêtre, un intervalle.

éviter le mot de complexité qui déclanche

carrément parler de masse

Relation entre finalité et complexité

programme: finalité connue

nature: finalité inconnue

(début des analyses de Atlan)

Quel est le nombre le plus irrationnel.

- si irrationnel, nombre de chiffre après la virgule illimité, et non périodique alors

-recherche de semi-périodes

-longueur de la description finie à partir d'entiers (ainsi, le rationnel est déjà un peu plus compliqué que l'entier, puisqu'il faut deux entiers, et plus les deux entiers minimaux (par réduction des facteurs communs) sont longs, plus il y a complexité du rationnel. On pourrait d'ailleurs chercher la relation entre cette longueur (la somme des deux longueurs, par exemple), et la longueur de la période.

pour bien généraliser, il faudrait définir un langage formel général permettant de les exprimer. Or probablement, pour tout langage fini, on doit toujours pouvoir trouver un nouvel irrationnel non définissable

dans ce langage.

Problème épistémologique/Métaphysique de base

c'est quand on passe à la limite. de quelques uns à "tous", de quelquefois à "toujours". l'induction.

le mythe, aussi, le passage à l'immémorial. sur ce point, l'histoire fondamentalemnet réaliste: telle tradition a été fondée à telle date.

le sacré

...

...

le principe même d'une épistémologie quantitative conduit à l'externaliser:

mesurer, c'est s'en remettre à un instrument ou au moins à une méthode de mesure

de toutes façons, la mesure suppose une externalisation

- en pratique du fait de la faible reproductibilité de nos sensations, ou faible précision

- en théorie, puisqu'il faut définir une unité et s'y référer. Au départ, les unités sont définies à partir du corps: pouce, pied, coudée, mille (de pas)

puis par rapport à quelque chose de "naturel", quoique déjo volontairement abstrait : le mètre prend toute sa valeur parce qu'il y a le système métrique

puis par rapport à la reproductibilité/Précision: nouvelle définition du mètre

parallèlement, évolution de l"étalon

pour le temps, on n'a pas changé de système, toujours la seconde avec ses sous-multiples et minute/jour/an (et mutliples)

ici, c'est l'horloge même qui évolue

mais aussi: temps local, temps universel

Fondement. Les scolastiques construisent un modèle dur du discours, sans référence à l'expérience. Mais pas non plus assez solidement pour construire une informatique. Il me semble que Spinoza essayera. Comme le dit xx sur Kant, ce sont les résultats qui convainquent autant que les fondements choisis. Les axiomes sont souvent très difficiles à comprendre et d'un intérêt limité.

Ce qui compte c'est qu'ensuite ils donnent une bonne "interprétation", "explication" de nos connaissances courantes.

Une sorte de "compatibilité up"

Les évidences ne sont pas premières, mais médianes. Elles ne sont pas au fondement, mais dans la vie courante. C'est de là que l'on remonte vers les origines et vers les fins.

La vérité d'une théorie, d'un système, d'une axiomatique, n'est alors plus que sa masse (pondérée par facteurs de cohérence). Mais aussi tout de même sa coincidence avec l'expérience courante. Ou son sens (en mon sens à moi)

L'expérimentation est une extension de l'objet "théorie" vers le concret. La grande force de la science expérimentale, c'est sa double cohérence: logique et avec l'expérience

Le non-réductionnisme est l'impossibilité de tout fédérer en un seul système logique à intraction forte. Gödel

Kant. Philosophie sans fondement. Moi: allors jusqu'à fonder hors le cerveu, contre la phénoménologie.

Au départ, le philosophe parle, puis fait des signes dans le sable. Le philosophe religieux inscrit déjà la philosophie dans des signes. Dans l'architecture

Puis, objectivation: l'écriture, le traité,

Puis formalisation, allongement, la somme, le système, l'organon, l'encyclopédie

Puis le programme, vie autonome, micro-stratégies.

Hegel se passe de fondement. mais il continue de penser la philosophie comme phénoménologie, comme étude de ce qui se passe dans l'esprit. Il ne construit pas encore la machine philosophique en dehors d'elle (ce que les scolstiques, ou peut être Bacon, avaient commencé à faire). Et qui conduit à tout analyser sous l'angle de la personne.

Un avantage de séparer sens de humain, c'st qu'on peut redescendre vers des modélisations élémentaires. (la porte). Le sens prend des sens différents selon le niveau de système. On voit bien alors que définir l'humain par le sens est une tautologie

L'introduction de l'Esprit pose autant de questions qu'il en résout. Mieux vaut s'en passer.

La conscience n'est peut-être pas aussi importante qu'on l'a dit/pensé.

On peut tout simplemnet poser que

vérité = masse (de la théorie, mais aussi de l'objet)

irait assez bien avec une fusion quantitative des transcendantaux

(- la masse est au niveau 4... ou au niveau 1. Ou bien: les éléments de la masse sont au niveau 2, la mesure même de la masse, conceptuellement est au 4...)

alors, la philosphie se caractérise par:

- aux frontières, proche de l'effritement, quand on monte vers le métaphysique

- emploie beaucoup de liens flous

Fondement. Si la philosophie renonce au fondement, au profit du système, en quoi diffère-t-elle des mathématiques? Seule compte la construction. La différence viendrait de l'dahésion, de la décision volontaire? Je décide de ce qui est réel, évident?

En mathématique, satisfaction évidente de la puissance, de l'élégance aussi. Et volonté bourbakienne de synthèse. Qu'importe Gödel, dans un premier temps. La cathédrale se construit, se précise au fil des siècles. Avec des moments phares comme la démonstration du théorème de Fermat en 1993. Dit Marcel, ce n'est pas la clé de voûte, c'est un lieu intéressant mais ce n'est pas le seul ni même le plus intéressant.

Conscience. Il faut qu'un sujet perçoive une différence, entre un modèle et un réel, et l'assume comme telle, tente de l'unifier, essaye de la combler. Ou simplement réagit à cette différence: tente de la comber, le désir, l'action. Dès le biologique. Tout début "d'action" évoque un début de conscience... régulations.

Quantitativement, il faut au moins suffisamment pourqu'il y ait, sur un même plan, un volet observation et un volet construction et prolongement. Plus des capacités d'action. Chiffrer tout cela.

... EPISTEMOLOGIE. PATTERNS

Sur Thom, et sur "maths science des patterns"

Sur tout cela il faudrait commencer à être sérieux.

Ce qui n'est pas la cas de Thom: son schéma commence par être ternaire, puis s'organise en deux oppositions, qui deviennent ensuite des dimensions pour un espace où on peut donc dresser un carte.

Or ce sont justement des "paatterns" qu'il faudrait manie autrement que sur le mode poétique, sinon on tombe dans l'insignifiance.

Une des grandes forces des maths a été de savoir associer deux types bien différents de patterns:

- les formes au sens visuel, la "géométrie", avec l'évidence intuitive de l'espace, des déplacements, etc.

- les formes du langage, avec la rigueur de la syntaxe et du syllogisme, donc la garantie apportée par l'automatisme du déroulement du discours (velut machinas, dit Bacon).

L'informatique d'aujourd'hui, celle du Macintosh, apporte ici encore quelque chose de radicalment nouveau, y compris pour les mathématiciens: l'association

- des patterns visuels et textuels (écran), avec un complément gestuel (souris, et demain glove);

- la rigueur des automatismes accomplis par le (micro)processeur.

...

Warusfel

on ne démontre jamais

c'est le lecteur qui fait la cohérence

...

Un programme a un chargement matériel beaucoup plus faible qu'un circuit électronique. Cependant, l'écart tend à se réduire puisque l'évolution technologique fait baisser la masse des circuits; d'où tout naturellement, sur la frontière devenue moins nette, la naissance du firmware, de la microprogrammation, etc.

Une méthode est plus formelle, moins émotivement chargée qu'une habitude.

Un organe est plus matériellement chargé qu'une fonction.

Une théorie, bien qu'associant plusieurs concepts, s'efforce de formaliser ceux-ci et par conséquent réduit leur chargement, au point que la charge de

chacun d'eux peut totalement disparaître au profit de la charge globale d'une axiomatique. Il y a donc probablement perte de charge dans l'additino, et c'est

ici normal, puisque l'on se rapproche de l'information parfaite.

54. Les processus de formalisation, de perfectionnement de l'information, passent souvent par une phase réductionniste qui déforme la réalité; la ramenant à des schémas simplistes. Mais, au delà d'un certain degré, on rejoint puis on dépasse la précision et la qualité des techniques d'origine.

Par exemple, la digitalisation d'une photographie avec un gros grain est évidemment appauvrissante (stylisante, dans le meilleur des cas); mais si l'on se donne un grain suffisamment fin, on peut atteindre un degré de qualtié et de précision remarquable, et en principe indéfiniment perfectible.

En matière d'éthique, les choses ne sont peut-être pas simples. L'excès de formalisation conduit au pharisaïsme, à la casuistique...

En matière artistique... notons que la gamme tempérée, phase importante des progrès de la digitalisation, n'a pas marqué la fin de l'émotion en

musique!

Formellement, si l'information parfaite, totalement digitalisaée, apparaît comme une limite au dégagement de l'information de sa gangue matière/énergie, la reconstitutino de formes analogues parfaites apparaît comme une limite, à l'infini, du progrès de la digitalisation.

Montée des médiations

La montée de ces médiations cognitives, nous l'avons étudiée dans la première partie, mais seulement sous l'angle externe. Que le versant interne se développe de manière analogue, cela mériterait une étude précise.

Le concept peut être considéré comme l'équivalent de la représentation chosifiée. Qu'il prenne une certaine dynamique, il suffirait de se référer aux études sur les mythes, par exemple, pour s'en convaincre. Il y a des idées-forces, des systèmes de pensée qui influencent fortement le sujet même qui les développe, et lui cache des aspects du réel. Qu'il atteigne même le caractère d'un automate, on peut le penser à la lecture de ce passage de Bacon (cité par Benzecri (dans le tome "Organum" de l'Encyclopedia

Universalis) (Restat unica salus...

L'accès au vrai repose de plus en plus sur des prothèses. La scholastique a été l'abus de la prothèse logique. Prothèse intérieure, en quelque sorte, qui va être remplacée par une prothèse extérieure: le montageexpérimental.

Relire Koestler, sur les astronomes, etc. La grande sphère céleste de Tycho Brahé est une prothèse externe, que Copernic va relayer de façon plus interne par un modèle nouveau du monde.

Ce qui doit monter, c'est ce qui arrive à associer plus de bits avec le meilleur rendement. Historiquement, la chimie du carbone, puis le papier, puis la chimie du silicium.

Mais aussi, le logiciel. Qui associe l'information, les données. Certes appuyé sur le matériel, mais finalement plus stable que lui, passant d'une machine à l'autre, d'une génération à l'autre. Profondément associatif. Et sur-stabilité précisément des langages de programmation parce qu'ils associent à la machine l'ensemble des bits du cerveau.

...

le problème de la vérité (dans le sens de l'épistémologie traditionnelle) ne se pose que pour la connaissance non-immédiate.

il est d'autant plus fort que la médiatisation se fait plus forte, que les species se développent

... et que les conséquences de la doctrine sont importntes: pour décider qu'il faut tuer, il faut de solides raisons

Feeling that all that philosophical discourse becomes now programmable.

Pierre Bourgeade: l'Eros mécanique. Gallimard (vers 1996)