Divers sur Epistémologie quantitative
niveaux: bits de poids faible
raccorder avec le modèle en L
le niveau 4 serait alors au centre de la vision
la montée vers les hauts niveaux correspond à un déplacemnet "à gauche", vers les invariants, le constant, dieu immuable
la descente vers les niveaux bas se perd dans l'aléaoire
le progrès de la machine se traduit notamment par le nombre de bits que l'on peut conserver en zone centrale
ou si l'on préfère,
avec rationalité limitée
le nombre de bits effectviement vus restent constants
ou le nombre de pixels
mais grace au bouclage, aux automates, au chunking
le travail sur les pixels visibles se traduit (gain) par un travail beaucoup pous important sur ce qu'il y a en dessous
nécessité d'une thermodynamique
bcp de pb ds HM vont se poser sous la forme de régulations
-température de médias
-distanciation
-taux de zap/stabilité
-taux d'ouvertur/concentratino
-répartition de moyens
-conception de systèmes
Diagonaliser
Appliquer le quantitatif à l'EQ ele-même. Longueur de cette théorie (la brièveté est souvent considérée comme un facteur de crédibilité). Rendement d'une science, d'une épistémologie.
remarques sur la démonstration (Warusfel, Desreumeaux)
on passe d'éléments logiques
à niveaux élevés
pourrait-on fair des AGL pour matheux?
Montée du 3D après le graphique
le 3D nous ramène à la réalité non-symbolique
le texte ést comme l'extrême
un très bas niveau énergétique aussi
chuchotement/ très petits mouvements de la plule sur le papier, des doigts su le clavier
en retrouvant le geste, l'inuitif, on va retrouver de l'énergétique, de l'analogique
même si c'est analogique surtout avec notre psychisme
mais il est vrai que, dans l'informatique de 1991, il y a quelque chose d'oppressant par la dominance du textuel
cela dit, n'exagrons pas l'effacité du "petit croquis qui vaut un long discours". s'il est trop simple, il ne dit pas grand chose. s'il est compliqué,
il exige de grands efforts
dans le 3D, re-passage dans la -urgie à partir de la -logie...
mais les écarts seront d'autant plus dangereux, l'écart, le gain entre le petit geste et les mofifications considérables de l'hypermonde observé.
peut certainemnet être dangereux
"L'opérativité symbolique est constitutive de la "textualité" même de la liturgie" (Chauvet).
Convergences:
humain mécanisé/robot et machine humanisés
symboles vers objets informatiques actifs, autonomes, à support matériel/
objets passifs montant vers l'autonomie et la prise en compte de la signification
Avec le schéma de Jakobson
et inspiration des langages performatifs
émetteur/récepteur/référentiel,
on peut mesurer des ressemblances:
- entre signe et référentiel. analogique/digital indice zéro si purement digital, Un si image hifi).
ensuite, distinguer des niveaux en se référant à mon schéma
-entre émetteur et signe. zéro si le signe est parfaitemnt objectif, un si le signe est un pru cri, à la limite sans référence
-entre émetteur et signifié
-entre émetteur et récepteur: consonance/dissonance cognitive
-entre récepteur et signe.
Ces mesures, leur utilité, leur importance, vont changer quand le signe s'enrichit.
Un simple bit n'a de ressemblance avec rien. Ou peut être totalement analogique (un point blanc si le rférentiel est blanc, noir dans le cas contraire)
Quant l'objet comporte un grand nombre de bits, les différents types de ressemblance vont commencer à avoir de l'importance.
Méthodes. Il est tout à fait anormal qu'on ne parle pas plus de chiffres, de mesure. Un Système expert, ou plutôt le type même de système expert. a une
limite de validité. A 10 ou 20 règles, un pg fait mieux. A 10 000 règles, c'est ingérable. IL y a un evalidité autour de 100 à 500 règles. Cependant,
Desreumaux dit qu'on peut avoir un méta-système expert pour valider la cohérence des règles.
Id en méthode. Des km de papier méthode dans les caves de la BNP sont inexploitables.
Et c'est pour cela que le passge du papier à l'électronique a de l'importance.
R...
Il serait aussi très intéressant de voir comment les applications, certaines applications, ont évolué au fil du temps avec la montée en puissance des machines.
Comparer une facturation du tps des CP à une facturation aujourd'hui. Comment s'absorbe la puissance: sécurité, confort, rapidité-temps réel, etc.
souvent la mesure s'exprime par une fenêtre, un intervalle.
éviter le mot de complexité qui déclanche
carrément parler de masse
Relation entre finalité et complexité
programme: finalité connue
nature: finalité inconnue
(début des analyses de Atlan)
Quel est le nombre le plus irrationnel.
- si irrationnel, nombre de chiffre après la virgule illimité, et non périodique alors
-recherche de semi-périodes
-longueur de la description finie à partir d'entiers (ainsi, le rationnel est déjà un peu plus compliqué que l'entier, puisqu'il faut deux entiers, et plus les deux entiers minimaux (par réduction des facteurs communs) sont longs, plus il y a complexité du rationnel. On pourrait d'ailleurs chercher la relation entre cette longueur (la somme des deux longueurs, par exemple), et la longueur de la période.
pour bien généraliser, il faudrait définir un langage formel général permettant de les exprimer. Or probablement, pour tout langage fini, on doit toujours pouvoir trouver un nouvel irrationnel non définissable
dans ce langage.
Problème épistémologique/Métaphysique de base
c'est quand on passe à la limite. de quelques uns à "tous", de quelquefois à "toujours". l'induction.
le mythe, aussi, le passage à l'immémorial. sur ce point, l'histoire fondamentalemnet réaliste: telle tradition a été fondée à telle date.
le sacré
...
le mot pervers esprit
et toute la famille: le monde sera spirituel
parce que esprit est à la fois non structurel et hyper-structurant. l'esprit, le Saint Esprit... pnuematique..;
l'esprit, une personne... construction déjà bien abstraite dans la théologie triniaire
Rôle abêtissant chez Hegel
...
le principe même d'une épistémologie quantitative conduit à l'externaliser:
mesurer, c'est s'en remettre à un instrument ou au moins à une méthode de mesure
de toutes façons, la mesure suppose une externalisation
- en pratique du fait de la faible reproductibilité de nos sensations, ou faible précision
- en théorie, puisqu'il faut définir une unité et s'y référer. Au départ, les unités sont définies à partir du corps: pouce, pied, coudée, mille (de pas)
puis par rapport à quelque chose de "naturel", quoique déjo volontairement abstrait : le mètre prend toute sa valeur parce qu'il y a le système métrique
puis par rapport à la reproductibilité/Précision: nouvelle définition du mètre
parallèlement, évolution de l"étalon
pour le temps, on n'a pas changé de système, toujours la seconde avec ses sous-multiples et minute/jour/an (et mutliples)
ici, c'est l'horloge même qui évolue
mais aussi: temps local, temps universel
Fondement. Les scolastiques construisent un modèle dur du discours, sans référence à l'expérience. Mais pas non plus assez solidement pour construire une informatique. Il me semble que Spinoza essayera. Comme le dit xx sur Kant, ce sont les résultats qui convainquent autant que les fondements choisis. Les axiomes sont souvent très difficiles à comprendre et d'un intérêt limité.
Ce qui compte c'est qu'ensuite ils donnent une bonne "interprétation", "explication" de nos connaissances courantes.
Une sorte de "compatibilité up"
Les évidences ne sont pas premières, mais médianes. Elles ne sont pas au fondement, mais dans la vie courante. C'est de là que l'on remonte vers les origines et vers les fins.
La vérité d'une théorie, d'un système, d'une axiomatique, n'est alors plus que sa masse (pondérée par facteurs de cohérence). Mais aussi tout de même sa coincidence avec l'expérience courante. Ou son sens (en mon sens à moi)
L'expérimentation est une extension de l'objet "théorie" vers le concret. La grande force de la science expérimentale, c'est sa double cohérence: logique et avec l'expérience
Le non-réductionnisme est l'impossibilité de tout fédérer en un seul système logique à intraction forte. Gödel
Kant. Philosophie sans fondement. Moi: allors jusqu'à fonder hors le cerveu, contre la phénoménologie.
Au départ, le philosophe parle, puis fait des signes dans le sable. Le philosophe religieux inscrit déjà la philosophie dans des signes. Dans l'architecture
Puis, objectivation: l'écriture, le traité,
Puis formalisation, allongement, la somme, le système, l'organon, l'encyclopédie
Puis le programme, vie autonome, micro-stratégies.
Hegel se passe de fondement. mais il continue de penser la philosophie comme phénoménologie, comme étude de ce qui se passe dans l'esprit. Il ne construit pas encore la machine philosophique en dehors d'elle (ce que les scolstiques, ou peut être Bacon, avaient commencé à faire). Et qui conduit à tout analyser sous l'angle de la personne.
Un avantage de séparer sens de humain, c'st qu'on peut redescendre vers des modélisations élémentaires. (la porte). Le sens prend des sens différents selon le niveau de système. On voit bien alors que définir l'humain par le sens est une tautologie
L'introduction de l'Esprit pose autant de questions qu'il en résout. Mieux vaut s'en passer.
La conscience n'est peut-être pas aussi importante qu'on l'a dit/pensé.
On peut tout simplemnet poser que
vérité = masse (de la théorie, mais aussi de l'objet)
irait assez bien avec une fusion quantitative des transcendantaux
(- la masse est au niveau 4... ou au niveau 1. Ou bien: les éléments de la masse sont au niveau 2, la mesure même de la masse, conceptuellement est au 4...)
alors, la philosphie se caractérise par:
- aux frontières, proche de l'effritement, quand on monte vers le métaphysique
- emploie beaucoup de liens flous
Fondement. Si la philosophie renonce au fondement, au profit du système, en quoi diffère-t-elle des mathématiques? Seule compte la construction. La différence viendrait de l'dahésion, de la décision volontaire? Je décide de ce qui est réel, évident?
En mathématique, satisfaction évidente de la puissance, de l'élégance aussi. Et volonté bourbakienne de synthèse. Qu'importe Gödel, dans un premier temps. La cathédrale se construit, se précise au fil des siècles. Avec des moments phares comme la démonstration du théorème de Fermat en 1993. Dit Marcel, ce n'est pas la clé de voûte, c'est un lieu intéressant mais ce n'est pas le seul ni même le plus intéressant.
Conscience. Il faut qu'un sujet perçoive une différence, entre un modèle et un réel, et l'assume comme telle, tente de l'unifier, essaye de la combler. Ou simplement réagit à cette différence: tente de la comber, le désir, l'action. Dès le biologique. Tout début "d'action" évoque un début de conscience... régulations.
Quantitativement, il faut au moins suffisamment pourqu'il y ait, sur un même plan, un volet observation et un volet construction et prolongement. Plus des capacités d'action. Chiffrer tout cela.
... EPISTEMOLOGIE. PATTERNS
Sur Thom, et sur "maths science des patterns"
Sur tout cela il faudrait commencer à être sérieux.
Ce qui n'est pas la cas de Thom: son schéma commence par être ternaire, puis s'organise en deux oppositions, qui deviennent ensuite des dimensions pour un espace où on peut donc dresser un carte.
Or ce sont justement des "paatterns" qu'il faudrait manie autrement que sur le mode poétique, sinon on tombe dans l'insignifiance.
Une des grandes forces des maths a été de savoir associer deux types bien différents de patterns:
- les formes au sens visuel, la "géométrie", avec l'évidence intuitive de l'espace, des déplacements, etc.
- les formes du langage, avec la rigueur de la syntaxe et du syllogisme, donc la garantie apportée par l'automatisme du déroulement du discours (velut machinas, dit Bacon).
L'informatique d'aujourd'hui, celle du Macintosh, apporte ici encore quelque chose de radicalment nouveau, y compris pour les mathématiciens: l'association
- des patterns visuels et textuels (écran), avec un complément gestuel (souris, et demain glove);
- la rigueur des automatismes accomplis par le (micro)processeur.
...
Warusfel
on ne démontre jamais
c'est le lecteur qui fait la cohérence
...
Un programme a un chargement matériel beaucoup plus faible qu'un circuit électronique. Cependant, l'écart tend à se réduire puisque l'évolution technologique fait baisser la masse des circuits; d'où tout naturellement, sur la frontière devenue moins nette, la naissance du firmware, de la microprogrammation, etc.
Une méthode est plus formelle, moins émotivement chargée qu'une habitude.
Un organe est plus matériellement chargé qu'une fonction.
Une théorie, bien qu'associant plusieurs concepts, s'efforce de formaliser ceux-ci et par conséquent réduit leur chargement, au point que la charge de
chacun d'eux peut totalement disparaître au profit de la charge globale d'une axiomatique. Il y a donc probablement perte de charge dans l'additino, et c'est
ici normal, puisque l'on se rapproche de l'information parfaite.
54. Les processus de formalisation, de perfectionnement de l'information, passent souvent par une phase réductionniste qui déforme la réalité; la ramenant à des schémas simplistes. Mais, au delà d'un certain degré, on rejoint puis on dépasse la précision et la qualité des techniques d'origine.
Par exemple, la digitalisation d'une photographie avec un gros grain est évidemment appauvrissante (stylisante, dans le meilleur des cas); mais si l'on se donne un grain suffisamment fin, on peut atteindre un degré de qualtié et de précision remarquable, et en principe indéfiniment perfectible.
En matière d'éthique, les choses ne sont peut-être pas simples. L'excès de formalisation conduit au pharisaïsme, à la casuistique...
En matière artistique... notons que la gamme tempérée, phase importante des progrès de la digitalisation, n'a pas marqué la fin de l'émotion en
musique!
Formellement, si l'information parfaite, totalement digitalisaée, apparaît comme une limite au dégagement de l'information de sa gangue matière/énergie, la reconstitutino de formes analogues parfaites apparaît comme une limite, à l'infini, du progrès de la digitalisation.
Montée des médiations
La montée de ces médiations cognitives, nous l'avons étudiée dans la première partie, mais seulement sous l'angle externe. Que le versant interne se développe de manière analogue, cela mériterait une étude précise.
Le concept peut être considéré comme l'équivalent de la représentation chosifiée. Qu'il prenne une certaine dynamique, il suffirait de se référer aux études sur les mythes, par exemple, pour s'en convaincre. Il y a des idées-forces, des systèmes de pensée qui influencent fortement le sujet même qui les développe, et lui cache des aspects du réel. Qu'il atteigne même le caractère d'un automate, on peut le penser à la lecture de ce passage de Bacon (cité par Benzecri (dans le tome "Organum" de l'Encyclopedia
Universalis) (Restat unica salus...
L'accès au vrai repose de plus en plus sur des prothèses. La scholastique a été l'abus de la prothèse logique. Prothèse intérieure, en quelque sorte, qui va être remplacée par une prothèse extérieure: le montageexpérimental.
Relire Koestler, sur les astronomes, etc. La grande sphère céleste de Tycho Brahé est une prothèse externe, que Copernic va relayer de façon plus interne par un modèle nouveau du monde.
Ce qui doit monter, c'est ce qui arrive à associer plus de bits avec le meilleur rendement. Historiquement, la chimie du carbone, puis le papier, puis la chimie du silicium.
Mais aussi, le logiciel. Qui associe l'information, les données. Certes appuyé sur le matériel, mais finalement plus stable que lui, passant d'une machine à l'autre, d'une génération à l'autre. Profondément associatif. Et sur-stabilité précisément des langages de programmation parce qu'ils associent à la machine l'ensemble des bits du cerveau.
...
le problème de la vérité (dans le sens de l'épistémologie traditionnelle) ne se pose que pour la connaissance non-immédiate.
il est d'autant plus fort que la médiatisation se fait plus forte, que les species se développent
... et que les conséquences de la doctrine sont importntes: pour décider qu'il faut tuer, il faut de solides raisons
OBJET
Evolution d'un objet.
Il diversifie ses modes de contact avec l'extérieur:
- sa capacité de contrôle sur les entrées
- ce qu'il contrôle en sortie (imprimante)
- initiative autonomie
- contact direct avec la matière
- augmente son intégration (concrétisation de Simondon)
- digitalisation
Une action devient une sorte d'objet. L'action elle-même,
ou le processus, devient de plus en plus complexe. Notamment dans
le temps:
- pré-action, avec les éléments de la prise
de décision
- conditions annexes de lancement
- action proprement dite (avec bouclages éventuels) - vérification
des effets
Exemple: arrosage du jardin.
-pré= terre sèche, détectée par capteurs
de sols.
confirmation par relevé de la météo les jours
précédents, hygrométrie et thermométrie
générale
- conditionnements: horaire approprié, non présence
de personnes dans la zone à arroser, non gel, pas de contre-ordres
sur les interrupteurs du jardin. éventuellement, il faudrait
générer une alarme si la sécheresse du sol
devenait forte et qu'il y a des contre-indications comme interrupteur
jardin. on voit qu'une logique "système expert"
semble particulièrement appropriée ici.
- action: séquencement des différents dispositifs
d'arrosage, arrêt quand les capteurs de sol indiquent que
bon
- vérification d'effets attendus (bruit au débitmètre,
consommation électrique, etc;)
- au moment de l'arrêt, vérifier les effets au débitmètre,
etc.
si on avait une vision, on pourrait aussi vérifier que
l'arrosage se fait bien, et que le terrain a "l'air mouillé".
Objets abstraits. Classiques, mais aussi nouveaux. (monstres,
symboles, icones). Le bouton hypertexte. Donner une épaisseur
à la présentation des objets (en Lisp, P...). Faire
un dictionnaire graphique donnant tous éléments
pour reconcrétiser.
.............
Règles de construction des icones, de leurs ensembles.
Value of an object.
A which level does an object become so important that it emerges
in the world of Ethics?
First that supposes that there are evaluation means.
Then not totally deterministic choices.
Double ethics versus objects:
- respect of the object as such, for its own value (not spoil
money, resources, etc. )
- respect of myself as user oof the object (not to spoil m time,
my self respect)
Old theme of moral indifference of tool (de leurs épées
ils ont fait des socs de charrue)
Then,
to destroy it?
Suicide of an object (very possible. autodestruction systems in
rockets or some weapons)
Transform all programs into viruses.
Another way of generating systems
Distributed systems
See "ecology of computing"
When growing, object becomes finally subject.
With internal conscience field. Elaborate response to stimuli.
(note: at which moment does an object become sufficiently complex
to have an "interior". ex. Go game, with two eyes to
stay live).
Ethics, in that context?
decide what I have to do.
Feeling that all that philosophical discourse becomes now programmable.