Common nouns | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Index Berger's Works
Proper nouns A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z| HOME DICCAN

Générateur de théories.

1. Générateur de théories (2. Généralisation)

On se donne :

- des “data”  (le “réel”…. ) en l’occurrence un ensemble de couples d’entiers (dont; par exemple le second terme est le double du premier).

- un dispositif de construction de théories, comportant les signes A   B (désignant le premier et le deuxième terme)
- les nombres entiers (un entier est considéré comme un seul symbole même s’il est représenté par plusieurs chiffres)
- les signes opératoires  + - * /  €  (addition, soustraction, produit, division, exponentielle).

 

Objectif : construire une théorie  Th , c’est à dire une suite de ces symboles, telle que l’on ait toujours  B =   Th   (le signe = étant pris au sens mathématique courant).

Le programme va d’abord essayer toutes les théories à un seul symbole, et va évidemment  trouver  B.

Il va ensuite essayer toutes les théories à deux symboles.  Dans ce cas il n’y aura aucune solution, c’est à dire de théorie permettant d’effectuer un calcul.

Il va ensuite essayer toutes les théories à trois symboles, et produira les théories suivantes:

B,  A+A, A*2,  B€1, B/1

Extension à d'aures théories

Il peut s’arrêter une fois qu’il a trouvé une théorie valable.  Ou continuer avec des théories de plus en plus longues, mais dans ce cas de figure, cela ne présente pas d’intérêt, par exemple  A+A-A+A-A+A….. aussi toute la série B*1*1*1.... et B€1€1€1€1€1€1€1 (ici il faudrait des parenthèses, ide. pour B/1/1/1/1/1/1/1 ou B*2/2

Voir Axiome

Evaluation des théories

Sur  l’ensemble des théories fournies, on pourra se  donner des critères d’évaluation (brièveté, facilité de calcul…., utilité (B n’a pas d’intérêt, par exemple))  et les meilleures théories seront appelées des théorèmes ou des lois sur le réel fourni à l’entrée.

Ces critères eux-mêmes sont pour une part automatisables (notamment des critères formels), d'autre par se déduiront des "contextes", dison des marchés.

Utilité des théories

L'intérêt d'une théorie est d'abord la réduction des données à stocker (plus du tout de données, à la limte, sauf la valeur courante) et la généraisation.
On dit des choses comme ça à propos des réseaux neuronaux.

Et la prévision : si on considère que la théorie est juste, elle s'appliquera aussi aux valeurs futures.

Exemples typiques: des tables astronomiues aux lois de Képler, Copernic, etc.

Différence avec un algorithme ? ?? logarithmes? des tables à l'algo.

Théorie et classification.
remplacement d'un élément concret (infiniment d'éléments) par un type. Et à chaque type associe des caractéristique (définiion, constations expérimentles).
La classificaion permet la décision (d'une certaine manière, est toujours une décision).

La théorie permet l'action.

Einstein combine :
- une énorme culture tous azimuts, centrée sur la physique
- une grosse capacité de travail
- un riche milieu d’intellectuels et notamment ceux qui travaillent sur la lumière (notamment Poincaré qui est très proche de la relativité et dont les travaux sont connus d’Einstein)

Tous ces éléments sont quantitatifs. Une collection de bons cerveaux, passant leur temps à réfléchir et mettant leurs idées en commun.

Il y ajoute un tempérament indépendant, qui lui permet de sortir des sentiers battus, d’abandonner des concepts (l’éther).

---
La longueur de la plus courte Th est la complexité des données d"entrée (Kolmogorov)/
On peut aller plus loin, bien sûr :

- longueur des théories, élargissement du jeu de symboles, des opérations possibles
- comme le temps de vérificaion croît exponentiellemnent avec le nombre de symboles élémentaires, il faut assez vite :
- ne générer que des Th mathématiquement correctes (expressions bien formées)
- introduire des heuristiques,

- décomposer en étapes successives ; par exemple une phase de reconnaissance, : cett expression est un trinome du second degré, un nombre pair, un nombre premier
- A et B peuvent être des n-uples de nombres

- acceptation d'un taux d'erreur; approximations successives (Th. Mc Laurin).

- génération de "concepts" : parties de Th (exemple de l'ensemble vide dans Bourbaki). Il y a la définition du concept et ses propriétés (théories toujours vraies pour ce concept)
- un axiome est une théorie considérée comme vraie, sans démonstration

 

En couplage avec réseaux neuronaux.
Soit un système qui a fait un apprentissage, et qui est stabilisé dans ses réponses sur un ensemble d'inputs.
On peut alors utiliser le générateur de théories et le valider par le réseau neuronal (et réciproquement).

Voir : analyse des données; Analyse des données

De l'analyse des données à la théorie ?

La black box. De là à la causalité...

Chercher d'autres exemples.
Analyse d'images. Si on sait qu'il y a des carrés, les trouver. (Th est de la forme : il y a un carré en telle position, dimension, voir couleurs)

 

La chose s'applique à la physique dans la mesure où on sait la représenter par des tableaux de nombres. Aux sons et aux images de même.

 

----

 

Que veut dire "sentier battu" dans ma théorie ?
On s'était donné un jeu concepts qui marchait bien dans beaucoup de cas. Mais qu'on n'arrive pas à étendre.
Il faut RENONCER à une partie de ces concepts pour tenter d'autres théories

 

Voir le bouquin de Villani...

____________

Masse et création

Evidemment, quand on pense que le big data change quelque chose, on oublie ce petit détail très gênant : à savoir que les inventions (scientifiques ou artistiques) ne sont pas le fait de la masse. Au contraire, il y a bien dans les découvertes une marque d'individualité spécifique. Toutes les connaissances scientifiques de l'année 1905 sont connues de mettons 5000 personnes du niveau d'Albert. Pourquoi n'en font-ils rien ? Qu'a donc Albert de si spécifique ?

Pas gênant, mais intéressant.

Il faut distinguer deux masses: la masse des données, la masse des chercheurs.

De tous temps, en général, les théories se basent sur des masses de données. Voir les relevés considérables d’Aristote, ou les travaux de Tycho Brahe qui permettent Kepler. A fortiori, de nos jours, par exemple les énormes saisies de donnée dans l’accélérateur du CERN ou les neurosciences.

Dans des domaines comme la sociologie,  la théorie ne peut se construire que sur des masses de données (enquêtes sociologiques).

En outre, en général, et de plus en plus, les chercheurs ne sont pas isolés et plus moins nettement mettent  leurs données en commun.   Il y a des milieux porteurs.  Typiquemnet la Vienne de la belle époque, avec Freud, Carnap, etc.

Après quoi, tu as raison, il y a des moments où ça patine et où d’autres ont l’étincelle. Einsitein, partant des pas grand chose (l’histoire de l’ascenseur).

Avec des cas interméiaires comme la pénicilline de Fléming ou l’hélice de Watson et Crick.

J’ai un assez gros bouquin Creative Minde, étudiant Freud, Einstein, Picasso, Stravinsky, Eliot, Graham et Gandhi.  Mais pour l’instant je n’ai lu que Freud.

Pour passer de là aux machines, voir message suivant.

2. Généralisation

Si, au lieu d'une série finie de paires de nombres, on considère que les paires sont un flux constant, provenant d'une source "extéreure", indépendante du système.
Alors, si pendant asssez longtemps la théorie B = 2*A se vérifie, on généralise la théorie. L'avantage est qu'on n'a plus besoin, pour cette source, de relever les deux nombres, l'un d'eux suffit.

Ce faisant, on prend le risque d'une erreur, si par la suite d'autres paires arrivient.

3. Approximation.


Si le deuxième nombre n'est le double du premier qu'à une certaine approximation près, la théorie inclut sa marge d'erreur.

Le Boucher : Le réel est très compliqué. Les modélisations intellectuelles ne nous permettent en aucun cas de le saisir. Comme les modélisations sont le produit d'une analyse préalable, elles essaient (c'est le cœur d'un modèle) de réduire le nombre de variables. Il y a un choix, et donc un biais. Comme dans le cas des prévisions météo, le niveau réducteur du traitement des variables induit de telles variations au cours du temps que le résultat est vite sans valeur. Et inutile à moyen terme.

En particulier la politique, summum de complexité par défition.

 

Dans le cas de la découverte de théorèmes nouveaux, par exemple, on pourrait imaginer qu’après un certain temps de travail sur beaucoup de données (disons de cas de figure),  le volet “Learning” se stabilise sur certains types de solutions, suffisamment pour qu’on puisse les “formuler” comme des conjectures (typiquement, les quatre couleurs). 

Un certain nombre de ces conjectures sont séduisantes, parce que utiles (les quatre couleurs) ou “jolies” (le cercle des neuf points), ou simplement qu’elles permettent de résumer en quelques mots ou phrases un nombre important, voire considérable, de “données”.  Il devient donc intéressant de les prouver.

Si on y parvient, alors on a des théorèmes (ou des principes).

--- Parallèle notable : le dépannage
Vers 2004, il y a eu des publications sur les dépanneurs de photocopieurs par exemple.  Un bon dépanneur doit combiner rationalité et intution.  S’il est purement rationnel, il risque de perdre beaucoup de temps à explorer méthodiquemnet des arbres de causes.  S’il est purement intuitif, il perdra son temps en faisant des essais “au pif”.

----- Cas de la décision 
Levons ma réserve terminologique : du fait que les machines savent jouer, on ne peut pas dire qu’elles ne prennent pas de décisions.
Ici aussi, un bon décideur combine logique et intuition.  Un bon juge connaît son droit, mais ne l’appique qu’en fonction de son intime conviction.  Ou, si l’on veut, le droit est une combinaison de “code”  et de jurisprudence.  

------


C’est partout le même combat.
A l’entrée, le chaos de mesures thermodynamiques, les masses de données de gestion, les désirs et décisions du Peuple, les excitations sur les matrices sensorielles, les fichiers et (potentiellement), le web.
A la sortie, l’œuvre.
Au milieu, les équations chimiques matérialisées dans des cuves, turbines et chaudières, les algorithmes de régression, les processus démocratiques et administtatifs, les connexions synaptiques et les fonctions d’intégration propres à chaque neurone, les fonctions d’analyse et de génération des images et des textes.
Unissant le tout, l’objectif. Le sens. Des choses simples. La molécule intéressante, la décision du patron, la décision du politique, la liberté humaine, l’œuvre artistique.

-----

Pourquoi le S construirait des théories.

On pourrait poser le problème comme suit :
Cas 1. On demande explicitement au programme de construire des théories.
Cas 2. On demande au S. de résumer ce qu'il reçoit en entrée. Dans un deuxième temps, avec des critères sur l'importance relative des données
Cas 3. Le S a besoin de vivre et d'agir, et pour cela doit prendre des décisions.

 

 

Plus formellement, voir Theorie

Plus on  avance, plus on a de data, et plus on peut être “certain” des lois générales.   Il y a sans doute des exceptions à la loi de Mariotte, mais pour l’instant c’est raisonnable de l’appliquer.

----
Quant à la possiblité de généraliser par une machine, je n’y vois aucun problème.  Google fait ça tous les jours. A partir de mes requêtes, il induit que “le mail pmbergerorange.fr”  (ou bien mon IP) s’intéresse de façon générale à l’art informatique. 

Ce qu’il faudrait ici préciser, ce sont les deux modes de généralisation : implicite dans les réseaux neuronaux,  explicite dans les modélisations et les raisonnements.

 

7. Emergence des “lois de la nature”. Certaines chaînes (Ngrammes) comportent une dimension temporelle régulière.  On en en conclut à des relations générales de succession et, en allant un peu plus loin, dans des systèmes de causalité.

Générateur de théories

$