Common nouns | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Index Berger's Works
Proper nouns A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z| HOME DICCAN

Théorie du génératif

J'appelle "génératif" un processus qui reçoit de plusieurs entités (phénomes) des codes (génomes), les combine en un nouveau génome et produit le phénome qui y correspond.

Proposition (utile et stimulante, sans doute difficile à démontrer formellement) :

Tout processus génératif peut se décomposer en processus génératifs plus simples et, à la limite, en portes logiques (OU, ET, NON).

On entend ici par porte logique un dispositif matériel capable de recevoir deux signaux de un bit et d'émettre un bit. Matériellement, le plus souvent, le phénome correspondant à ces bits seront des tensions électriques et les dispositifs nécessaires à les recevoir ou à les présenter.

Le "progrès" des processus génératifs consiste en un accroissement de leur complexité, c'est à dire (en théorie) au nombre de portes logiqques qu'ils combinent. Quelle que soit sa complexité, pour qu'il y ait "un" processus, il faut respecter l'unité du phénome résultant. Mais on peut considérer que le phénome est une population de phénomes, dont les états successifs sont les points d'entrére et de sortie du processus. Le génome de cette population est l'ensemble
- de la description du type de génome des phénomes individuels,
- des règles qui en régissent l'évolution globale (par exemple, modes de crossover, critères de fitness).

Pour des raisons qui tiennent à la structure de la matière, il y a un fort intérêt à ce que la combinaison des génomes se fassent au niveau de quantités aussi petits que possible de matière et de temps. Une limite inférieure étant potentiellement apportée par la relativité.

Dans l'histoire du monde, cette monté a franchi un seuil important avec l'arrivée de la vie : la combinaison des génomes se concentre sur une toute partie de la masse physique des etres vivants, alors que dans les phases précédentes (en étendant le terme génératif), les combinaisons se faisaient avec tout le poids, les dimensions et les temporalités de la matière "pleine".

La vie a évolué en construisant des génomes de plus en plus longs et de plus en plus structurés, permettant de conduire ainsi de vastes ensembles de comportements génératifs "secondaires" : les productions des êtres vivants. Puis, les fonctionnements complexes se sont concentrés sur des cellules spécialisées, les neurones, et leur nombre a continué de s'accroître dans la marche "vers le plus grand cerveau" et conduit, à l'état actuel, à l'espèce humaine.

Dans le même temps, les êtres vivants et en particulier les humains perfectionnaient leurs processus génératifs par des coopérations de plus en plus immatérielles (moins physiques et moins violentes).

 

Cela conduirait à une centralisation totale, imaginée déjà par Sismondi (Nouveaux principes d'économie politique, Paris 1819) : "... il ne reste plus qu'à désirer que le Roi, demeuré tout seul dans l'ïle, en tournant constamment une manivelle, fasse accomplir par des automates tout l'ouvrage de l'Angleterre".

Mais une autre voie de montée de complexité s'est ouverte aussi avec l'apparition de l'homme : la création des outils. Ceux-ci ont suivi une évolution qui peut se comparer à celle de la vie : la complexité s'est peu à peu concentrée sur des dispositifs particuliers : instruments de mesure, engrenages, puis électronique. L'électronique elle-même a continué d'évoluer par l'intégration de ses circuits sur une échelle de plus en plus grande (loi de Moore). Cela a conduit, sur un grand nombre de machines, à la concentration de la complexité dans quelques composants électroniques et, pour les systèmes ou processus de haut niveau, à une "unité centrale" informatique.

Au contraire, dans bien des cas, ce sont des systèmes à base d'agents mulitples et de compétition qui s'avèrent les plus performants.
Notamment la machine Watson d'IBM (opposée à Deep Blue)

Cependant, ces conceptions "centralisées" ou "purement logicielles" ne sont que des limites. En effet :

- d'une part, un processus génératif s'accomplit toujours au sein d'un dispositif matériel
- d'autres structures que les hiérarchies sont intéressantes : automates cellulaires, réseaux neuronaux ou, pour reprendre un terme de Deleuse "rhizome".

Au début du XXIe siècle, les progrès des outils et la densitét de complexité des circuits électroniques les rend de plus en plus compétitifs et comparables à ceux de la vie. Déjà la cybernétique, dans les années 1950, marquait cette convergence. On parle maintenant de "machinic life" pour tous les différents processus de production, qu'ils soient biologiques ou non, justifiant l'emploi du terme "génératif".

La perception

La perception est un processus génératif : des capteurs fournissent un image réduite d'un phénome extérieur (ils n'en fournissent pas le génome directement), puis le système reconstruit son "modèle" à partir de ces élements.
Il y a d'une part une réduction par les capteurs, à un nombre fini de bits et à une énergie "marginale" (attention, relativité)

Au coeur
Plus on décomposer profond, plus ou atteint l'essence. Mais y a-t-il une essence.
Les modèles algorithmique et combinatoir de Bootz.

L'expression

C'est le "lecteur" qui reconstruit dans son génome à patir du phénome que lui apporte l'oeuvre.
Il va re-créer les impressions et le message de l'auteur.

 

Nota : il serait intéressant de projeter une image rétinienne en grossissant les cellules.

Les différents "espaces"
dimensions
avantages objectis/... des dimensions
boule/cube
transcendnace
récursion