Vers une nouvelle génération d’art génératif, au delà du hasard, avec le Big Data  et le NLP.

L'essentiel de ces éléments a été repris dans " Deep Identity. Interim Report. 7/2016. "

 

La pause marquée actuellement par l'art numérique en général, et de l'art génératif en particulier, contraste avec les progres spectaculaires de l'intelligence artificielle dont témoignent notamment les automobiles autonomes, la robotique et, plus médiatique encore, le jeu de Go.

Il faut donc espérer la naissance d'une nouvelle vague d'art génératif exploitant largement des techniques avancées comme le "deep learning" pour dépasser l'algorithmique traditionnelle, combinant déterminisme et hasard, en y ajoutant de larges capacités de mémoire et des capacités d'auto-apprentissage.

La naissance de cette nouvelle génération pose des problèmes humains (compétence et volonté des artistes, intérêt des spectateurs) aussi qu'économiques (disponibilité à un prix raisonnable de machines puissantes, orientation de la demande institutionnelle et privée). Comme au cours des années 1960 et 1970, les avancées en art seront sans doute permises par le besoin de communication des grands industriels (le Gafa). lls investissnet massivement dans l'intelligence artificielle, pour satisfaire les marchés de la sécurité et de la finance. Ils ont besoin aussi de s'assurer l'intérêt positif du public mais aussi de développer le volet sensoriel et émotionnel nécessaire aux marchés du divertissement (entertainment) et de la robotique "sociale" (enfants, handicapés et surtout personnes âgées).

Différentes évolutiosn techniques contribueront à cette nouvelle vague, par exemple les nouveaux casques (ou lunettes) de réalité virtuelle, l'impression 3D et bien entendu la connexion généralisée de tous les objets à l'échelon planénaire. Mais nous développerons surtout ici le dépassement du hasard "algoroithmique" par une imprévisibilité beaucoup plus intéressante, émanant de que l'on pourrait appeler une "vie intérieure" des nouvelles machines.

1. Situation actuelle

Pendant cinquante ans, de 1960 à 2010, l’art numérique s’est développé à une vitesse exponentielle, le nombre des artistes nouveaux doublant sensiblement chaque décennie. Nous ne comptons pas dans ces chiffres les simples utilisateurs de l’ordinateur, de logiciels ou d’appareils numériques (photo, caméra, magnétophone),. I ni les armées de dessinateurs d’animation utilisés par le cinéma et la télévision. Nous n’appelons artistes numériques que ceux pour quoi l’ordinateur est un peu plus qu’un outil. Pour qui le « code » ou l’automatisme fait explicitement partie du projet artistique.

Les algorithmes, en pratique, sont au cœur de cette forme d’art. Ils disposent d’une marge plus ou moins forte d’autonomie, marquée notamment par l’emploi des algorithmes de pseudo-hasard, assurant, dans certaines limites, l’imprévisibilité de leurs production.

Mais, depuis 2010, nous avons le sentiment que la croissance s’est sensiblement ralentie.  Il y a moins de nouveaux artistes. Et les nouveaux s’éloignent peu de procédés qui ne s’écartent guère des principes mis en œuvre depuis un demi-siècle. Sons et images sont plus parfaits (haute définition), un peu de temps réel est possible (live coding) mais on n’avance pas sur le fond.  Le concept, en quelque sorte, a saturé son espace de développement.

2. L’hypothèse d’une nouvelle vague

Nous formulons ici l’hypothèse qu’une nouvelle vague d’art numérique pourrait émerger dans les années à venir, inspirée par l’évolution même de l’informatique en général, que l’on nous excusera de nommer, faute de mieux, en américain : le « cloud », le « big data » et le «deep learning ».

Cette nouvelle vague contraste avec la précédente sur trois points :
- cloud : la création est de plus en plus « connectée », elle utilise de plus en plus des outils fournis en ligne plutôt que des logiciels installés dans l’ordinateur de l’artiste ; les œuvres elles-même sont stockées sur des serveurs distants, les immenses « fermes » des grands acteurs de réseaux (volet « cloud »),

- big data : les données prennent le pas sur les algorithmes au sens strict ;  les grosses capacités de mémoire (au-delà du tera-octet) sont désormais accessible même sur un ordinateur portable ; même avec un budget modeste, un artiste peut se constituer d’importants fonds, en utilisant une panoplie de moyens qui va du téléphone portable au scanner en passant par les caméras haute définiton ; enfin, Internet offre une source immense de textes, images, sons et films.

- deep learning : ce mode de développement s’est récemment illustré en dominant l’humain au jeu de Go, exploit jugé impossible il y a quelques années encore ; en simplifiant un peu ; les réseaux neuronaux sont au cœur de ces techniques, et l’adjectif « deep » lui-même est transposé de « deep neural network », c’est-à-dire réseau neuronal multicouches ;  c’est sur ce dernier point que nous centrerons les lignes qui suivent.

3. Une nouvelle façon de développer

Le concept de réseau neuronal n’est pas plus nouveau que la programmation traditionnelle, mais sa combinaison avec le big data induit une manière sensiblement différente de développer et, point important pour l’art numérique, une nouvelle forme d’autonomie, au-delà du hasard.

Dans l’informatique traditionnelle, données et programmes sont radicalement séparés.  Matériel et logiciel constituent ensemble des « applications » qui ne sont pas modifiées par les données qu’elles traitent.  Le développement consiste à formaliser les formats de données et les algorithmes qui leur sont appliqués. Après quoi l’on passe à l’utilisation, les applications n’évoluant qu’avec la prise en compte de nouvelles fonctions.  Ce modèle transpose celui des machines traditionnelles : un laminoir, un poste de télévision ou un épluche-légumes ne sont pas modifiés par les matériaux qu’ils travaillent (sauf évidemment l’usure et les accidents possibles dûs à des matériaux non adaptés).

La structure des machines et des programmes est une traduction assez explicite de leurs fonctions, et un observateur compétent peut les comprendre  (parfois difficilement, certes, dans le cas de programmes mal structurés). 

Avec le deep learning, l’algorithmique est relativement légère. Elle ne comporte (nous simplfions beaucoup les choses, certes) que deux fonctions, qui seront répétées pour tous les neurones :
- la fonction d’agrégation, qui définit la sortie du neurone en fonction de ses entrées, avec une formule de sommation, donnant des poids aux différentes entrées (et implicitement donne donc la liste de ces entrées, c’est-à-dire des neurones dont il reçoit les sorties) et une fonction de seuillage à partir de la somme ;
- la fonction de correction des poids, en fonction du succès ou de l’échec de l’opération.

Le gros du travail va se faire dans l’apprentissage, en utilisant un fichier d’exemples, c’est-à-dire de résultats à donner en fonction d’une donné d’entrée. Au bout d’un certain temps (qui peut être très long).  Au bout d’un certain temps, on considère que le réseau fonctionne correctement, et on arrête l’apprentissage.  Une application particulière se caractérise donc par le tableau des poids.

Il y a alors deux différences majeures avec la programmation traditionnelle :
- on peut décider que la machine continuera indéfiniment à apprendre, et aura donc la capacité de s’adapter des évolutions (mais il y a des risques de « surapprentissage), en ce sens la programmation n’est jamais terminée
- à la différence des logiciels traditionnels, on n’aboutit pas à des formulations algorithmiques qui, dans leur principe, parlent d’elles-mêmes sur leurs fonctions, mais un tableau de poids difficile à interpréter, et d’ailleurs pratiquement impossible à calculer à l’avance.

Pour l’artiste, le processsus est vraiment différent. Il ne s’agit plus tant de trouver un algorithme, ou un ensemble d’algorithmes, intéressants, mais
- de constituer une base d’exemples notés (bons pas-bons)
- de les faire traiter par un réseau neuronal.

Les arts de la performance entrent dans ce cadre : chaque spectacle est un ensemble d’entrées nouvelles, qui seront traitées adéquatement par l’artiste en temps réel.  

On pourrait dire que ce mode de création est post-moderne, dans son caractère imprévisible, non totalemnet maîtrise, et potentiellement adaptable par le spectateur (la machine apprenant à le connaître, ses réactions aux œuvres proposées constituant de nouvelles entrées pour l’apprentissage).

4. Mieux que le hasard

Le recours au hasard est une caractéristique typique de l'art numérique et plus particulièement génératif. C'est le trait qui permet d'en faire remonter les racines au moins aux fiches à composer la musique du père Kirchner, au XVIIeme siècle. Vers 1930, l'Oulipo l'a appliqué à la poésie et au théâtre. Albert Ducrocq à la peinture au cours des années 1950.

L'ordinateur a grandement facilité le recours au hasard, avec sa magique fonction random(). Ce hasard algorithmique n'est pas parfait, mais largement suffisant pour ceux qui n'ont pas l'esprit trop métaphysique. Reste ensuite à trouver le bon équilibre entre hasard et nécessité, ou plutôt entre hasard et règles de construction, qu'elles relèvent de modèles fonctionnels (caractères qui définissent ce qu'est une automobile ou un cheval) ou de règles esthétiques (les canons). Entre le chaos (écran "neige" d'un téléviseur) et la nécessité (graphiques mathématiques), nombre de procédés concourent à trouver les bonnes combinaisons.

- limiter "localement"
- intervention a posteriori : l'ordinateur produit un grand nombre de solutions, l'artiste choisit celles qui correspondent à son projet esthétique
- intervention humaines en cours de processus, l'artiste procède par essais et erreurs
- interventions automatiques en cours de processus : la machine génère des formes au hasard, et leur applique des procédures de sélection, dans la mesure, limitée mais non nulle, où les critères esthétiques peuvent se programmer.

Or cette indépendance a une double relation avec l'art et l’esthétique :
- elle créée l’imprévu
- elle fonde une certaine originalité, une in-copiabilité fondamentale de l'oeuvre
- elle créer une forme incontestable de "présence".

Nombre d'oeuvres ont aujourd'hui montré la richesse de ces procédés. Mais commencent à montrer leurs limites. Comment aller plus loin ?

En s'interrogeant plus profondément sur la nature même du hasard. Cournot (selon Wikipedia) nous propose une définition ici féconde : la « rencontre de deux séries causales indépendantes".

Introduire le hasard dans le processus de création de l'oeuvre, ou mieux encore dans son fonctionnement même, si elle est "mobile", c'est donc faire émerger, en tous cas dans la subjectivité des auteurs et/ou des spectateurs, une cause indépendante.

Au-delà d’un hasard «gratuit », d’une forme de liberté qui n’est que celle de l’adolescent qui « se pose en s’opposant », proposont une autonomie basée sur la richesse « intérieure » de l’œuvre ou du programme qui l’a fait naître.  Cette richesse est désormais permise du fait du big data. Le tout est de s’en servir intelligemment. De convertir une « culture » en vrac, une « tête bien pleine », par une organisation de cette richesse en fonction d’un objectif artistique particulier, fût-il seulement le plaisir d’un spetateur particulier.

Dans Roxame.2  cette construction va se faire à partir d’une reqûete en deux parties :  un thème et un format.