L'essentiel de ces éléments a été repris dans " Deep Identity. Interim Report. 7/2016. "
La pause marquée actuellement par l'art numérique en général, et de l'art génératif en particulier, contraste avec les progres spectaculaires de l'intelligence artificielle dont témoignent notamment les automobiles autonomes, la robotique et, plus médiatique encore, le jeu de Go.
Il faut donc espérer la naissance d'une nouvelle vague d'art génératif exploitant largement des techniques avancées comme le "deep learning" pour dépasser l'algorithmique traditionnelle, combinant déterminisme et hasard, en y ajoutant de larges capacités de mémoire et des capacités d'auto-apprentissage.
La naissance de cette nouvelle génération pose des problèmes humains (compétence et volonté des artistes, intérêt des spectateurs) aussi qu'économiques (disponibilité à un prix raisonnable de machines puissantes, orientation de la demande institutionnelle et privée). Comme au cours des années 1960 et 1970, les avancées en art seront sans doute permises par le besoin de communication des grands industriels (le Gafa). lls investissnet massivement dans l'intelligence artificielle, pour satisfaire les marchés de la sécurité et de la finance. Ils ont besoin aussi de s'assurer l'intérêt positif du public mais aussi de développer le volet sensoriel et émotionnel nécessaire aux marchés du divertissement (entertainment) et de la robotique "sociale" (enfants, handicapés et surtout personnes âgées).
Différentes évolutiosn techniques contribueront à cette nouvelle vague, par exemple les nouveaux casques (ou lunettes) de réalité virtuelle, l'impression 3D et bien entendu la connexion généralisée de tous les objets à l'échelon planénaire. Mais nous développerons surtout ici le dépassement du hasard "algoroithmique" par une imprévisibilité beaucoup plus intéressante, émanant de que l'on pourrait appeler une "vie intérieure" des nouvelles machines.
1. Situation actuelle
Pendant cinquante ans, de 1960 à 2010, l’art numérique s’est développé à une vitesse exponentielle, le nombre des artistes nouveaux doublant sensiblement chaque décennie. Nous ne comptons pas dans ces chiffres les simples utilisateurs de l’ordinateur, de logiciels ou d’appareils numériques (photo, caméra, magnétophone),. I ni les armées de dessinateurs d’animation utilisés par le cinéma et la télévision. Nous n’appelons artistes numériques que ceux pour quoi l’ordinateur est un peu plus qu’un outil. Pour qui le « code » ou l’automatisme fait explicitement partie du projet artistique.
Les algorithmes, en pratique, sont au cœur de cette forme d’art. Ils disposent d’une marge plus ou moins forte d’autonomie, marquée notamment par l’emploi des algorithmes de pseudo-hasard, assurant, dans certaines limites, l’imprévisibilité de leurs production.
Mais, depuis 2010, nous avons le sentiment que la croissance s’est sensiblement ralentie. Il y a moins de nouveaux artistes. Et les nouveaux s’éloignent peu de procédés qui ne s’écartent guère des principes mis en œuvre depuis un demi-siècle. Sons et images sont plus parfaits (haute définition), un peu de temps réel est possible (live coding) mais on n’avance pas sur le fond. Le concept, en quelque sorte, a saturé son espace de développement.
2. L’hypothèse d’une nouvelle vague
Nous formulons ici l’hypothèse qu’une nouvelle vague d’art numérique pourrait émerger dans les années à venir, inspirée par l’évolution même de l’informatique en général, que l’on nous excusera de nommer, faute de mieux, en américain : le « cloud », le « big data » et le «deep learning ».
Cette nouvelle vague contraste avec la précédente sur trois points :
- cloud : la création est de plus en plus « connectée », elle
utilise de plus en plus des outils fournis en ligne plutôt que des logiciels
installés dans l’ordinateur de l’artiste ; les œuvres elles-même
sont stockées sur des serveurs distants, les immenses « fermes » des
grands acteurs de réseaux (volet « cloud »),
- big data : les données prennent le pas sur les
algorithmes au sens strict ; les grosses capacités de mémoire (au-delà
du tera-octet) sont désormais accessible même sur un
ordinateur portable ; même avec un budget modeste, un artiste peut se
constituer d’importants fonds, en utilisant une panoplie de moyens qui va du
téléphone portable au scanner en passant par les caméras haute définiton ; enfin, Internet offre une source immense
de textes, images, sons et films.
- deep learning : ce mode de développement s’est récemment illustré en dominant l’humain au jeu de Go, exploit jugé impossible il y a quelques années encore ; en simplifiant un peu ; les réseaux neuronaux sont au cœur de ces techniques, et l’adjectif « deep » lui-même est transposé de « deep neural network », c’est-à-dire réseau neuronal multicouches ; c’est sur ce dernier point que nous centrerons les lignes qui suivent.
3. Une nouvelle façon de développer
Le concept de réseau neuronal n’est pas plus nouveau que la programmation
traditionnelle, mais sa combinaison avec le big data induit
une manière sensiblement différente de développer et, point important pour l’art
numérique, une nouvelle forme d’autonomie, au-delà du hasard.
Dans l’informatique traditionnelle, données et programmes sont radicalement
séparés. Matériel et logiciel
constituent ensemble des « applications » qui ne sont pas modifiées
par les données qu’elles traitent. Le
développement consiste à formaliser les formats de données et les algorithmes
qui leur sont appliqués. Après quoi l’on passe à l’utilisation, les
applications n’évoluant qu’avec la prise en compte de nouvelles fonctions. Ce modèle transpose celui des machines
traditionnelles : un laminoir, un poste de télévision ou un
épluche-légumes ne sont pas modifiés par les matériaux qu’ils travaillent (sauf
évidemment l’usure et les accidents possibles dûs à
des matériaux non adaptés).
La structure des machines et des programmes est une traduction assez explicite de leurs fonctions, et un observateur compétent peut les comprendre (parfois difficilement, certes, dans le cas de programmes mal structurés).
Avec le deep learning, l’algorithmique
est relativement légère. Elle ne comporte (nous simplfions beaucoup les choses, certes) que deux fonctions,
qui seront répétées pour tous les neurones :
- la fonction d’agrégation, qui définit la sortie du neurone en fonction de ses
entrées, avec une formule de sommation, donnant des poids aux différentes
entrées (et implicitement donne donc la liste de ces entrées, c’est-à-dire des
neurones dont il reçoit les sorties) et une fonction de seuillage à partir de
la somme ;
- la fonction de correction des poids, en fonction du succès ou de l’échec de l’opération.
Le gros du travail va se faire dans l’apprentissage, en utilisant un fichier d’exemples, c’est-à-dire de résultats à donner en fonction d’une donné d’entrée. Au bout d’un certain temps (qui peut être très long). Au bout d’un certain temps, on considère que le réseau fonctionne correctement, et on arrête l’apprentissage. Une application particulière se caractérise donc par le tableau des poids.
Il y a alors deux différences majeures avec la programmation traditionnelle :
- on peut décider que la machine continuera indéfiniment à apprendre, et aura
donc la capacité de s’adapter des évolutions (mais il y a des risques de « surapprentissage), en ce sens la programmation n’est jamais
terminée
- à la différence des logiciels traditionnels, on n’aboutit pas à des
formulations algorithmiques qui, dans leur principe, parlent d’elles-mêmes sur
leurs fonctions, mais un tableau de poids difficile à interpréter, et d’ailleurs
pratiquement impossible à calculer à l’avance.
Pour l’artiste, le processsus est vraiment
différent. Il ne s’agit plus tant de trouver un algorithme, ou un ensemble d’algorithmes,
intéressants, mais
- de constituer une base d’exemples notés (bons pas-bons)
- de les faire traiter par un réseau neuronal.
Les arts de la performance entrent dans ce cadre : chaque spectacle est un ensemble d’entrées nouvelles, qui seront traitées adéquatement par l’artiste en temps réel.
On pourrait dire que ce mode de création est post-moderne, dans son caractère imprévisible, non totalemnet maîtrise, et potentiellement adaptable par le spectateur (la machine apprenant à le connaître, ses réactions aux œuvres proposées constituant de nouvelles entrées pour l’apprentissage).
4. Mieux que le hasard
Le recours au hasard est une caractéristique typique de l'art numérique et
plus particulièement génératif. C'est le trait qui
permet d'en faire remonter les racines au moins aux fiches à composer la
musique du père Kirchner, au XVIIeme siècle. Vers
1930, l'Oulipo l'a appliqué à la poésie et au
théâtre. Albert Ducrocq à la peinture au cours des
années 1950.
L'ordinateur a grandement facilité le recours au hasard, avec sa magique
fonction random(). Ce hasard algorithmique n'est pas parfait, mais
largement suffisant pour ceux qui n'ont pas l'esprit trop métaphysique. Reste
ensuite à trouver le bon équilibre entre hasard et nécessité, ou plutôt entre
hasard et règles de construction, qu'elles relèvent de modèles fonctionnels
(caractères qui définissent ce qu'est une automobile ou un cheval) ou de règles
esthétiques (les canons). Entre le chaos (écran "neige" d'un
téléviseur) et la nécessité (graphiques mathématiques), nombre de procédés
concourent à trouver les bonnes combinaisons.
- limiter "localement"
- intervention a posteriori : l'ordinateur produit un grand nombre de
solutions, l'artiste choisit celles qui correspondent à son projet esthétique
- intervention humaines en cours de processus, l'artiste procède par essais et
erreurs
- interventions automatiques en cours de processus : la machine génère des
formes au hasard, et leur applique des procédures de sélection, dans la mesure,
limitée mais non nulle, où les critères esthétiques peuvent se programmer.
Or cette indépendance a une double relation avec l'art et l’esthétique :
- elle créée l’imprévu
- elle fonde une certaine originalité, une in-copiabilité
fondamentale de l'oeuvre
- elle créer une forme incontestable de "présence".
Nombre d'oeuvres ont aujourd'hui montré la richesse de ces procédés. Mais commencent à montrer leurs limites. Comment aller plus loin ?
En s'interrogeant plus profondément sur la nature même du hasard. Cournot
(selon Wikipedia) nous propose une définition ici
féconde : la « rencontre de deux séries causales indépendantes".
Introduire le hasard dans le processus de création de l'oeuvre, ou mieux encore dans son fonctionnement même, si elle est "mobile", c'est donc faire émerger, en tous cas dans la subjectivité des auteurs et/ou des spectateurs, une cause indépendante.
Au-delà d’un hasard «gratuit », d’une forme de liberté qui n’est que celle de l’adolescent qui « se pose en s’opposant », proposont une autonomie basée sur la richesse « intérieure » de l’œuvre ou du programme qui l’a fait naître. Cette richesse est désormais permise du fait du big data. Le tout est de s’en servir intelligemment. De convertir une « culture » en vrac, une « tête bien pleine », par une organisation de cette richesse en fonction d’un objectif artistique particulier, fût-il seulement le plaisir d’un spetateur particulier.
Dans Roxame.2 cette construction va se faire à partir d’une reqûete en deux parties : un thème et un format.