Common nouns | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z
Proper nouns A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z| HOME

Les Algoristes

Pierre Berger

Introduction

Après avoir défini ce qu’est un algoriste et un algorithme, nous présenterons la panoplie des algorithmes actuellement mis en œuvre : le passage progressif de la formule à l’œuvre et à sa présentation dals le monde réel, et les remontées de ce monde vers les algorithmes.  Formant le nœud central de ces deux mouvements,   nous montrerons que l’ « autonomie » est au cœur de la démarche, voire de la psychologie des algoristes. Enfin, nous situerons concrètement les algoristes dans le monde de l’art d’hier, d’aujourd’hui et peut-être de demain.

Définitions

Qu’est-ce qu’un algoriste ? Le terme a été créé en anglais par le français Jean-Pierre Hébert, fondateur du groupe informel « The Algorists ». Il le définit comme  "a group of digital artists who create works of art in a way that includes a process based on their own algorithms".  Charité bien ordonnée commençant par soi-même, il précise [Algorists]

if (creation && object of art && algorithm && one's own algorithm) {
     include * an algorist *
style='background:#F8FCFF'>} elseif (!creation || !object of art || !algorithm || !one's own algorithm) {
style='background:#F8FCFF'>     exclude * not an algorist *
style='background:#F8FCFF'>}

Le groupe américain reste informel et compte une douzaine de compagnons. En 2006, le mot est repris par Pierre Berger et Alain Lioret qui lancent une association de droit français « Les Algoristes » [Algoristes] avec la bénédiction de Jean-Pierre Hébert.

Dans cette définition, deux mots posent question : artiste, algorithme.

- Qu’est-ce qu’un artiste ? La littérature est immense, relevant pour une part des conceptions esthétiques. Nous n’entrerons pas dans ce débat théorique. En revanche, d’un point de vue pratique et sociologique, Pierre-Michel Menger vient de lui consacrer un gros ouvrage de synthèse « Le travail créateur. S’accomplir dans l’incertain » [Menger]  et nous consacrerons la fin de ce chapitre à la vie concrète des algoristes et de leurs coopérations.

- Qu’est-ce qu’un algorithme ? Nous allons proposer préciser une définition terme, tenant compte des développements actuels de l’informatique et adaptée à la compréhension du travail des algoristes.

Qu’est-ce qu’un algorithme ?

Selon un mot de Xavier Gouchet (secrétaire des Algoristes)  le concept d’algorithme a « un cœur pur et des bords mous ». Au sens originel, un algorithme est une méthode mathématique, par exemple celle que l’on apprend à l’école pour diviser les nombres entiers : « écrire le dividende à gauche et le diviseur à droite, tracer deux traits en forme de potence, chercher le premier chiffre du quotient en le multipliant par le diviseur, le soustraire au plus haut du dividende et obtenir un premier reste, et itérer jusqu’à obtenir un reste plus petit que le diviseur… ». Au sens le plus étroit, il se confond aujourd’hui avec le terme de procédure informatique (voir par exemple   [Aho] [Harel]). Au sens le plus large, tout procédé descriptible par un texte peut être considéré comme un algorithme, par exemple une recette de cuisine, un itinéraire routier, une partition musicale, les règles de la versification poétique [Balpe], voire le style d’un auteur découvert à partir de ses œuvres [Raynal].

Wikipedia reprend la définition du Dictionnaire de la langue française : « Suite finie de règles opératoires à appliquer dans un ordre déterminé à un nombre fini de données afin d'effectuer un calcul numérique en un nombre fini d'étapes, par exemple les divisions en arithmétique. »

Le dictionnaire de l’Internaute propose « Processus constitué par un ensemble d'opérations et de règles opératoires données pour un calcul »

Enfin, le Robert historique explique  « Le mot a d’abord désigné l’arithmétique élémentaire et ses règles. Il s’est spécialisé au XIXe siècle au sens de « suite de règles opératoires explicites » avec une diffusion importante après 1960, grâce à l’informatique. »

 

Un algorithme est une suite de règles opératoires explicites

C’est cette dernière définition que nous retiendrons, considérant (mais on peut en débattre) :

- qu’un algorithme n’est pas à proprement parler un processus, mais plutôt la spécification d’un processus ;

- que la précision de finitude n’a pas grand intérêt, puisque une règle opératoire peut induire une itération infinie (while(true) do{…} ) ;

- que la généralisation de l’informatique à toutes sortes d’applications ne légitime plus une restriction du concept au « calcul numérique » ; rappelons d’ailleurs qu’aux origines de l’informatique, et avant la création du mot ordinateur, on parlait de « calculateurs » et même de « machines arithmétiques » [Boucher].

En revanche, il faut ouvrir le dossier des relations entre « algorithmique » et « digital », car il sous-tend la question de portée esthétique : « Un art algorithmique débouche-t-il nécessairement sur des pixels ? ».

Un algorithme est fondamentalement digital. Une « suite  explicite de règles », c’est en pratique un texte, donc une suite de phrases, donc de mots composés de caractères que l’on peut coder par des bits. On fait évidemment abstraction des modes de présentation du texte : typographie et grain du papier s’il est écrit, prosodie et timbre de voix s’il est oral.

En revanche, la réalisation de l’algorithme, en particulier quand il s’agit d’une œuvre d’art, débouche sur un résultat qui peut être très peu digital. Cela dépend du dispositif de réalisation, de l’espace dans lequel il opère et du degré de matérialisation de l’œuvre.  Prenons deux cas extrêmes :

- cdc658, de Christian de Cambiaire est une œuvre graphique générée abstraitement par un code  et présentée sur un écran ou sur une imprimante à jet d’encre ; elle peut être considérée comme totalement digitale, si l’on ne tient pas compte du bruit ou des caractéristiques propres au matériel.

- N+1, de Stéphane Trois Carrés,  est  œuvre de performance définie par un algorithme, mais mise en œuvre par toutes sortes d’artistes performeurs (musiciens avec des instruments acoustiques,  acteurs, chanteurs,  danseurs) elle  n’est digitale que dans son concept, bien que sa réalisation fasse appel à des dispositifs informatiques assez imposants.

Sur cette ligne, un être vivant peut être considéré comme la réalisation de l’algorithme représenté par son code génétique. Mais on a pris conscience aujourd’hui (voir par exemple [Atlan]) que l’ADN n’est qu’une des composantes de la transmission de la vie, que le cytoplasme joue lui aussi un rôle considérable. A fortiori, pour les êtres humains, l’algorithme génétique n’est qu’un germe qui s’épanouira dans des milieux de plus en plus larges : sein maternel, famille… jusqu’à atteindre l’universalité kantienne du monde global.

http://babiloff.free.fr/projets_09/nplus1_fdl.html

 

Exemple d’une œuvre globalement algorithmique : « N +1 » de Stéphane Trois Carrés

(avec la coopération d’Alain Longuet)

 

L’oeuvre n+1 de Stéphane Trois Carrés est fondamentalement algorithmique, et son titre n’est pas une publicité mensongère. L’idée est de filmer une série de séquences vidéo, chacune de deux minutes, avec à chaque séquence des performeurs différents… en projetant en arrière la séquence précédente, et donc en fait toute la série des séquences précédentes, s’éloignant dans le lointain comme dans un couloir infini.

 

Cela pourrait se formuler par l’algorithme :

 

séquence.n (filmée)=  a.séquence (jouée)  + b(séquence n-1), avec a +b = 1 ; 

 

a représente la proportion qui est conservée de la nouvelle séquence, c'est-à-dire son premier plan, uniquement les performeurs et leurs accessoires,  b la proportion qui est conservée de la séquence précédente, qui est réduite :

- par la perspective

- par la perte de définition et de contraste  jouant de facto le rôle d’une perspective aérienne dans un paysage classique. L’auteur n’avait pas pensé à traduire son algorithme sous cette forme mathématique particulière, mais elle l’intéresse cependant a posteriori. Il note, sur la perte de définition, qu’il ne l’a pas volontairement recherchée, mais qu’il « accueille l'entropie du système avec joie, comme une preuve de la force du réel. ».

 

Cet algorithme est une forme de lissage exponentiel, algorithme utilisé dans le traitement des « données longitudinales » (dites aussi séries chronologiques), pour les régulariser et en tirer de meilleurs prédictions.  Le degré de lissage est réglé par le rapport des paramètres a et b. Si a était nul, on conservait toujours la valeur d’origine, si b était nul, on ne conserverait rien des valeurs antérieures.

 

Cette formule garantit que le système ne peut ni se bloquer ni exploser ; il peut même digérer sans grand mal des événements relativement hors norme.

 

Le prix à payer pour cette sécurité est qu'un bouclage positif ne peut pas s’amorcer, il ne peut pas y avoir émergence. Ou du moins l'émergence est-elle limitée à la capacité inventive de chaque équipe de performeurs, en partie tout de même renforcée par les mélanges étranges avec ce qui s'est passé avant. L’artiste commente « En effet je ne souhaite pas que le système puisse produire trop de liberté... L'émergence reste la responsabilité du protagoniste. Imagine que c'est un laboratoire de physique, c'est une chambre à gaz parfait... Je veux contrôler un minimum le rôle du système... C'est pour cela qu'il est simple. »

 

Un observateur extérieur, au tempérament algorithmique, se dit qu’il  serait intéressant d'avoir :

- un algorithme plus multiplicateur, donc avec risque/chance de divergence/émergence, 

- complété par un (des) algorithmes de recentrage quand on approche des "limites de l'épure".

A quoi l’artiste répond « J'y ai pensé, plusieurs diffuseurs par exemple... dans les beta test en super 8 que j'ai fait, c'était ainsi, mais cela ressemblait un peu au "manège enchanté" (c'est joli).
Mais l'algorithme  de recentrage ressemble toujours à une volonté discrétionnaire de l'expérimentateur car on l'active quand le système diverge, alors cela devient du roman... L'auteur devient trop responsable de la dynamique du système ».

 

A l’inverse, Mains4 (Pierre Berger, 1992) , utilisant à main levée le Painter de Windows, est indubitablement digital, mais peu algorithmique, et certainement pas algoristique.

Le concept d’algorithme et son environnement sémantique

Ce cadre une fois posé, on peut situer le concept d’algorithme par rapport à d’autres concepts proches.

La définition ne donne aucune limite de longueur ; on peut donc considérer comme algorithme : partition musicale, chorégraphie, scénographie, storyboard (pour la partie non dessinée), et bien entendu, programme et logiciel, voire bibliothèque de programmes ; en pratique, on n’emploie guère le mot algorithme au-delà de ce qui correspond, en programmation à une fonction (ou procédure, pour ne pas peiner les puristes).

Une assertion, ou un ensemble d’assertions, ne constitue pas un algorithme ; mais il suffit de peu de choses pour passer de l’un à l’autre ; par exemple,  une équation ou un système d’équations sont souvent considérés comme le moyen d’obtenir leurs racines, au moyens d’algorithmes appropriés de résolution ;  (sur les relations profondes entre formules mathématiques et algorithmes, voir [Cox]).

Plus généralement , on passe du « déclaratif » (des assertions)  à l’impératif (des instructions)  au moyen d’un moteur approprié (moteur d’inférence, solveur…). Sauf cas particulier, le passage d’un ensemble d’assertions un peu conséquent à un processus séquentiel pose des problèmes (trop peu d’informations, ou informations contradictoires) que le moteur devra résoudre (voir autonomie).

Un schéma, un « petit croquis » est il un algorithme ? [Gombrich] en traite assez longuement ; c’est peut-être une fausse question, car un schéma est par définition simple, et doit donc pouvoir se dessiner en quelques instructions d’un logiciel graphique 2D quelconque ; il n’est pas évident pour autant qu’il sera utilisable comme algorithme par un ordinateur, mais c’est une autre affaire.

 Plus profondément, cela conduit à s’interroger sur la différence entre « vectoriel » et « bitmap ». Les deux modes de codage d’une image sont algorithmiques, mais dans le cas du bitmap, on a affaire à une forme en quelque sorte dégénérée, où la suite de règles se réduit à une liste de pixels assortis d’une valeur (couleur, en général).  Il en va de même pour les fichiers musicaux, .wav ou .mdi.  On rejoint ici les discussions, classiques en mathématiques, opposant algèbre et géométrie. Lang (reproduit ici d’après [Berger M 01]) est on ne peut plus clair :

Algorithme et quantité ; une règle peut être quantitative : prendre tant de fois un motif, de telle dimension et dans telles proportions.  Tout un volet de l’algorithmique, important mais en général peu cité explicitement, touche aux nombres, aux proportions, à la métrique. Ce sont les « canons ». Dans les travaux des algoristes, ils ne sont en général pas explicités, ils feraient plutôt partie des secrets de fabrique, si l’on excepte évidemment le fameux nombre d’or, ou les évidences, en vidéo, sur le nombre minimum de vues par seconde. Voir  [Vitruve][Elam][Funck-Hellet].

Un algorithme n’est pas nécessairement  abstrait.  Certes, au départ, un algorithme était une méthode arithmétique, abstraite par définition ; c’est l’utilisateur (humain) qui l’appliquait à des problèmes concrets.  Avec notre définition, rien n’empêche qu’une règle soit très liée au concret « allume maintenant, là où tu es,  la webcam et prends une vue sur la gauche de l’ordinateur » ; en outre, les mémoires de l’ordinateur peuvent comporter de nombreux documents portant sur des objets concrets, des personnes bien définies, dans le temps, dans l’espace  et dans la richesse même de leur personnalité.

Les relations entre algorithme et « essence »  relèvent de l’épistémologie fondamentale,  voire de la métaphysique. Aussi bien la recherche de « lois » que d’ « algorithmes » tend à induire que, sous l’immense quantité d’information que nous percevons (disons « phénoménale », par exemple l’ensemble des informations élémentaires envoyées par la rétine au cerveau) se « cachent » des essences pures et simples, immatérielles peut-être, en tous cas non spatialement déployées, tout en étant capable de contenir une complexité infinie, les idées pures [Platon] ou les monades  [Leibniz]. Derrière l’algorithme, il y aurait l’esprit de l’algorithme, l’intention du législateur, l’opposition entre la loi et l’esprit chère à Saint Paul (2 Corinthiens 3, 6,). Ces essences pures sont bien tentantes car :

 

-  elles pourraient se réduire, s’identifier à leur définition (notamment par le genre et l’espèce, dans la tradition aristotélicienne), comme en mathématiques,  et par là se prêter directement aux jeux de la logique ;

- elles se situeraient au-delà des langues particulières ; il y aurait un « mentalais » derrière le français et l’anglais.  La question est largement débattue, en particulier avec Wittgenstein (de lecture difficile, donc un premier contact est recommandé par exemple sur Wikipedia), mais aussi d’une autre manière avec [Lacan] ;

- de l’esprit et de l’idée pure  on passe insensiblement à l’idéal moral. Le « canon », par exemple les formes idéales du corps humain, a un caractère à la fois descriptif (comment dessiner une personne) et moral ou pratique (« attention au surpoids ») ;

- de là on passerait même à la toute puissance magique des mots : « Dieu dit « que la lumière soit » et la lumière fut » [Genèse 1, 14]. 

Nous nous garderons bien d’entrer dans ces débats, que Les Algoristes ont d’ailleurs exclus de leurs débats, car il sont rarement féconds. Il n’est cependant pas possible de s’en désintéresser tout à fait.  [Gombrich], dans « Art & illusion), y consacre de longues pages, très proches de nos centres d’intérêt.  Jean-Marie Schaeffer aussi, à propos des « esthétiques spéculatives »  [Schaeffer JM]. Au fond, il fait partie du tempérament algoriste d’aimer cette magie  qui transforme quelques lignes de code en surprenantes images … au prix certes de studieuses et patientes heures de travail, quand même. En quelque sorte, les informaticiens et les  algoristes en particulier sont des alchimistes qui ont réussi. Enfin, la miniaturisation exponentielle des circulits électroniques tend à les faire percevoir comme pratiquement immatériels, a fortiori les logiciels et fichiers qui circulent sur les réseaux.

Les lois « scientifiques » se transforment en algorithmes quand elles sont mises en œuvre par des ingénieurs ;  l’informatique distinguait autrefois l’analyse fonctionnelle, qui commençait essentiellement par la description du système existant à automatiser, suivi d’une description du système cible, pour passer ensuite à l’analyse organique, on dirait aujourd’hui le développement, c’est à  dire le passage de la description au système opérationnel.  

Il y a peut-être des limites  et l’on ne peut négliger la protestation élevée par Bailly et Longo , même s’ils semblent confondre algorithmique et digital. Ils écrivent en effet, dans leur ouvrage [Bailly]  « Il n’est pas vrai, en général, que, pour une trajectoire donnée par voie analytique (continue), l’ordinateur peut toujours l’approximer ».  Et avancent en ce sens d’impressionnants arguments. Mais ils semblent ici  limiter l’ordinateur au calcul numérique ordinaire, sans prendre en compte les possibilités du calcul formel. Avec ce dernier type d’outil, on voit mal quel type d’approximation serait moins accessible à l’ordinateur qu’à un calculateur humain.  A fortiori, bien qu’elle prolonge par exemple les réflexions d’un Atlan, on peut trouver excessive, ou de nature extrascientifique, leur affirmation « Avec l’identification entre algorithme et loi, on fait un pas en arrière… le mythe de l’Univers-ordinateur (le génome, l’évolution, le cerveau… tous gouvernés par des algorithmes) revient à une métaphysique et à une notion de détermination qui précède la science du XXe siècle ». Ceux qui voudraient approfondir pourront lire le débat publié par Intellectica, entre Longo d’une part et de l’autre F. Doritod et M. Panza [Intellectica]

Ce même type de question sur les limites du digital, appelant les mots « virtuel » et « artificiel »  est abordé par [Powers] dans son roman “Plowing the dark”, qui décrit longuement l’ambiance d’une équipe d’art numérique, et la déception de certains de ses membres “ as she walked, the high-resolution, water-lapped horizon swelled and filled, without pixilating or dropping frames. She swung her head side to side, and life tracked her pan seamlessy. The piers, Aki Point, Pike Place Market : all appeared to her astonishingly solid, with fantastic color depth, and no trade-off between realism and responsiveness. When the sun chiseled its way through a chink in the stratocumulus and, for fifteen seconds, blazed the cityscape into higher contrast, Adie discovered the real use of binary. The greatest value of the clumsy, inexorable, accreting digitization of creation lay in showing, for the first time, how infinitely beyond formulation the analog would always run. L’auteur connaît très bien son sujet, et ses descriptions sont impressionnantes bien qu’un peu datées (il a été écrit en 2000) dans un monde qui change si vite. Et puis, hélas pour nous, cela se termine bien mal, du fait de l’attentat du 11 septembre.

La loi, au sens juridique, comme le droit positif dans son ensemble,  est un ensemble d’assertions et de règles opérationnelles. Elle peut donc aussi être considérée comme un algorithme ou un ensemble d’algorithmes ; en principe, il ne peut être appliqué à des êtres humains que par d’autres êtres humains (ce point est d’ailleurs explicité par loi française « Informatique et libertés » de 1978)  ; le droit se pratique aussi en suivant un ensemble de procédures bien définies, de « protocoles » dont le respect est essentiel (codes de déontologie) et dont l’application ne peut ni ne doit être totalement automatisée. On l’a vu par exemple avec les radars routiers.

Et finalement, un critère esthétique peut-il être formulé sous forme algorithmique et donc programmé ?  Beaucoup répondent, dans la ligne kantienne : en aucune façon. « Le jugement de goût repose certes sur une règle… mais cette règle est non formulable et subjective » [Schaeffer JM]. Nous répondrons :

- que tout algorithme, du fait même de son écriture, implique des choix et est donc en lui-même porteur de critère : « il faut faire ceci plutôt que cela », autrement dit « ceci est meilleur que cela » et, si l’on considère (en dépit de la vulgate actuelle en la matière) que la beauté est l’objectif que poursuit tout artiste « ceci est plus beau que cela » ;

- que cela n’est pas contradictoire avec un certain respect pour la transcendance de chaque personne ; comme le dit un animateur du Musée du vin à Paris : « Chacun a son propre parcours en matière de vins ». Pour autant on ne se prive pas, à table, d’en mesurer la température,  et, au chai, depuis la mise en fermentation jusqu’aux phases finales de l’élevage, de procéder à de nombreuses mesures (acidité, taux de glycérines…) selon des « règles opératoires » tout à fait précises.

Comme le dit [Millington]  l’on obtient souvent de bons résultats avec des algorithmes assez simples (quelques agents et un peu de tirage au sort dans le jeu Pacman, par exemple) . En matière d’œuvres graphiques, un certain nombre d’évidences se dégagent. Un écran tout blanc ou tout noir ne peut être présenté comme œuvre d’art… qu’une fois, pour amuser le public. Il faut qu’il y ait « quelque chose », un minimum de « substance » sur l’écran (voir plus loin sur la  manière de l’évaluer).

De tels critères peuvent être utilisés aussi bien :

- en fin de travail pour faire un premier tri parmi une série d’images générées automatiquement ;

- en cours de travail, pour aller vers un « optimum » en simplifiant les images trop « complexes » ou en ajoutant de nouvelles formes ou textures aux images trop « simples ».

- Algorithme et progrès des arts : à partir du moment où les règles sont explicitées, elles peuvent être stockées ; il n’y a donc pas de régression, sauf accident, et tout travail d’un algoriste apporte de nouveaux éléments, de nouvelles richesses, ne serait-ce que par contestation dialectique de l’existant ; il y a donc nécessairement une certaine forme de progrès… à condition que les algoristes publient et documentent suffisamment leurs travaux, ce qui hélas n’est pas tellement le cas. L’art algorithmique n’est ici qu’un cas particulier du mouvement naturel des technologies, dans la lignée des analyses de [Leroi-Gourhan] sur la parole et l’outil, aussi bien que de [Simondon] sur les « objets techniques ». Ce progrès, disons cette progression, ne préjuge rien au niveau du transcendant.

Concluons sur ce qu’on pourrait qualifier de méta-algorithmes : du fait même qu’il s’agit de textes, des algorithmes peuvent s’appliquer à d’autres algorithmes notamment dans les cas suivants :

-  un algorithme, ou un ensemble d’algorithmes, peut s’appliquer à la génération ou à la transformation d’algorithmes. C’est le cas des interfaces homme-machine, des interpréteurs et compilateurs, et plus généralement des grammaires et des syntaxes « génératives » ;

- un algorithme peut toujours (à ma connaissance) être remplacé par un mot unique utilisé à un niveau supérieur, dans des macro-instructions et plus globalement dans des bibliothèques et langages de programmation ;

- certains algorithmes peuvent s’appeler eux-mêmes ; c’est la récursion, qui est le cœur même du fonctionnement des ordinateurs [Smith] et qui n’est pas sans connotations philosophiques, l’ « aseité » étant aussi au cœur de la théologie « rationnelle » [Aquinas], notamment des preuves de l’existence de Dieu : la chaîne des causes (efficientes en particulier) ne peut être infinie, il faut donc postuler un terme qui soit cause de soi-même, et que l’on appelle Dieu (Pars prima, questio seconda, articulus tertius). ; on pourrait essayer de faire, avec un ordinateur équipé d’une webcam, étudier l’apparition d’un « stade du miroir » comme pour la progression des enfants (en attendant de procéder scientifiquement, on peut toujours tourner une webcam vers l’écran ; on obtient des « effets Larsen » parfois fort plaisants et, en tout état de cause, difficiles à prévoir)) ;

 

-  l’apparition des virus à la fin des années 1980 et les charmes de la « vie artificielle » ont donné toute leur portée à cette question et les algoristes n’ont pas été les derniers à s’y intéresser ; cette forme de vie artificielle, hélas fort apte à survivre dans la marmite des réseaux informatiques, a même des racines théoriques profondes, puisqu’on prouve mathématiquement qu’il est impossible de construire un antivirus universel !

Mais il est temps de passer à notre deuxième partie, et de voir plus en détail quels algorithmes sont utilisés en art ou, si l’on préfère, comment ils se déploient, à partir de leur formulation, dans les espaces qui leur sont ouverts par les arts plastiques et de performance.

Des algorithmes aux œuvres et au monde réel

De l’algorithme aux images

Les générateurs de forme sont les plus typiques de l’esprit algoriste traditionnel. On n’a au départ rien d’autre que des formules, pour tracer des points, lignes, formes de plus en plus complexes : rectangles, triangles, ellipses, arcs d’ellipses, splines, points de Bézier etc. Parmi les premiers, on peut citer le célèbre Bresenham, pour tirer des lignes droites d’un point à un autre dans un espace de pixels. On trouvera une bonne base de formules  pour cette catégorie dans le classique [Foley].

Ces formes peuvent être spécifiées de plusieurs manières. La plus classique est de se référer à un rectangle ou parallélépipède  dont on donne les coordonnées des sommets opposés. Viennent s’y inscrire les lignes (en diagonale) ou les courbes.  Restera alors, si cela est souhaité, à remplir (fill) ces formes, ce qui  n’est pas trivial à programmer si la forme est complexe.

Bien d’autres approches peuvent être plus intéressantes que ces points extrêmes. Par exemple, on peut définir le rectangle par la position de son centre, ses dimensions globales (de très petit à très grand) et ses proportions (depuis une ligne complète de haut en bas jusqu’à une ligne complète de gauche à droite, en passant par différents degrés de « largeur »).

La couleur, à première vue, est quelque chose de très simple. Tous les enfants vous le diront. Et dans la plupart des cas, en ce qui concerne les algoristes,  sa génération se contente d’un ensemble de trois nombres entiers, ou de 24 bits, pour fournir les trois composantes utilisées par les écrans comme par notre rétine : le rouge, le vert et le bleu. Plus naturels pour les artistes, trois entiers encore, l’espace de Munsel  HSV  (hue saturation value), avec quelques variantes.

Derrière cette simplicité se cache une double complexité :

- celle de la matière physique et de qu’elle fait subir aux photons, thème fouillé en détail par exemple par [Callet] ;

- celle de notre rétine et plus encore de la part considérable de notre cerveau consacrée à la vision (voir par exemple [Gazzaniga] et plus précisément [Pylyshyn]).

Cela a conduit à la normalisation de modèles plus complexes, notamment ceux du CIE (voir wikipedia).  A ma connaissance, les algoristes ont peu exploré ce type d’espaces, alors que des travaux dans cette voie avaient joué leur rôle dans les travaux des postimpressionistes.

Outre la couleur, le tracé d’un trait est le plus souvent modulé par différents paramètres qui spécifient l’épaisseur, mais aussi le  style, avec des « pinceaux » qui peuvent être simples (pointillés, tirets) mais aussi très complexes, par report de formes élaborées (Gouchet dans Alkwarel). 

Une image peut aussi être composée à partir de plusieurs images, soit par simple mélange (blending) ou par insertion (inlay), mais aussi avec toutes les ressources du compositing.  Voir là-dessus surtout [Brinkmann], mais il y a beaucoup de précisions, plus mathématiques, dans [Agoston].

Pour obtenir des résultats satisfaisants malgré la gêne de pixels peu élégants, ont été développés des algorithmes d’anticrénelage (anti-aliasing).  Il existe aussi des algorithmes de « smoothing », qui arrondissent les angles. Ou encore des générateurs qui réduisent la raideur de la ligne droite par différents procédés en partie aléatoires. Cela permet de donner un effet plus naturel, de « main levée », voire d’un certain délire.

Le 3D, inspiré  par la conception « par éléments finis » [Akin], inspiré aussi par la topologie, a conduit à la modélisation abstraite par les complexes simpliciaux (voir par exemple [Zomorodian] ou [Agoston].  Pour le 3D, les formes peuvent se construire avec des complexes simpliciaux (voir par exemple [Zomorodian]  pour un exposé bref, ou [Agoston]  pour plus de développements).  Ici, le maniement des outils, a fortiori le développement d’algorithmes nouveaux, exige des compétences et des moyens qui ne sont pas  à la portée de tous les algoristes.

Quand on dispose d’une image, on peut la transformer en une autre image sans apport d’information externe. C’est ce qu’on appelle un filtre. Les outils du commerce en proposent de nombreux. Certains sont  faciles à écrire soi-même, ne serait-ce que pour le plaisir (passage de la couleur au noir et blanc, négatif, convolutions (par exemple le flou)  et déconvolutions (par exemple le  « sharpening »). 

Des ensembles de lignes ou de surfaces peuvent être programmés pour fournir des modèles plus ou moins élaborés d’objets de types connus (avion, automobile, vêtement, mais surtout le visage et le corps humain). Le marché propose pour cela des  logiciels particuliers comme les « posers », qui peuvent aller très loin dans le détail et la qualité  Voir [Thalmann]. En France, le Cirad a développé des modèles de végétaux qui se prêtent à d’intéressants effets artistiques.

Ces objets peuvent être eux-mêmes animés, avoir des « comportements » en réaction à tel ou tel stimulus. Ce type d’algorithme est essentiel pour le développement des jeux, par exemple (voir  [Co] ).  Les « personnages sans joueurs » (NPC, non player characters) font appel aux algorithmes de l’intelligence artificielle. On les appelle d’ailleurs souvent des « AI », tout simplement (voir  [Millington] ou, plus ancien [McFarland]  ). Ils peuvent aussi avoir forme humaine, ou humanoïde,  des visages expressifs (exemple remarquable du film WallE, ou des robots de Carnegie-Mellon et du MIT, voir [Breazeal]). [Thalman] est entièrement consacré à la modélisation des « humains virtuels ».

Enfin, ces objets plus ou moins schématiques seront habillés et mis en scène par un « rendu » (rendering), avec génération principalement :

- de l’éclairage (shading, radiosity, raytracing) ;

- de la texture de surface (rendering). Ces textures peuvent être obtenues par photographie d’objets existants, soit par pur calcul (rendu procédural, voir surtout [Ebert]).

Un grand nombre de travaux de recherche portent sur la modélisation toujours plus convaincante d’objets complexes, mous, semi-transparents. Ici, les Actes annuels du Siggraph, d’Eurographics ou de l’Afig sont éloquents.

Les textures sont relativement peu explorées par les algoristes … encore que l’un des principaux contributeurs de [Ebert] n’est autre qu’un membre du groupe « The Algorists », Ken Musgrave.

Ces gains en expression et en réalisme finissent par rencontrer un mur, ou plutôt une sorte de précipice troublant, qualifié de « uncanny valley » par le roboticien japonais Masahiro Mori dès 1970 [http://en.wikipedia.org/wiki/Uncanny_valley] : à un certain moment, le moindre désaccord entre l’image et l’idée que l’on se fait de la réalité représentée devient gênant. A basse résolution, le personnage d’un jeu vidéo n’a pratiquement pas d’yeux. S’il commence à être soigneusement représenté, avec un visage détaillé, il devient indispensable que les yeux correspondent aux comportements du personnage, aux menaces qu’il affronte, etc.

Se pose alors  le problème de la violence des images : on peut tuer en riant de petits pantins à quelques pixels. Ce n’est plus anodin si l’écran présente un gros plan du visage de l’adversaire, de l’impact des coups etc.

Le développement des algorithmes conduit donc naturellement au développement de langages, avec des grammaires et des dictionnaires toujours plus riches :

- structures de construction : organes de contrôle, sous-programmes, objets…
- dictionnaire de fonctions, mais aussi de paramètres (positions, couleurs), d’objets abstraits (« maison ») ou de documents relatifs à des objets concrets (« ma maison », à telle adresse, à telle date, voire maintenant, s’il y a un webcam branchée). 

De l’algorithme au  texte

L’œuvre peut être un texte, et l’emploi d’algorithmes n’est pas nouveau. Citons en particulier l’Oulipo et la machine Calliope [Ducrocq]. Plus récemment, c’est Jean-Pierre Balpe qui a surtout exploré ce domaine.  Les règles de création textuelle étaient autrefois enseignées sous le nom de rhétorique. En France, les formations littéraires se gardent bien d’apprendre à écrire, et se limitent à la connaissance de la littérature existante. Il n’en est pas de même dans les pays anglo-saxons.

Le prosateur n’a en principe pas d’autres règles à respecter que la grammaire. Il en va autrement pour le poète, au moins le poète traditionnel qui doit se plier aux règles et à la métrique de la versification. En revanche, il peut se permettre d’assez larges libertés par rapport à la grammaire (et même du dictionnaire) pour en obtenir des effets sonores ou sémantiques. [Leech] analyse ce point en détail et ses idées pourraient sans doute s’appliquer à la peinture. Sur la génération automatique de discours, voir par exemple le texte humoristique, mais bien documenté sur la sociologie de l’époque « Le Littératron » [Escarpit]. 

Calliope, le premier générateur de poésie totalement automatique

 

Albert Ducrocq, journaliste et ingénieur, a réalisé au début des années 50 la machine Calliope (toujours en fonctionnement).  Le dispositif matériel est simpliste : une lampe qui s’allume ou non de manière aléatoire. Cette série binaire est ensuite traduite en langue naturelle par des algorithmes appropriés.

 

 « Sera-t-il possible, par ce subterfuge, de créer un style "à la manière de" ? Par exemple, peut-on produire artificiellement un texte ressemblant à du Bossuet, du Chateaubriand ou du Proust ?

 

Nous croyons assurément en une telle possibilité dès l’instant où précisément les œuvres des écrivains auront été analysées logiquement, de telle sorte que l’on aura pu dégager leur matrice d’expression pour fournir au transcripteur une matrice élaborée sur le même modèle. On obtiendra alors des textes de Bossuet ou de Chateaubriand parlant des sujets que ces auteurs aimaient traiter. Mais si – au prix d’une légère déformation de la matrice – on introduit des conditions supplémentaires, on pourra obtenir  des discours traitant d’un sujet déterminé au point d’obtenir un écrit de Napoléon parlant des bicyclettes – en pur style Napoléon – aussi bien que des réflexions de Cicéron sur l’aviation et le moteur à réaction.

 

Quelque peu déroutante au premier abord, une telle perspective n’a rien qui doive surprendre. Toute l’œuvre des écrivains disparus ne tient en effet qu’en des mots, ou plutôt – car ces mots furent employés universellement en bien d’autres occasions – en l’établissement de connexions déterminées entre ces mots, leur mérite étant d’avoir su incarner leur pensée au moyen de telles connexions, la matrice d’expression qu’ils nous ont laissée ayant ainsi une valeur intrinsèque dont le véritable cadre serait celui du langage absolu. Or, l’immortalité de leur œuvre n’apparaîtra que plus extraordinaire si elle peut être prolongée au moyen de la machine. Bien plus : nous pensons qu’il sera un jour possible d’intégrer toutes les matrices d’expression des penseurs de tous les temps dans un vaste système, les différentes expressions consignées étant la description de mêmes vérités vues sous des référentiels différents.

 

Mais avec Calliope, rien n’interdit d’aller au-delà de ce domaine de la pure littérature artificielle où nous nous sommes jusqu’ici cantonnés. On peut en effet demander aussi bien à la cellule de hasard de fournir les éléments d’une situation à partir de laquelle le romancier n’aurait qu’à laisser divaguer sa propre imagination. Par exemple, la cellule de hasard repèrera un lieu sur une carte, n’importe où dans le monde, comme elle inventera les personnages d’une famille, leur caractère et l’intrigue… et il ne restera plus à l’auteur – s’il veut quand même faire œuvre personnelle – qu’à utiliser ces éléments. »

 

[Ducrocq] cité par http://quellesnouvelles.over-blog.com/30-index.html

 

 

Un texte typographiquement imprimé est une image d’un type particulier. Parmi les algorithmes nécessaires : polices de caractères, mise en pages. Des effets graphiques et sémantiques puissants peuvent en découler.

Intégré à une image « réaliste »  (paysage, nature morte), le texte a une présence particulière, du fait qu’il n’a pas d’échelle déterminée (sauf si on simule une page de journal, par exemple). En outre, un texte est toujours écrit dans une certaine langue, ce qui limite le public capable d’apprécier l’image directement, sans traduction.

Plus généralement, l’assemblage de texte et d’images, pratiqué par la bande dessinée et tout simplement par la presse et les médias audiovisuels sont largement algorithmiques. Mais il n’est pas d’usage de considérer l’image télévisée, et a fortiori les spots publicitaires, comme relevant des beaux-arts.

De l’algorithme à la musique

La musique est algorithmique dans son principe même : une partition peut être considérée comme une suite de règles. Le fait est exploité par la norme Midi. Elle et d’ailleurs profondément digitale aussi, pour la plupart des instruments. Le « clavecin bien tempéré » implique une double digitalisation

- physique, avec le clavier

- structurelle avec les gammes.

Certes, il y a bien des instrument « continus » : le violon n’a pas de barres pour déterminer les notes, et se prête à des « glissandos », la voix humaine a fortiori. Mais ces effets restent rares.

L’emploi des algorithmes ne s’arrête pas à ce niveau élémentaire. Le rythme est lui aussi digital par principe, marqué par les barres de mesure et des indications métronomiques. Le temps du chant grégorien, qui laissait une grande liberté à l’interprète, appartient au passé. Mais le public n’en est pas forcément conscient (« Je croyais que le chanteur n’avait pas à suivre la mesure, que les musiciens suivaient » a récemment raconté un artiste à propos de ses débuts).

La génération « automatique » de musique par des algorithmes remonterait à Mozart. Jules Verne y fait allusion [Verne].[Schillinger] en a formulé les principes dans les années 1930. La musique sérielle s’est développée dans les années 1950 [Schaeffer P]. L’ordinateur a été mis à contribution dès les années 1960 (Barbaud, Xenakis).

Les algorithmes descendent de plus en plus en profondeur dans la modélisation des sons. On a commencé par de simples générations de sinusoïdes, on a varié la forme des signaux, Puis on a procédé par sampling et encadré les notes par l’enveloppe ADSR (attack decay sustain release).  On va aujourd’hui jusqu’à le remplacer par une vraie modélisation au cœur même des synthétiseurs.  Katia Choquer écrit, au sujet du V-piano de Roland : « … la firme japonaise va plus loin en créant de toutes pièces chaque note grâce à des algorithmes… Il n’y a pas de limites. On devrait ainsi obtenir davantage d’expressivité, disposer d’un instrument personnalisable  [Choquer].

Evidemment, image, texte et musique se conjuguent dans le multimédia, qui est en quelque sorte l’héritier de l’œuvre totale (GesamtKunstWerk pour Wagner).  

A la limite, ce sont des êtres humains qui deviennent  les exécutants des algorithmes. C’est la règle pour les interprètes d’une partition ou d’une chorégrahie. Le jeu peut aller encore plus loin, les acteurs se pliant à une forme de robotisation. Cela est fortement marqué, non sans un peu d’humour,  dans les performances oulipiennes.  Un autre cas, exemplaire a été fourni en  1970, avec « L’augmentation »  de Georges Pérec.  (Les acteurs) « en ligne d’un bout à l’autre de la pièce, comme les cellules d’un registre (au sens informatique du terme), ils sont tour à tour « instruction » « Allez voir Mademoiselle Yolande », saut conditionnel « Si vous avez la rougeole… » et, enfin, donnée manipulée… »  (compte-rendu de la pièce en mars 1970 [Pralutier). Non seulement les artistes appliquaient l’algorithme, mais il représentaient métaphoriquement son fonctionnement dans l’ordinateur.

Des œuvres comme « n+1 » de Stéphane Trois Carrés ou « Nogo » de Stéphne Degoutin, Alex Knapp et Gwenola Wagon (http://www.nogovoyages.com/, voir aussi l’article de  [Lechner] dans Libération)  peuvent être considérés comme la mise en œuvre d’un algorithme par des acteurs.  A la limite, on pourrait le dire de tous les arts « conceptuels », voir du dadaïsme dans son principe même, si la négation est un algorithme…

 Simultanément, des acteurs utilisent des algorithmes inclus dans leurs instruments ; l’idée de « piano à lumière » est ancienne, par exemple ; DJ et VJ ont de plus en plus recours à des dispositifs informatiques sophistiqués ; cela inspire des pages étonnantes au VJ Mark Amerika [Amerika] ; c’est essentiellement de cette manière que Longavesne a utilisé ses imprimantes. Les musiciens utilisent des logiciels de plus en plus perfectionnés pour pallier aux limites de leur voix… et corriger leurs fausses notes (par exemple avec Autotune [Plas]).

L’importance de la matière

Tant qu’on ne communiquera pas directement de cerveau à cerveau (cela commence à germer dans les laboratoires), l’œuvre d’art finit par se matérialiser d’une manière ou d’une autre. A minima, sur un écran assorti d’écouteurs.

Cela suppose des algorithmes particuliers pour piloter les dispositifs correspondants. Certains membres de  « The Algorists », par exemple, forment le groupe, plus restreint, des « plotter artists ». Si le mot « plotter » désigne aujourd’hui les imprimantes de grand format, rappelons que, pendant les décennies 1960-1980, le plotter (traceur, en français) travaillait par pilotage d’une plume sur le papier. C’était long, mais échappait dans une certaine mesure aux contraintes du « pixel ». Jean-Paul  Longavesne a développé (vers 1980-90, voir notamment [Longavesne]) des imprimantes de grand format, qu’il a utilisées plutôt dans une optique de performance « live » que de développement algorithmique.  Emmanuel Cayla applique à des objets décoratifs, notamment des foulards, des algorithmes développés à l’Inria (principalement à base de fractals).

Certains traceurs ont été munis de cutters, ce qui permettait par exemple de développer de grands panneaux autocollants [sur traceur Kontron, vers 1985] ou  pliages en carton [Berger 86]. A notre connaissance, ces possibilités n’ont pas été exploitées par des artistes.

Dans certains cas, des dispositifs matériels de production « analogiques », même s’ils sont pilotés par un programme, permettent de s’affranchir, ou au moins de masquer les défauts liés à la digitalisation. Ceux que stigmatise par exemple [Fumaroli]  à propos de dessins de jeunesse par Seurat : « Ce pointillisme sensible du crayon, très différent du pointillisme prémédité des tableaux qui rivalisent avec la mosaïque, nous révèle tout ce qui manque à ce que nous appelons aujourd’hui « pixels » : la beauté de la matière, la présence divinatrice de la main, la poésie de l’œil contemplatif, le tremblement suspendu du temps »

Quelques artistes ont utilisé la commande numérique de machines-outils pour la création d’œuvres d’art, notamment des sculptures en bois. Le « prototypage rapide » (sur polystyrène)  s’y prête aussi. Plus récemment sont apparues les « imprimantes 3D », utilisées notamment par Jean-Luc Lavigne.

 

Au niveau même de la peinture « de chevalet » les fabricants de papier rivalisent pour proposer des textures rappelant la toile ou le papier à grain des aquarellistes. Pour les œuvres de Roxame, Pierre Berger a exploré le domaine des vernis. Les résultats les plus plaisants sont obtenus avec une imprimante à jet d’encre, sur papier mat (mat archives, pour assurer la conservation), suivi d’un vernissage à plusieurs couches de Liquitex (les autres vernis, selon son expérience, ou s’absorbent directement dans le papier sans effet perceptible, ou dissolvent l’encre).

 

Tant qu’à déboucher sur des réalisations matérielles d’importance,  pourquoi ne pas les rendre aussi mobiles. Le domaine a été largement exploité dans les années 1960 et 1970, avec l’art cinétique.  Un numéro d’Artstudio y a été consacré en 1991 sous le titre « La sculpture en mouvement ». Elle cite un grand nombre d’artistes, principalement Jonathan Borofsky,  Pol Bury, Alexandre Calder, Marcel Duchamp, Rébecca Horn, Lazlo Moholy-Nagy, Takis  et Jean Tinguely. Il ne faut pas oublier non plus Nicolas Schoeffer, qui d’ailleurs s’est exprimé aussi dans plusieurs ouvrages [Schöffer 69], [Schoeffer 70]. Ce type d’œuvres semble pratiquement oublié actuellement (en revanche, les téléphones et autres mobiles deviennent un débouché important pour l’image comme pour le son).  

 

Les robots pourraient aussi être considérés comme des œuvres d’art.  Quelques réalisations robotiques sont aux frontières de l’art, notamment les travaux du MIT [ Breazeal] ou de Carnegie Mellon ont par exemple beaucoup travaillé les problèmes d’expression des émotions. Mais ils ne sont pas revendiqués comme œuvres d’art. C’est plutôt au cinéma qu’ils sont présents dans la création artistique, avec par exemple le travail approfondi fait dans le film WallE.  

 

Le robot est intéressant aussi parce qu’il conduit à la construction de systèmes hiérarchisés. On peut toujours parler d’une « suite de règles », mais la suite va en pratique s’organiser plus ou moins en arbre.

Il en va de même pour les dispositifs de réalité virtuelle avec immersion (cave, goggles). Il y a peu de réalisations artistiques à notre connaissance. Il faut quand même citer le travail d’Olivier Auber et Bernd Hoge pour le musée des Nibelungen à Worms (cité dans [Sandoval]). Voir http://www.smq.qc.ca/publicsspec/actualites/creport/reportages/nibelungen/

Ces dispositifs prennent d’immenses dimensions avec les grandes performances en concert, ou dans les discothèques. On en trouve de beaux exemples dans chaque numéro de Sonomag.

Intéressons nous maintenant au mouvement inverse  : la remontée d’information depuis l’œuvre d’art, et plus généralement, depuis « le monde » vers les algorithmes.

Du monde  vers les algorithmes

En  sens inverse, on peut partir des images, et plus généralement des « médias » et du « monde réel » pour aller vers les algorithmes.  C’est ce que nous faisons tout naturellement quand nous lisons une recette de cuisine dans un livre, c'est-à-dire dans un texte imprimé, qui n’est qu’une catégorie d’images parmi d’autres. Un ordinateur pourrait  le faire, bien que cela ne présente évidemment qu’un intérêt assez théorique.

L’algoriste peut gagner beaucoup à faire remonter de l’information des images vers ses algorithmes. Cela lui permet en effet, soit à partir des images crées par ses algorithmes, soit à partir d’images venant d’autres sources, de disposer de paramètres quantitatifs et qualitatifs pour diversifier, orienter et enrichir ses développements.  A ma connaissance, c’est aujourd’hui plutôt l’exception que la règle. Tentons un panorama des possibles, du plus simple au plus complexe.

Harold Cohen introduit un de ses articles [Cohen] par les mots  « Coloring without seeing ». Paraxoxe !  Comment peut-on dire que l’ordinateur ne voit pas une image qui est en lui-même ?  Au premier abord, le problème ici est de savoir l’effet que fait l’œuvre en tant que vue par être humain, pour savoir quelles couleurs choisir. Et, dans la mesure où les algoristes travaillent pour d’autre humains, c’est cela qui compterait. Idéalement, il faudrait reconstruire dans le système, ou du moins simuler, toutes les réactions d’un être humain, afin d’obtenir le résultat cherché, qu’il s’agisse simplement de plaire au grand public, de « faire joli », ou au contraire d’intéresser un contemporain cultivé. 

Pour l’instant, il faut se contenter du possible, qui n’est pas mince, et qui n’est d’ailleurs que peu utilisé par les algoristes.

A la base, on peut faire quelques mesures globales sur l’image : nombre de pixels, valeurs moyennes, répartitions statistiques et histogrammes des couleurs (RVB, mais surtout HSV). Cela permet par exemple d’appliquer des filtres, de manière à se rapprocher des valeurs visées par l’algorithme, en termes de résolution ou de répartition.

Dans Roxame, nous avons expérimenté, avec un certains succès pensons-nous, une mesure rudimentaire de complexité : compter simplement la proportion du nombre de pixels qui diffèrent de leurs voisins. Il s’avère, toutes choses égales par ailleurs, qu’il y a une sorte d’optimum autour de deux tiers. Une image plus simple paraît en général pauvre. Une image plus riche ressemble trop à une photographie. Concrètement on peut exploiter une telle mesure de la façon suivante :

- si l’image est trop complexe, appliquer au hasard un des algorithmes disponibles qui peuvent la simplifier : pixellisation, réduction du spectre des couleurs, filtre « médian », etc.

- si l’image est trop simple, appliquer un algorithme qui en augmente la complexité : dessin de nouvelles formes, sharpening, dégradés, textures.

A un niveau plus élevé peuvent jouer  la classification et la segmentation [Cocquerez], l’extraction de caractéristiques (feature extraction)  [Nixon], et des exemples de code dans [Roxame]. Ces techniques, un peu abstraites, sont à ma connaissance peu utilisées par les algoristes. Elles permettent cependant des effets créatifs intéressants.

Une classe est un ensemble de pixels possédant en commun certaines propriétés. Par exemple, tous les pixels bleus ou tous les pixels clairs Un même pixel peut appartenir à plusieurs classes (s’il est bleu clair, par exemple). On obtient  un effet intéressant en remplaçant tous les pixels d’une classe donnée par une texture appropriée à la classe, ou simplement par le pixel correspondant d’une image adéquat :  tous les pixels bleus situés dans la partie haute de l’image reprenant ceux d’une photo de ciel.

Une région est un sous ensemble connexe de points possédant en commun certaines propriétés, par exemple la même couleur. Dans une image « naturelle », une segmentation directe sur la couleur conduit à un trop grand nombre de régions trop petites. Une solution simple consiste à procéder d’abord à une classification, puis à segmenter en fonction des classes.  On a des effets puissants en appliquant alors un générateur de formes et des filtres appropriés à chaque région.

Par ailleurs, si l’image est obtenue à partir du monde extérieur, on peut aussi utiliser toutes sortes de capteurs : simples interrupteurs (point « tout on rien », disent les informaticiens de l’industrie) micros acoustiques, capteurs de pression (cas du pissenlit de Couchot et Bret), de température, accéléromètres, etc. Leur emploi exige en général un minimum de compétences en électronique et acquisition de données, qui ne sont pas le fait de tous les algoristes.

Au dessus encore, la détection et la reconnaissance des formes et, couronnant le tout,  la « vision ». On s’étonnera un jour que l’art algorithmique se soit si longtemps passé de la vision, que le mode normal soit « Coloring without seeing, » selon le mot d’Harold Cohen. Il faut dire que, jusqu’aux années 1990, les caméras digitales restaient trop coûteuses pour les artistes. Pire encore, les logiciels de vision étaient peu efficaces, malgré de substantiels investissements de recherche au fil des décennies, financées  principalement par la Défense mais aussi par la Santé et l’industrie.

Laval 2009 aura sans doute marqué une nouvelle orientation de la tendance : la caméra (et souvent une simple webcam) devient le capteur universel, assorti de logiciels de plus en plus puissants.  Cette tendance ne devrait que s’amplifier, puisque les caméras sont bon marché et que le logiciel, une fois rentabilisé le premier investissement, est virtuellement gratuit. On trouve par exemple pour Processing diverses bibliothèques permettant d’exploiter les images en ce sens. Et le cinéma d’animation sait désormais faire de la « motion capture » sans marqueurs, autrement dit par simple analyse de l’image du corps ou du visage qu’il s’agit de transposer.

Cette remontée de quelques données ne fait pas pour autant de l’ordinateur un critique d’art. De toute façons, nous ne sommes plus aux grandes époques de la critique (La fin du XIX avec Baudelaire, Huysmans, Zola…), ni des grandes stratégies d’après guerre, avec Greenberg ou Restany.  En matière d’arts, quels qu’ils soient, livres et journaux consacrent l’essentiel de leurs lignes à l’annonce des événements et à la présentation louangeuse des œuvres et surtout des artistes. Un magazine comme Télérama fait figure d’exception. 

Interactions

Ces aller-retour entre algorithme et oeuvre, plus profondément entre système et monde,  peuvent fonctionner simplement de manière autonome, disons même automatique. Mais il est évidemment intéressant de faire entrer plus activement les partenaires humains « dans la boucle », dans la génération ou le fonctionnement de l’œuvre. L’interaction est à la mode, et on a même vu prescrire à l’art numérique d’oublier le spectateur passif d’hier pour s’adresser désormais à des « spectacteurs ».

Parmi les principaux auteurs de ce type d’œuvres, citons Fred Forest, Edmond Couchot, Michel Bret, Maurice Benayoun. Gwenola Wagon [Jouable], ainsi qu’Olivier Auber à l’ENST avec la création d’œuvres graphiques collaboratives en réseau.

Les résultats ne sont que rarement à la mesure des ambitions généreuses affichées.  Dans la plupart des cas que j’ai rencontrés, en fait, le spectateur ne devient pas vraiment partie prenante de l’action. Il est un peu comme le gentil spectateur d’un spectacle de prestidigitation, qui accepte de monter sur scène pour mettre en valeur les talents de l’artiste.  

Pour que l’interaction se développe sérieusement, il faudrait que le spectateur ait le temps d’en comprendre le fonctionnement, d’apprendre les stratégies qui lui permettent de réaliser des parcours personnels. Or les œuvres sont trop chères pour que de simples amateurs les achètent.  Ils ne les voient donc que brièvement dans une exposition ou un salon  et ne peuvent vraiment apprendre à « s’en servir », à les maîtriser. Ou alors, le « gameplay » est tellement simpliste que l’intérêt s’émousse une fois satisfaite la curiosité pour un dispositif nouveau.

Certains artistes n’y tiennent pas du tout : « L’interaction tue l’œuvre » dit clairement Stéfane Perraud. 

Œdipe Roi  69 : première expérience d’interaction

En mai 1969, à Malakoff, le metteur en scène Guy Kayat invitait les spectateurs à contester aussi bien Sophocle que sa propre adaptation de l’œuvre. Après avoir interprété les trois premières scènes dans leur version d’origine, les acteurs évoluent parmi les spectateurs en leur proposant la remise en cause de certaines « options » : dispositifs scénique, musique, situations, etc. et, en fait, le sens de l’ « histoire » elle-même.

Les choix majoritaires de la salle une fois dégagés, ceux-ci sont introduits en machine (l’IBM 360/40 du centre de calcul de HEC à Jouy-en-Josas), par un terminal à cartes perforées installé dans la salle. L’ordinateur restitue ensuite le déroulement et la mise en scène logiques correspondant aux options choisies, parmi 170 options « valides ».

Les résultats n’ont pas été très convaincants. En partie par la lenteur des machines de l’époque (cela allait moins vite qu’à la main commentait une mauvaise langue), mais aussi parce que les spectateurs choisissent presque toujours de continuer sur les mêmes paramètres que les trois premiers, rendant l’improvisation inutile. Manque de curiosité, désir de ne pas rater le dernier métro, conformisme et peur de l’innovation… ou simplement, insuffisance d’explications sur les possiblités…  [Berger 69]

Il y a deux grandes exceptions cependant où l’algorithmique de l’interaction s’en donne à cœur joie :

- les grands spectacles, du genre festival rock ou festival classique, où le public  peut jouer un rôle important, si l’auteur et l’organisateur le souhaitent,

- et surtout les jeux « électroniques » … mais ils ne sont pas considérés comme relevant des beaux arts

Enfin, n’oublions pas que l’œuvre d’art d’aujourd’hui ne s’arrête pas aux limites d’un atelier, d’un cabinet d’amateur ou d’un musée. Elle s’étend jusqu’aux limites du web. Et elle exploite non seulement ses facilités de communication, mais son rôle de mémoire universelle, accessible en tout point par quelques mots tapés sur un browser. C’est le rôle des « deuxièmes mondes » et de tous les espaces de communication, qui sont parfois d’une grande sophistication algorithmique mais, évidemment, pas toujours très artistiques !

 

Antoine Schmitt

 

«  A partir d’un moment, je ne peux plus toucher  l’œuvre, j’aurais l’impression de l’abîmer »

 

Ce qui est important pour moi, depuis toujours, c'est que l'oeuvre tourne, fonctionne devant le public, que le public interagisse avec elle, ou soit confronté au fait qu'elle est en train de fonctionner. Très vite, j'ai mis de l'aléatoire dans mes pièces, dès la première "Dans la bibliothèque", qui s'inspire de la nouvelle de Borgès (La bibliothèque de Babel), dont le thème central est une bibliothèque qui contient tous les livres possibles, toutes les combinaisons possible de lettres...  J'ai réalisé un système interactif où un personnage fictif, le gardien de la bibliothèque,  répond aux questions qu'on lui pose en se promenant dans les rayons, prenant un livre au hasard et répond par des mots tirés de ce livre. Elémentaire techniquement, cette oeuvre confronte le spectateur à un processus un peu mystérieux, avec une mise en page de mots de dimensions, polices et couleurs différentes. Un travail de poésie concrète, en quelque sorte (qui figure sur le CD-Rom "Just from Cynthia", édité par le centre Georges Pompidou). Et c'est devenu un parti pris fort pour moi à partir du Pixel Blanc, que je considère comme mon oeuvre fondatrice.

Le mot autonome m'est venu assez tard. Pendant longtemps, mon cheval de bataille était "créature", ou "entité" artificielle. Ce qui compte, c'est, psychologiquement, cette créature autre que moi, pas tant le côté amibe de la vie artificielle, car on a du mal à se projeter dans une amibe, encore qu'on peut s'identifier avec elle à un niveau hyperbasique, on la voit se battre avec les autres, on comprend son processus, mais plus généralement quelque chose où on peut projeter une partie de soi, un aspect de soi, peut-être en allant jusqu'au niveau du langage.

J'emploie moins aujourd'hui ce mot de "créature", parce qu'il est très connoté, difficile à mettre dans un discours, surtout dans le monde de l'art. Je pousse donc plutôt "système autonome", qui passe mieux. Si je sens que mon auditoire peut m'entendre, je parle de personnage, de personnalité artificielle.

Pour moi, la création, en général, c'est un concept, une idée, un but, un objectif, une piste, puis une réalisation très rapide. Toute de suite je fabrique quelque chose. Si cela fonctionne, au sens d'une oeuvre, tout à coup elle prend vie... et à partir d'un certain moment je ne peux plus la toucher, la modifier, parce que j'aurais l'impression de la détruire, ou au moins de l'abîmer, de la dévoyer.

Stic-Hebdo. No 27. 20 septembre 2004

 

 

L’autonomie, cœur et ferment du travail algoristique

L’algoriste est un magicien qui vit avec intensité un oxymoron : programmer l’imprévisible.  Ecoutons [Menger] : L’hypothèse de départ est donc simple : le travail artistique est modelé par l’incertitude. L’activité de l’artiste chemine selon un cours incertain, et son terme n’est ni défini ni assuré. Si elle était programmable, elle dériverait d’une bonne spécification des problèmes à résoudre, de consignes précises à respecter, de connaissances à mettre en œuvre sans difficulté, de règles bien définies de choix et d’optimisation des choix à respecter. Et son évaluation serait aisée, parce que le résultat pourrait être rapporté au but  qui était spécifié par une programmation efficace de l’action. Mais c’est l’incertitude sur le cours de l’activité et sont résultat qui est la condition de l’invention originale et de l’innovation à plus longue portée

Or, la plupart des algoristes ressentent fortement l’émergence de quelque chose qui les dépasse, et qui n’est pourtant que le résultat d’un travail en profondément déterministe dans son principe. Plusieurs algoristes ou observateurs le disent clairement.

- Anne-Sarah Le Meur : “There is a special joy in playing like that with many variables, with a system that will be activated and then will evolve alone…  Of course I lost control, I don’t remember everything I decided to code. It belongs to the pleasure to create something strange that then escapes, a sort of magic autonomous machinery”.

 

- Alain Lioret : « Nous n’avons pas encore (et peut-être ne l’aurons-nous jamais)à la connaissance et la compréhension de toute la portée produite par les résultats de tels systèmes, qui ne sont pas qu’aléatoires, qui ne sont pas du seul ressort de l’humain, ni de celui de la machine seule » [Lioret]

- Antoine Schmitt « Si cela fonctionne, au sens d'une oeuvre, tout à coup elle prend vie... et à partir d'un certain moment je ne peux plus la toucher, la modifier, parce que j'aurais l'impression de la détruire, ou au moins de l'abîmer, de la dévoyer. »

- Mitchell Whitelaw : “ Conventions of creative agency are stretched to breaking point : much of the work is made in such a way that it makes itself – it is somehow autonomous. Is this abdication of creative will or its ultimate fulfillment. “ [Whitelaw]

Pour la plupart des algoristes, ce qui compte, c’est l’autonomie de l’oeuvre en tant que telle. Toute œuvre d’art  (autre que de performance) persiste dans l’existence par sa matérialité même.  Mais les automates, le phonographe et le cinéma, enfin  l’art cinétique et l’art algorithmique appuyé sur l’ordinateur ont permis de créer des œuvres autonomes dans leur mouvement. Cette autonomie peut se hiérarchiser, se structurer, s’organiser en comportements. Voir  [Aspord] , sur l’art évolutif et comportemental.

Films représentant des robots attendrissants ou robots en vraie grandeur attendrissants par eux-mêmes…  la différence n’est pas forcément considérable. Mais les progrès sont réguliers. Et bien entendu, sont globalement orientés vers la représentation toujours plus fidèle, toujours plus complète, plus autonome des êtres les plus importants pour nous, les êtres humains. Malgré l’importance aujourd’hui des industries robotiques, les « vues d’artistes » restent encore largement dominantes dans le domaine, de WallE à Matrix en passant par l’emblématique I Robot (dont le film est sensiblement différent de l’ouvrage d’Asimov qui l’a inspiré).  On trouvera une compilation des principaux ouvrages sur ce thème dans [Engélibert], avec le texte intégral des œuvres majeures de Hoffmann, Shelley, Poe, Barbara, Bierce, Schropp, Villiers de l'Isle-Adam, Wells, Panizza, Capek, Huxley , Glish et Carter, avec une introduction et des présentations, ainsi que des extraits d'Ovide, Descartes, La Mettrie, Baudelaire et Truong.

 

[Gombrich] note que la construction d’objets est un des modes de dépassement de l’art comme simple représentation. En Vinci,  l’artiste côtoie l’ingénieur : aujourd’hui, nous lisons son projet comme « une machine volante ». Mais, ses notes le prouvent : ce qu’il veut faire, lui, c’est un oiseau qui vole.  Et l’algoriste est un avatar nouveau de l’apprenti sorcier, avec les problèmes éthiques que cela pose comme prolongement naturel de l’eugénisme ou comme une forme d’OGM, par exemple… avec l’art viral.

 

Il y a là une transposition de besoin-désir-plaisir de paternité/maternité, que Sherry Turkcle a bien décrite dans « The second self » [Turckle].

Pour quelques autres,  c’est l’autonomie du système comme créateur qui les intéresse. L’algoriste n’est plus, du moins plus tout à fait, l’auteur des œuvres ; c’est le code (Calliope de Ducrocq, Aaron de Cohen,  Babel de Balpe, Roxame de Berger) qui est l’auteur. L’algoriste n’est plus que le « grand-père » …  C’est une autonomie au deuxième degré. [Mitchell] va jusqu’à titrer : « What do pictures want ? » !  (Nous voici aux antipodes de « l’artiste sans œuvres » décrit par [Jouannais]). Quelques artistes en prennent ombrage : en accrochant des œuvres de Roxame dans une galerie, je me suis vu reprocher par d’autres peintres : « Il est déjà assez difficile d’arriver à vendre. Si maintenant vous nous remplacez par des robots … que deviendrons nous ! »

L’algoriste rejoint ici le thème très ancien de  l’œuvre acheiropoiète, non faite de main d’homme ; ce thème intéresse beaucoup [Fumaroli] ; on peut y ranger aussi bien le voile de sainte Véronique, le saint suaire de Turin, les saintes écritures en général (à des degrés divers dans les différentes religions), mais aussi l’écriture automatique des surréalistes, voire les œuvres procédurales de l’Oulipo ou de l’Oupeinpo.  Riche hérédité, si l’on peut dire, pour Aaron et Babel . Dans cet esprit, noter le titre subjectif de [Mitchell] : « What do pictures want ? ».

Nous n’entrerons pas ici dans le débat philosophique qu’ouvre cette orientation (voir par exemple [Berger 99]), en revanche on peut tenter de préciser quels types d’algorithmes sont à la source de cette autonomie. Elle se perçoit selon deux dimensions (qui peuvent se rapporter à un potentiel d’énergie) : un certain degré de non-contrôle, d’imprévisibilité,  et une certaine ampleur de cette autonomie, par exemple le temps qu’il faudra pour qu’un spectateur ait l’impression qu’il n’y a plus de renouvellement [Triolet].

Comment programmer l’autonomie ? Le moyen de base est l’appel au hasard.  Qu’est-ce à dire ? La définition de Wikepedia convient tout à fait à notre propos « Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque apparent, sinon de causes, au moins de connaissance des causes d'un événement…Dans une perspective déterministe, la notion de hasard est uniquement liée à l'incapacité à appréhender complètement certains phénomènes dans leur complexité naturelle et donc à les prévoir infailliblement. »

Tout le sel de la question tient dans le mot « naturel ». Pour un algoriste, cela peut vouloir dire plusieurs choses :

-  le système comporte des capteurs branchés sur un monde extérieur mal connu ; cas classiques : lecture de l’horloge en millièmes de seconde, lecture de la température du processeur, à la limite, dispositif quantique du CERN ; une certaine incertitude est présente dès qu’on lit un fichier extérieur ou qu’on tente de se connecter à un réseau ; d’où la présence des procédures try-catch dans les langages de programmation modernes ; sans parler des menaces qui pèsent sur tout système informatique, et notamment les bogues des systèmes d’exploitation ; pour les anciens (et notamment la première génération des algoristes), il y a aujourd’hui quelque humour à se rappeler que, dans les années 1960, on reprochait aux ordinateurs d’être trop parfaits, de ne se tromper jamais…  l’arrivée de Windows, et l’expérience pratique des informaticiens et des utilisateurs en général, a mis fin à ces craintes… qui ont fait place à d’autres : entre les virus, le spam, la pornographie, l’espionnage des particuliers ou des Etats, le terrorisme, l’informatique est plutôt trop sale que trop propre !

- le système comporte des algorithmes génératifs dont la complexité dépasse la capacité normale d’appréhension d’un être humain ; c’est le cas  des algorithmes de pseudo-hasard : ils sont faciles à écrire, mais un être humain ne peut pas faire les opérations correspondantes, en tous cas dans un temps raisonnable ;

- le système comporte des algorithmes dont la complexité, même sans appel à l’extérieur, dépasse les capacités d’appréhension du système lui-même ; cela semble un peu paradoxal ; on rejoint d’ailleurs la question de la vision posée plus haut par [Cohen] ; et, à la limite, peut-être une sorte d’indécidabilité à la Gödel (voir [Bailly] qui attend un « grand théorème négatif ») ; un cas particulier est celui où le système comporte une base de données (chiffres et données), de connaissances (assertions) et/ou documents (images, textes…). Dans ce cas, on est très vite au-delà des « capacités d’appréhension », et d’autant plus que cette base peut comporter des données floues, incomplètes voire contradictoires.  Au sein même de l’ordinateur,  si le programme est un peu complexe, il peut y avoir des surprises venant du jeu interne des messages. « Le changement de contexte peut être fortuit, s’il a lieu à l’insu du thread ; en d’autres termes, il est non déterministe, car l’occurrence d’un événement ou d’une interruption est aléatoire » [Zaffalon]

Trouver de l’incertain n’est donc pas un problème pour les algoristes. Il suffit d’allumer son téléviseur sans brancher d’antenne  Ce qui compte, c’est de trouver de l’imprévisible intéressant, la résonance inédite, pour reprendre une expression de [Melot]. Il y a ici plusieurs démarches :

- partir au hasard, le nez au vent des algorithmes ou d’une caméra dans la campagne, et déclancher quand l’image obtenue semble intéressante ; ou, de manière équivalente, disposer d’un grand nombre d’objets quelconques et choisir « les plus beaux », avec la souveraineté transcendante de l’artiste (on peut même alors se passer de l’adjectif « beau », la volonté de l’artiste suffit, comme on en a considérablement débattu, au moins depuis l’urinoir de Duchamp) ; pratiquée telle quelle, et sauf le dernier cas de figure, la méthode est longue, fastidieuse, et a même de fortes chances de ne jamais déboucher ; il faut donc se donner un peu plus de « règles explicites », ce qui peut se faire de deux manières complémentaires.

- 1) Donner des règles pour encadrer la génération aléatoire ; par exemple, si l’on part « dans la nature », choisir des endroits a priori intéressants ; qui peuvent être très variés ; on peut évidemment emmener son appareil photo dans la forêt voisine si on aime le sous-bois, dans la chambre de sa meilleure copine si on aime les « académies » (et qu’elle aime aussi), ou encore aller découper intelligemment des tranches de roche dans certaines carrières italiennes (paesinas);  ces méthodes incluent en pratique des règles plus ou moins explicites de cadrage dans le temps et dans l’espace ;  et, bien sûr, sans oublier la base du travail algoristique : lancer des générateurs de formes, couleurs et sons, assortis de nombres aléatoires judicieusement placés.  

- 2) Donner des règles pour sélectionner les résultats ou les transformer ; la machine Calliope [Ducrocq] est l’exemple parfait de la méthode, puisqu’elle part d’un simple flux binaire aléatoire, mais en tire des textes considérés comme intéressants (encore qu’à ma connaissance, ces poèmes ne figurent dans aucune anthologie, pas plus que ceux de Balpe, d’ailleurs) ; on pourrait aussi placer une webcam à un endroit quelconque (pas trop mal choisi quand même) et mettre en place des algorithmes de sélection des images qui n’en laisseront qu’une sélection à l’artiste souverain… à moins qu’il ne décide, non moins souverainement, que toute image sélectionnée par ses algorithmes est une œuvre d’art. Dans ce cas, l’artiste peut conserver son pouvoir absolu (position de Cambiaire).

Ces méthodes sont en général combinées, par exemple dans Roxame (avec son algorithme rustique de mesure de la  complexité, voir ci-dessus), soit de manière sensiblement plus sophistiquée, dans les arts génératifs inspirés tant par les algorithmes de la recherche opérationnelle [Siarry] que par la modélisation de la vie et des processus darwiniens de combinaison aléatoire et de sélection (les critères de « fitness » jouant le rôle de critères « esthétique ») [Bret][Lioret][Whitelaw]. Citons aussi, pour honorer l’histoire, les démarches de [Strindberg] et le canular de Boronali  (voir Wikipedia).

La montée vers l’autonomie, et la liberté dans son sens le plus fondamental, c’est la construction progressive de « systèmes », artificiels ou naturels, qui développent leur complexité de manière de plus en plus puissante, structurée,  émotionnelle et intentionnelle  (les deux termes sont utilisés en robotique dans un sens tout à fait opérationnel, voir par exemple [Bisognin] pour l’émotion et  [Clodic] pour l’intention, avec un commentaire par la philosophe [Pacherie]). Dans ce développement,  les systèmes deviennent à la fois de plus en plus aléatoires (au sens du hasard ci-dessus) et de plus en plus « intéressants » parce qu’ils ne révèlent pas les évolutions plus ou moins browniennes d’un dispositif simpliste mais l’évolution et le comportement structuré d’êtres (par exemple des « painting beings », selon [Lioret]).

La cybernétique des années 1950-70 se construisit principalement autour de la notion de boucle de rétroaction. (Voir par exemple [Wiener], mais ce n’est qu’une publication très « grand public » d’un vaste domaine, pour ne pas dire d’un paradigme).  Bien que la boucle de rétroaction soit le plus souvent exploitée sous forme analogique (voir figure), on peut la considérer comme la combinaison d’algorithmes « aval », en l’occurrence l’évaluation de l’écart entre la valeur assignée en sortie et la valeur observée, agissant sur un algorithme « amont » par combinaison programmée (électriquement soustraite, dans les cas simples) avec les données d’entrée. L’effet Larsen est typiquement le cas du système où la rétroaction devient tellement dominante que l’on n’a plus en sortie qu’une fréquence propre à la boucle et plus rien du reste du processus.

 

Depuis les origines de l’informatique en tous cas, une opposition, ou une tension, entre :

- des architecture « centralisées »,  hiérarchisées sous l’autorité d’un processeur principal ; ces architectures jacobines vont de pair avec une programmation de style impératif ; cela  n’exclut pas des jeux de finesse dans les relations entre niveaux hiérarchiques comme entre les deux jeux d’algorithmes amont (génératifs) et aval (sélectifs) ; dans le domaine des algoristes, c’est l’orientation principale de Roxame, par exemple ;

- des architectures « connexionnistes », à base de « neurones », d’agents et/ou de connaissances ; la programmation a un style déclaratif,  le ou les moteurs se chargeant de générer des processus à partir des contenus et des entrées ; ici, on ne préjuge pas des flux et des constructions temporaires qui vont s’élaborer dans le déroulement des processus, on est particulièrement intéressé par les modèles biologiques ; dans notre domaine, c’est l’orientation principale de Bret ou Lioret, par exemple ; ces systèmes sont à la fois assez imprévisibles et assez « robustes »  pour donner des résultats séduisants. Michel Bret suggère même un critère esthétique tout à fait spécifique : l’équilibre entre les flux amont et aval dans le réseau neuronal.

D’esprit opposé, ces deux approches peuvent  se combiner. Dans un système robotique, par exemple, il peut être opportun de se contenter d’algorithmes impératifs à bas niveau (pilotage élémentaire des moteurs) et de faire en revanche un large appel au connexionnisme au niveau le plus élevé, celui des intentions et des émotions. Dans le cas de Roxame, le dictionnaire, qui joue un rôle central et au plus haut niveau, peut aussi être considéré en lui-même comme une structure déclarative et non hiérarchisée, donc, à la limite, connexionniste.

Roboticiens et psycho-sociologues devraient logiquement converger. En effet, bien qu’ils appartiennent à  des cultures (pour ne pas dire à des sections du CNU) bien différentes, ils recourent  à des concepts qui se rapprochent : langages, comportements, hiérarchie. (Comparer par exemple [Kaufmann] et [Mourioux]). Noter que, sur les architectures de robots, il n’existe pas actuellement, à notre connaissance, de bon ouvrage de synthèse, ni en français, ni en anglais). On ne peut omettre l’étonnant [Kaplan] , montrant que des robots peuvent aller jusqu’à construire leur propre langage pour communiquer entre eux.

Arrivés au terme de ce panorama, le champ ouvert aux algoristes apparaît comme encore très largement inexploré. Faute de moyens financiers, de temps disponible, de capacité à mobiliser des équipes ou simplement du fait de l’énormité des cultures sous-jacentes, les algoristes n’ont encore exploité qu’une faible partie de la panoplie potentielle des algorithmes et de leurs combinaisons. Ils peuvent rarement dépasser l’équation  « un algorithme = une œuvre », alors que la construction d’œuvres puissantes devrait en combiner toute une batterie. Même quand il s’agit d’œuvres aussi puissantes que celle d’Andy Lomas, de Kawaguchi ou, dans un autre genre, de Forest,  les terrae incognitae s’ouvrent encore largement à nos explorations. Classification et segmentation, par exemple, n’ont été utilisées que par Roxame ; et d’une manière très limitée, puisque ce logiciel ne fonctionne qu’en deux dimensions et a relativement basse définition. Les domaines du génétique et de l’évolutionnaire restent eux-mêmes encore largement vierges.

Les algoristes, concrètement, au début du XXIe siècle

Aux Etats-Unis comme en France, les algoristes sont presque tous des plasticiens, enseignants-chercheurs ou retraités. Des plasticiens, parce que les autres artistes ne rencontrent pas les mêmes difficultés à intégrer des algorithmes dans leur processus créatif. Des enseignants chercheurs ou retraités parce que le « marché de l’art » leur est fermé et ne peut donc leur fournir le minimum qui permet de survivre même à un passionné peu exigeant. 

Art et algorithmes : deux mondes qui s’ignorent

Le monde de l’art et les arts numériques s’ignorent. L’été 2008 à Los Angeles en a fourni un exemple frappant. D’un côté, des dizaines de millers de participants au Siggraph, la grand-messe annuelle des arts numériques, et des algoristes parmi eux. De l’autre l’inauguration des nouveaux locaux du Moca (Museum of contemporary art). Les deux manifestations se sont totalement ignorées.

Quelques artistes numériques français ont réussi à se faire admettre parmi les grands :  Fred Forest,  le seul artiste digital cité par « Les 100 artistes français » [100], Miguel Chevallier, Gregory Chatonsky. Quelques uns commencent à se faire accepter : Antoine Schmitt, Anne-Sarah Le Meur.

L’art numérique est virtuellement absent des grandes manifestations officielles.  Il faut noter le coup d’éclat de Stéphane Trois Carrés (assisté d’Alain Longuet et d’une équipe technique) qui a présenté son œuvre « n+1 » au Grand Palais en 2009, dans le cadre prestigieux de la Force de l’Art.  Une réussite qui faisait ressortir la place centrale donnée dans l’espace (et les budgets) aux arts contemporains académiques, avec d’énormes réalisations matérielles occupent la grande galerie, et la portion congrue laissée à l’art numérique dans un bas côté.

Célébrons enfin la persévérance d’un Stéphane Maguet et de sa galerie Numeris causa (http://www.numeriscausa.com/).

Spécificité  technico-économique des arts plastiques

C’est essentiellement le domaine des arts plastiques qui pose problème.  L’architecture et les arts de performance allient bien plus naturellement l’algorithme à la pratique artistique, aussi bien dans les œuvres savantes, aux frontières de la recherche,  que dans les œuvres offertes au grand public. L’architecture a, de tout temps, associé des artistes et des ingénieurs (pour le calcul de la résistance des matériaux, le « trait » de la taille des pierres, etc.). Les arts de la performance sont coopératifs par nature. Il est encore possible d’y survivre en solitaire, comme auteur-compositeur-interprète-autoproducteur, mais que ce soit pour la musique « savante » (comme dit [Menger]) ou la musique populaire, les rôles sont en général répartis entre de nombreux artistes et techniciens. Michael Jackson ne serait pas allé aussi loin s’il n’avait rencontré l’arrangeur Quincy Jones  et l’ingénieur du son Bruce Swedien [Swedien] pour réaliser l’album Thriller.  [Stiegler] a quelques pages ébouriffantes sur « le tournant machinique de la sensibilité et le privilège de la musique ».  Pour des raisons qui combinent technologie et modèle économique.

Techniquement, le dessinateur et le peintre peuvent se contenter de peu : un petit croquis peut en dire plus qu’un grand discours. Même un Van Gogh dans la misère parvient à disposer du minimum de toiles et de couleurs nécessaires à son art.  Dessins et toiles, moyennant quelques précautions, jouissent d’une grande pérennité naturelle. On peut les stocker presque indéfiniment et en grand nombre dans un volume modeste. D’où une très grande liberté fondamentale qui a très tôt (toujours ?) permis au plasticien de se centrer sur sa personnalité (son tempérament, dit Zola) et de se poser quand il le souhaite, ou  qu’il estime le devoir, en indépendant sinon en critique du monde qui l’entoure. Edmond Couchot, selon Annie Luciani dans [Risset] « fait bien apparaître la plus grande résistance des artistes plasticiens, en comparaison des musiciens, à accepter l’intrusion numérique. Pour ces artistes, la peinture restait la référence absolue ».

Par ailleurs, la peinture est un des arts les plus intuitifs, les moins algorithmiques. Il y a bien quelques canons, quelques règles de composition, quelques principes d’assortiment des couleurs [Itten], mais ils sont relativement secondaires et peu explicites. Alors que l’architecture ne peut se passer du calcul et que la musique est digitale presque par construction.

On pourrait en dire autant de la littérature (autre que la poésie) mais ici la dette est si grande et si patente envers l’imprimerie qu’une rupture avec la technique est impensable. Ni la machine à écrire, ni le traitement de texte n’ont  posé de problème idéologique aux écrivains ! Il n’a même pas été vraiment possible de montrer que ces machines avaient eu une influence sensible sur la manière d’écrire [Laufer][Scavetta] Cette ouverture vers la technique s’est étendue à l’image grâce à la gravure, très importante pour certains artistes depuis Dürer [Dürer]. Mais il s’agit d’un art mineur, secondaire ou ancillaire pour les arts plastiques majeurs. Pourquoi ?

Du point de vue économique,  le marché de la peinture et de la sculpture (bronze excepté) est construit sur l’acquisition et la collection d’œuvres uniques, pour lesquelles l’aura de l’original a une importance suprême. L’arrivée de la photographie a donc été vécue comme une catastrophe par le monde de la peinture, notamment par Baudelaire [Baudelaire], thème largement traité et récemment synthétisé par [Fumaroli] qui écrit par exemple  « La question ouverte par l’excommunication de Baudelaire, reprise par Walter Benjamin, n’a pas cessé d’être posée depuis, malgré les protestations des historiens de la photographie ».

 Le « monde de l’art » n’aime pas les sciences

Ces différences techniques et économiques se conjuguent avec une opposition psychologique et idéologique assez considérable qui explique l’exclusion du « numérique », l’anathème sur le « pixel » et a fortiori les algoristes, qui plongent le fer plus profond encore dans la plaie. Une sociologie déterministe à la Taine ou à la Marx conclurait peut-être que la coupure dans l’infrastructure détermine la coupure des superstructures idéologiques …

En effet, s’il est un trait qui unit les algoristes,  ceux qui se regroupent dans le mouvement américain Algorists ou l’association française Les Algoristes, c’est leur optimisme naïf (naturellement ou volontairement tel). Simple est leur projet : les technologies d’aujourd’hui, et l’ordinateur au cœur de toute les autres, ouvrent des espaces de création aussi nouveaux que passionnants. Faisons du beau avec l’informatique !

Or les algoristes sont apparus au cours des années 1970, alors que le monde de l’art était largement dominé par l’abstractionnisme abstrait, voire du dadaïsme, avec des profils bien différents :  «  the response of the abstract expressionnists to modern life was rebellious, individualistic, unconventional, sensitive, irritable. …” (Robert Motherwell, cité par  [Foster]). C’était la formation d’un Harold Cohen. Il y avait trouvé le succès, l’accueil dans les galeries et les musées. [McCorduck] raconte éloquemment comment il quitta progressivement puis radicalement ce milieu et comment il en fut excommunié. 

Les algoristes  se placent donc d’emblée aux antipodes des projets de l’art contemporain, obstinément ancré dans sa posture de protestation contre le monde moderne, depuis Dada et Duchamp jusqu’à l’ensemble du mouvement post-modernisme ancré dans les horreurs de la guerre et de ses beautés chantées par les futuristes.  L’optimisme d’un Malraux ou d’un McLuhan font sourire le « mainstream » tout imprégné des malédictions de Benjamin ou d’Adorno. Ils sont donc naturellement rejetés par le « monde de l’art ». Même un Esscher, voire un Vasarely, sont contestés comme artistes. « L’art est toujours censé contrebalancer l’invasion de la culture moderne par les savoirs scientifiques : l’idéalisme objectif, le pessimisme gnoséologique de Schopenhauer, le vitalisme du jeune Nietzsche ou l’existentialisme heideggérien s’opposent tous explicitement au discours scientifique et tentent de le dévaloriser » [Schaeffer JM].

 

Les algoristes ont d’ailleurs peu à attendre des critiques, espèce en voie de disparition, ou d’une presse spécialisée où  « le discours de célébration usurpe la place d’une description analytique des faits artistiques » et où « Sous des formes plus ou moins abâtardies, la sacralisation de la poésie et de l’Art a peu ou prou teinté la plus grande part de la vie artistique et littéraire moderne » [Schaeffer JM]. Ce monde là n’arrête pas de dire qu’on ne sait plus ce que c’est que l’art. Au terme des grands textes d’un Derrida ou d’un Lyotard, [Rancière] finit par écrire des phrases aussi définitives que « Les pages qui suivent s’attachent plus à cerner la manière dont un régime d’identification de l’art s’est lié à la promesse d’un art qui ne serait plus qu’un art ou ne serait plus de l’art ». Sonnez clairons, et observons une minute de silence, s’il vous plaît !

De leur côté, la plupart des algoristes contestent radicalement les orientations actuelles de l’art contemporain. Ils oscillent entre rage et dérision quand ils visitent les grandes célébrations de Paris, Bâle ou Miami. Beaucoup hésitent à le dire, soit parce qu’ils sont enseignants et ne peuvent scier la branche qui les nourrit, soit par peur de paraître ringards, même s’ils peuvent se référer à une très abondante littérature de contestation. Quelques uns le disent explicitement, par exemple Christian de Cambiaire, qui a signé sur le blog des algoristes « Ca suffit Dada ».

Il  serait dans la logique des algoristes de reprendre la construction esthétique au point où l’ont laissée les néo-impressionnistes, et même le cubisme des origines, et de mettre toute la science disponible aujourd’hui, notamment les neurosciences, au service d’une création artistique aussi riche que possible.  Malheureusement, cette piste positive est fermée par un épouvantail incontournable : la compromission des « constructivismes » des années 1920-1930 avec les régimes totalitaires fascistes ou communistes [Keucheyan]. C’est cette horreur qui a conduit le monde artistique à une attitude globalement postmoderniste. C’est elle qui a fait en pratique taire les voix optimistes du « musée imaginaire » [Malraux] ou du « village global »  (McLuhan] au profit des invectives d’un Walter Benjamin [Benjamin] ou  d’un Adorno [Adorno ].

                                                                                                                                                                                                                                                          

Ou, inversement, elle n’est que trop largement occupée par les grands maitres du marché actuel de l’image « non artistique » que sont les industriels du cinéma (d’animation, en ce qui nous concerne) des jeux, du web et maintenant des mobiles.  Ces mondes là n’ignorent pas les algoristes et leurs travaux, mais il ne leur offrent pas un vrai avenir d’artistes. La pression productiviste est trop forte pour laisser beaucoup de place à la créativité personnelle.  Quelques algoristes, et non des moindres, se sont essayés à la libre entreprise. A notre connaissance, ils n’y ont pas survécu. Enfin,

les solutions institutionnelles développées pour les arts de performance (intermittents du spectacle) sont mal adaptées aux plasticiens.

De toutes façons, le monde de l’art aujourd’hui se caractérise par un considérable excès de l’offre de main d’œuvre sur la demande [Menger][Roberston]. Les algoristes, nouveaux entrants sur ce marché hautement compétitif, n’ont aucune chance d’y être favorablement accueillis !

Ajoutons que le monde de l’art contemporain est très contraignant, en particulier pour les peintres. Il faut pouvoir garantir au marché, en l’occurrence au galeriste, un minimum d’œuvres par an. Alors « Le choix de ne pas sacrifier au rendement exigé de l’artiste, ou d’être artiste pour soi, d’économiser l’ambiguë publicité de certain mouvement à la première personne, ne peut s’éprouver que comme un pari sur le bonheur » [Jouannais]. Pire encore, pour vraiment réussir dans ce monde « L’artiste est devenu un ingénieur, le héros moderne un spécialiste de la technique des médias. Il est plus qu’un fournisseur, il est l’opérateur de gestion de son optimalité industrielle… (il) se révèle capitaine d’industrie culturelle… » [Jouannais].

D’où une forme raisonnable de compromis : l’enseignement.

Des enseignants-chercheurs

Le monde universitaire (et des écoles privées, importantes dans cette spécialité) est donc le biotope où les algoristes peuvent le plus facilement s’épanouir.

L’art algorithmique peut à bon droit se considérer comme une forme de recherche. Cela n’est pas si nouveau dans le monde des artistes, comme  le montre [Gombrich] à propos de Vinci ou de Constable. Et un [Kemp] présente largement les relations possibles entre science et art, très présentes aussi chez [Haraway].

En poussant assez loin dans le monde de l’abstraction scientifique, les spécialistes de l’art génératif pourraient se sentir proches des réflexion de Bailly et de Longo, cherchant à caractériser la “singularité physique du vivant” et écrivant par exemple  « la notion de criticité physique pourrait nous aider à comprendre un état biologique comme une singularité physique de longue durée » , tout en insistant constamment sur les limites fondamentales de l’algorithmique. Mais eux-mêmes ressentent la situation critique de la science d’aujourd’hui : « en biologie et en cognition, on aurait besoin d’un grand théorème négatif… Si l’on veut qu’un nouveau domaine théorique s’établisse… (comme avec Gödel) il faut aussi viser, par un regard critique, les limites de ces méthodes. Quelles sont les fonctions cognitives ou les structures cérébrales (cellulaires) démontrablement insaisissables par les réseaux de neurones formels… ». Sur ce terrain, en quelque sorte algoristes et scientifiques mènent le même combat.

Mais il reste un décalage, dû en particulier au fait qu’un scientifique est jugé principalement sur ses publications, ce qui ne l’encourage pas nécessairement à poursuivre longtemps le travail sur un type d’algorithme déterminé. Cela ne va pas beaucoup mieux pour les projets d’étudiants, dont la plupart finissent à la benne une fois les jurys et l’exposition de fin d’année passée. Quand l’œuvre est purement « numérique », elle a des chances de finir oubliée sur quelques CD au fond d’un tiroir. Sa commercialisation est en outre pratiquement impossible puisque l’œuvre appartient essentiellement à l’Ecole, qui n’a ni  les moyens ni les raisons d’en assurer la promotion au-delà de quelques journées d’étude et salons scientifiques.  Le gâchis est encore plus regrettable quand l’œuvre a mis en jeu des matériels relativement coûteux (notamment des périphériques d’acquisition ou de restitution) qui prennent la poussière dans un fond de cave en attendant de rejoindre la benne eux aussi. Je m’abstiendrai de citer quelques exemples parisiens assez choquants.

L’avenir des algoristes : innovation et coopération

Comment être un algoriste, aujourd’hui ?

Un algoriste, au sens plein, développe ses propres algorithmes.  Mais il n’est évidemment pas question de tout réécrire, depuis les concepts de haut niveau jusqu’au pilotage du micro-processeur et de l’imprimante.  Une énorme masse de logiciels est disponible sur le marché, mais sous plusieurs formes, du point de vue de leur maniabilité par l’algoriste.

De nombreux algorithmes sont intégrés aux logiciels du commerce ou du « libre », qu’il s’agisse de peinture (logiciels graphiques 2D ou 3D)  ou de musique (notamment les séquenceurs, mais aussi les « claviers » eux-mêmes). Souvent, ils ne sont utilisables que par des mouvements de souris ou de clavier. Dans ce cas, l’algoriste ne peut s’exprimer qu’en explicitant des règles pour lui-même. Par exemple, écrit Bittler  « pour ce qui est de l'algorithme que j'utilise il s'agit de la gestion du motion blur séquentiel intégré au logiciel Lightwave 3d de Newtek, je fais énormément d'expérimentations avant de rendre une image il faut qu'il y ait un équilibre dynamique. Mon travail est un peu comme de la méditation éveillée associée à un logiciel d'image de synthèse ou une forme de sagesse évolutionniste »

D’autres logiciels  autorisent l’écriture de macro-instructions, donc d’expliciter une « suite de règles ». Les limites sont relativement étroites : panoplie des outils fournis par le logiciel, et surtout très peu de « structures de contrôle » : formation de boucles, conditionnements.

La liberté maximale est donnée par les langages de programmation (essentiellement C++, C# et Java actuellement). On trouve sur le marché des bibliothèques que l’on peut combiner pour construire ses propres algorithmes.  Pour ce faire, il peut s’inspirer de sites ou d’ouvrages spécialisés qui offrent, selon les cas :

- des bases théoriques et des formules mathématiques, à charge par l’utilisateur de les exprimer dans le langage de son choix par exemple le très général [Agoston] ou le [Bres], plus spécialisé ;

- une formulation plus directement algorithmique, en « pseudo-code », par exemple le très classique [Foley] pour les bases générales, par exemple la traduction des espaces de couleur RGB en HSV ou l’énorme [Ebel] pour les textures procédurales, [Thalmann] pour le corps humain.

 

Un compromis intéressant est proposé par Processing. Ce logiciel (téléchargeable gratuitement et fonctionnant sur toutes les plates-formes) offre une riche panoplie d’outils, bien documentés. Elle peut être complétée par des bibliothèques libres elles aussi, par exemple JMyron pour le pilotage d’une webcam. L’algoriste a ici une très grande liberté d’expression et de construction, puisqu’il s’agit d’une spécialisation de Java, qui en accepte pratiquement la totalité de la syntaxe et des opérateurs, moyennant un certain nombre de contraintes (par exemple sur le multithreading).

 

Le choix d’un niveau plus ou moins « bas » (certains préféreront « profond ») dépend de l’espace visé ainsi que des compétences et des motivations de l’algoriste. S’il trouve un outil très bien adapté à son projet et/ou s’il n’a qu’un goût et des aptitudes modérés à la programmation en dur, les outils « fermés » suffiront largement à sa créativité. En revanche, s’il aime « coder en dur », est prêt à en assumer les lourdeurs (en particulier le débogage), il peut se donner pour objectif d’explorer plus librement de nouveaux espaces. Mais cela se paye en heures sinon en mois de travail fastidieux pour parfois « réinventer l’eau chaude ».

 

Le « 3D », a fortiori le relief à proprement parler, exigent des codes sensiblement plus lourds et des compétences nettement plus importantes que le 2D. Et plus encore si l’on passe de l’image fixe à l’image animée et au multimédia.

 

Le progrès régulier des produits disponibles déplace progressivement les limites de ce qu’il est raisonnable de faire soi-même. Cela joue pour les individus comme pour les grands ateliers industriels. En 2009 encore, ils emploient de grosses équipes de développeurs au service de leur logiciel « propriétaire ». Il est vraisemblable qu’ils feront de plus en plus appel aux produits du commerce, quitte à conserver quelques équipes très pointues pour conserver leur capacité d’innovation sur des marchés très compétitifs. 

L’algorithme, outil ou source de créativité ?

On tend à considérer les algorithmes  comme des outils « au service » des projets, de l’imagination des artistes. Mais, et ce n’est pas tout à fait nouveau, l’outil lui-même donne de nouvelles idées aux artistes.  L’invention de la peinture à l’huile (Van Eyck) ou des couleurs en tube (Impressionnistes) ont fortement influé sur la manière de peindre et même sur les sujets traités.

Dans le cas des algoristes, l’outil est sans doute venu en premier.

Et l’art algoristique est un jeu sur les formules autant et plus que sur les formes et les couleurs (voir encadré sur Anne-Sarah Le Meur). Ce jeu peut être considéré comme un moyen d’exploration du futur des sociétés [Léger] [Garaudy].

Le fait de formuler un algorithme permet :  

- de le nier ; simple négation ; dialectique hégélienne ; le bit de plus ;

- de le dépasser par généralisation/généricité ; c’est une pratique constante en informatique comme en mathématiques : on teste sur un exemple, puis on généralise ;  les toutes premières versions  de Roxame  donnaient le choix entre soit un  rectangle rouge soit un cercle jaune... et que l'on a généralisé en ayant aussi bien des rectangles et des cercles de toutes les couleurs; 

- de recourir aux structures fondamentales de l’itération et de la récursion.

« En commençant, il faut avoir une idée, mais une idée vague avait dit Picasso un jour à Kahnweiler » (cité par [Cabanne]).  Il en va de même pour les algoristes dans le cours de l’écriture de l’algorithme. On commence avec un germe, un projet aussi ambitieux que bref. Par exemple :

- pour Roxame : programmer un peintre

- pour Primeval : faire émerger génétiquement l’art d’une « soupe primordiale »

- pour Alkwarel : construire un atelier coopératif où coexistent artistes humains et artistes « robots »

Mais ensuite, l’implémentation de l’idée ne va pas aller toute seule. Depuis toujours, en informatique, on cherche le moyen de passer directement, sans effort et sans erreur, de la conception d’origine au programme final. On espérait d’abord cela des langages (Fortran, Cobol au cours des années 60), puis des « méthodes d’analyse » au cours des années 1970. Quarante ans plus tard, le développement de n’importe quel programme, qu’il s’agisse de comptabilité ou de création graphique, reste un travail long, largement incertain, et où la recherche des bogues consomme plus de temps que l’écriture proprement dite. On perd beaucoup de temps avec les outils qui ne relèvent pas directement de l’algorithmique : accès aux fichiers, utilisation de capteurs externes…, car ils ne sont pas toujours bien documentés, et l’on recopie des exemples dont la logique paraît absconse.

Développer la coopération

L’art des algoristes introduit en peinture un problème que ne connaissaient pas les générations antérieures  de plasticiens : la nécessité, pour créer, de disposer d’une double compétence : artistique et programmatique. On n’aurait pas imaginé autrefois, de se dire peintre si on ne savait pas manier un pinceau et mélanger des couleurs. Les écoles, ou les ateliers, formaient à la fois le sens artistique (pratique du dessin, étude des maîtres…)  et la compétence matérielle (préparation et mélange des couleurs, application des vernis, voire préparation des toiles sur leur cadre).

Certes, avec un ordinateur branché sur Internet, il est possible à un individu d’œuvrer seul, d’être auteur, typographe, imprimeur, éditeur et diffuseur, jusqu’à l’envoi des œuvres par le réseau ou par la poste, avec paiement par carte bancaire. Il reste à prouver qu’il est possible de survivre de cette manière, et tout simplement de dépasser quelques idées simples et de leur donner suffisamment de « substance » pour qu’elles fassent bonne figure dans un salon de particulier ou une manifestation.

La capacité d’une personne seule à créer des œuvres intéressantes est d’autant plus  problématique que :  

-  le monde de l’art est, et devient tous les jours plus, socialement complexe ; y faire son trou suppose un engagement précoce et considérable [Menger], [Robertson] [Artprice] ; l’histoire de l’art ne cesse de s’enrichir au fil des décennies ; l’imprimerie met potentiellement sous les yeux de tous, artistes comme spectateurs, la quasi-totalité de l’œuvre peint depuis l’origine des temps [Malraux], et l’on ne peut faire création originale sans savoir ce qu’on fait les prédécesseurs ; les bons programmeurs ont rarement une bonne connaissance de l’histoire, et moins encore du monde de l’art ;

-le monde des algorithmes ne cesse de s’enrichir ; pour programmer de nouveaux algorithmes, il ne suffit plus, comme aux origines de l’art informatique (années 1960 à 1980) d’aligner quelques lignes de Fortran ou de Basic ; un véritable algoriste ne peut se contenter d’exploiter les bibliothèques disponibles autour de C++ ou de Java (par exemple Processing) ; créer de nouveaux algorithmes, sinon même en avoir simplement l’idée, exige une culture informatique qui demande de sérieux efforts  et des capacités techniques hors de portée de beaucoup d’artistes ; en outre, le développement informatique est souvent long et fastidieux ; même les artistes qui savent programmer aimeraient souvent pouvoir s’en décharger. Il est vrai que de nouveaux outils apparaissent sur le marché commercial ou libre. Processing est un bon exemple. Même là, peu d’artistes sont tentés de plonger dans la piscine des formules et des structures de contrôle. Même à l’intérieur de l’informatique, il y a aujourd’hui bien des spécialités différentes. Il est très difficile d’être un bon utilisateur des logiciels 3D, et pour autant l’on n’est pas un programmeur C++ ou Java. Et l’ont peut maîtriser plusieurs langages sans pour autant être très à l’aise avec la multiplicité des systèmes d’exploitation, le pilotage des périphériques, la mise en œuvre de la robotique ou l’emploi des réseaux. Ce problème n’est pas totalement  limité aux arts plastiques, d’ailleurs :  à propos des sons de piano modélisés par algorithme, Katia Choquer commente « … faudra-t-il un diplôme d’ingénieur pour en maîtriser les possibilités ? La question se pose sérieusement à la lecture du mode d’emploi… » ; et les technologies sont loin d’avoir dit leur dernier mot, avec une loi de Moore qui continue de s’appliquer pour l’essentiel, et de nouvelles perspectiques qui s’ouvrent avec la vision et demain la communication « directe » (mais électroniquement médiatisée) de cerveau à cerveau [Berger J].

Peu de personnes peuvent prétendre disposer d’une culture assez polyvalente pour trouver ici, seuls, originalité et résonance dans un public. Quelques génies, espérons le !  En dehors d’eux, comment construire de bonnes équipes ? A notre connaissance, trois configurations ont prouvé qu’elles pouvaient donner de bons résultats :

- les grandes équipes industrielles (jeux et cinéma d’animation) ; ce n’est peut-être pas enthousiasmant, quand on la vocation d’artiste, de se retrouver dans un « cubicle » à coopérer avec des centaines d’autres personnes [Co] ; et ce n’est en général, à en croire les rumeurs, pas très bien rémunéré. Du moins peut-on avoir la satisfaction de coopérer à de grandes et puissantes œuvres.

-  les projets d’étudiants des Ecoles d’art et de certains laboratoires universitaires ; c’est une spécialité française, pratiquée aussi un peu en Angleterre et en Allemagne ; la qualité des résultats est attestée par les nombreux films primés au Siggraph, alors même que nos équipes sont en concurrence avec des écoles et des entreprises américaines ;

- la collaboration et la sous-traitance avec des indépendants ou des PME ; le cas le plus classique est celui où l’artiste se fait seconder techniquement par un bon informaticien ; cette solution est souvent assez frustrante pour l’informaticien, car souvent sa rémunération n’est pas au niveau de celle qu’il pourrait avoir dans l’industrie, sans pour autant qu’il soit reconnu comme co-auteur de l’œuvre.

Alors, les algoristes, qui sont une forme d’avant-garde sur le plan technique, mais pas au sens idéologiquement chargé des « vrais artistes » seront-ils condamnés au sort que leur prédit [Jouannais] :  « Il en va ainsi des artistes d’avant-garde, ils naissent, par génération spontanée, d’un milieu désertique, la modernité, qui devient immédiatement et pour toujours leur horizon, l’enjeu de leur démarche, et qui les dévore. Seuls ou groupés dans des kibboutz nommés mouvements, ils s’attachent à réduire le désert de leurs théories et meurent invariablement crucifiés sur les dunes » ?

Une des raisons d’être de l’association Les Algoristes est de pratiquer l’assistance mutuelle, d’échanger compétences et réseaux, et de lancer des projets coopératifs. Pour l’instant, les deux premiers projets n’ont pas débouché sur des œuvres remarquables. Mais l’association grandit. Fondée par des anciens, comme le groupe américain Algorists, elle attire de plus en plus de jeunes talents. Pour faire image, le président a 71 ans, le secrétaire 25.   Elle a bon espoir d’aider à trouver aussi bien de nouvelles idées artistiques que de nouveaux modèles économiques. Et, même si elle n’y parvient pas, ses réunions auront donné beaucoup de plaisirs à ses membres.

 

Bye-bye Dada, oui à la productibilité technique

Christian de Cambiaire

Quel est le but recherché par la mise en œuvre de procédures algorithmiques dans la création des œuvres d’art ? Sans aucun doute celui de la continuation de l’Histoire de l’art qui s’est presque totalement fourvoyée, depuis Duchamp, dans une voie où les créateurs sont condamnés à « inventer sans cesse de nouvelles ruptures, de nouvelles provocations ». C'est-à-dire que, faute de ruptures profondes, il ne leur reste plus que la provocation et, contrairement au titre d’une célèbre exposition « Quand les attitudes deviennent formes » (1969, Kunsthalle de Berne, commissaire Harald Szeeman), les provocations, qui intéressent au plus haut point les sociologues, ne sont pas forcément des formes d’art.

Il ya donc tout un pan de l’histoire de l’art resté jusqu’ici à l’état virtuel mais qui pourrait s’écrire à partir de deux références historiques qui sont comme des bornes entre lesquelles nous pouvons réfléchir et fonder notre légitimité historique.

  

La première est celle de Walter Benjamin qui avec L'œuvre d'art à l'ère de sa reproductibilité technique (1936) ouvrit la voie à une réflexion sur les conditions d'existence nouvelles de l'art dans une société désormais dominée par les progrès de la technique.

 

Parmi les conséquences de ces rapports nouveaux de l'art avec la technique, il en est une que Benjamin évidemment ne pouvait pas prévoir, qui ne fut rendue possible que par l'apparition de l'informatique dans tous les niveaux de la vie moderne. C’est la légitimité, non plus d'une simple reproductibilité, mais d'une productibilité technique de l'œuvre d'art.

Ce passage à la  productibilité technique est un enjeu essentiel qui doit nous guider dans la mise au point des modes opératoires et nous donner le moyen d'affirmer la continuité d'une modernité artistique qui ne craint plus de s'instrumentaliser dans la technique.

 

Mais hélas, face à ce progrès technique, les surréalistes ont réagi par le rejet et par un retour impératif vers les valeurs du rêve, de l'instinct, de l'inconscient, de l'automatisme, de l'occultisme. Ils ont contribué à la détestation du progrès et à la valorisation du fétichisme comme archétype mental.

De plus ils ont voulu donner à l'œuvre, plus ou moins directement, un contenu politique. N'oublions pas qu'André Breton, en 1930, a officiellement mis son mouvement « au service du Parti communiste.» Cette volonté de soumettre l’art à un contexte politique a lourdement influencé ses codes de perception et d’évaluation, éliminant de leur instrumentalité la frange de ceux qui ne partageaient pas la même idéologie.

 

Or, dans la réalité culturelle, ce sont bien les surréalistes, via Duchamp, Miro, et leurs nombreux descendants spirituels qui ont influencé et influencent encore la presque totalité de l'art dit contemporain.

 

A titre personnel, je ne me place pas dans cette logique.  Si je devais à tout prix me trouver une généalogie artistique il faudrait la remonter aux contemporains des surréalistes, aux futuristes qui eux, à l'inverse de leurs concurrents avaient fondé dans la technique moderne et dans ses progrès fulgurants, l'essentiel de leurs valeurs et de leurs convictions (avec toutes les réserves possibles sur l’orientation politique prise par la suite par le mouvement).

 

La productibilité technique nous suggère des modes opératoires résolument modernistes. Par exemple ce qu’appelle « l'itération jusqu'à l'instant t ».  Le tableau, selon la bonne vieille citation de Maurice Denis : « avant d'être une scène de bataille ou une femme nue, une peinture c'est essentiellement des pigments de couleurs assemblés selon un certain ordre sur une surface plane ».

 

Mais  tout dépend de la nature de cet ordre. L'ordre qui a déterminé mes assemblages,  mes e-paintings, n'est pas celui de la représentation, ni celui de l'expression de soi, ni celui de l'évocation des formes de l'expérience sensible, ni celui d'un message à l'adresse de la sphère sociale ou politique. Il est de l'ordre de l'itération, c'est à dire d'une répétition différentielle.

 

Pour donner existence à l'ordre de l'itération, pour l'actualiser au mieux, il m'a été nécessaire d'inventer un nouvel outil, un nouveau mode opératoire qui a trouvé sa concrétisation dans la mise au point de mon logiciel d’art Explorer 2002. Celui-ci génère en continu un spectacle visuel basé sur la combinatoire d'un certain nombre d'éléments en perpétuelle transformation. Le spectacle est toujours différent dans les limites de son identité propre et selon les valeurs données aux différents paramètres du système. Le rôle nouveau du sujet artiste qui a été éloigné dans ce processus de toute tentation compositionnelle , c'est à dire de toute démarche heuristique, est de choisir dans cette continuité des moments privilégiés. C’est l’instant T où on appuie sur la touche stop, qui fige l’image destinée à être imprimée, à devenir un tableau qui vaudra donc par son "instantanéité", si je puis me permettre ce néologisme.

 

 

 

 

 

L’atelier virtuel

 

Primeval

La soupe primitive

Ce projet vise à se réaliser sous forme d'un réseau de site web autonomes mais communiquant.

 

Chaque site crée des œuvres avec les algorithmes, modèles et formats de son choix, et les rend disponibles dans les conditions de son choix. Une grande variété de modèles techniques, artistiques et juridiques est souhaitée.

 

Le cœur du réseau est constitué de sites de type "soupe primordiale", répondant aux caractéristiques suivantes :

- Le site contient un nombre assez élevé (au minimum quelques centaines, sans limite supérieure, mais quelques milliers ou dizaines de milliers sont un objectif raisonnable pour les prochaines années) d'œuvres d'art, dont certaines peuvent être qualifiées d' "œuvres" au sens traditionnel, d'autres étant des algorithmes au sens large (ce peut être des neurones, des agents, des jeux de règles, des documents descriptifs ou des catalogues...).

 

- La population d'œuvres se développe de façon autonome, d'une manière comparable à la "soupe primale" d'où émergea la vie à son origine. Elle évolue sans intervention humaine directe. Plus précisément, ce type de site a vocation à devenir de plus en plus autonome, et donc à ne recevoir que des interventions de plus en plus indirectes.

 

- Le site échange librement des œuvres avec les autres sites du cœur. Des conditions particulières seront fixées pour les autres sites adhérents au projet mais non membres du cou.

(d’après le site http://hebert.kitp.ucsb.edu/studio/algorists.html)

Mauro Annunziato

Charles Csuri,

Hans Dehlinger

Helaman Ferguson

Jean-Pierre Hébert

Manfred Mohr

Ken Musgrave

Roman Verostko

Mark Wilson.

 

Hébert, Mohr, Verostko et Wilson sont aussi membres du groupe “The plotter artists”.

Voir le site http://www.les-algoristes.org

Elise Aspord

Pierre Berger (président)

Michel Bret (membre d’honneur)

Christian de Cambiaire

Emmanuel  Cayla (Cétoine)  

Xavier Gouchet (secrétaire)

Adrien Hérubel

Alain Lioret

Alain Longuet

Arnaud Palin Sainte Agathe

Benjamin Raynal

Stéphane Trois Carrés (trésorier)

Anne-Sarah Le Meur

Pourquoi pas des couleurs négatives ?

Anne-Sarah Le Meur a la peinture pour vocation, dans la lignée de l’abstraction lyrique. Elle confesse son incapacité à programmer, tout en ayant besoin de comprendre ce qu’elle écrit « No mystery must hide in my code ». Elle a eu la chance de trouver un certain nombre de développeurs qui l’ont aidée, au fil des ans,  à développer un environnement spécifique de programmation (Francis Bras, Gilles Baptest, Gregory Daniel, Didier Bouchon, Anthoni Schiochet).

Numbers  “ obey physical rules, but because they only are numbers, they can go beyond  physical rules, and are freed from realistic phenomena. It is what I am looking for in computer art, a logic we can play with, distort, and which can generate something unexpected. It is one of the strengths of programming language : to chose parameters, you are not dependant on “predetermined cursors” in “predetermined tools windows” which have fixed boundaries, and on documentation reductions. Code yourself, don’t trust the documentation and always try the extreme limits of any function”

Exploitant cette liberté, elle invente par exemple les “couleurs noires”  : “Negative parameters (illegal in the documentation) produce negative lights. It means black lights, antagonist lights that can absorb or destroy bright lights according to heir different powers of lighting. Once the black light was found, I needed a second one, a second pole.. “

Dans ce genre d’exploration, Anne Sarah a d’illustres prédécesseurs… mais c’était des mathématiciens, pas des artistes. Comme le raconte Michel Serfati dans « La révolution symbolique » Descartes, prolongeant les travaux de Viète, a créé le système moderne de notation des puissances, en utilisant la « position haute » à droite de la variable.  « Les géomètres de la fin du XVIIe siècle envisagèrent ainsi la substitution… de « formes » arbitrairement composées avec le système symbolique dont ils disposaient. Tous les essais furent ici permis, avant même d’envisager les significations ».  [Serfati] Art et mathématiques même combat ?

Historiquement,

les algoristes un peu en décalage de phase sur l’histoire

Historiquement, les algoristes apparaissent par vagues, en léger déphasage avec celles des lumières et du « modernisme »

- La Renaissance : perspective de Brunelleschi et Alberti.

- Les Lumières proprement dites : Bach et le clavecin bien tempéré,  Mozart et le premier morceau composé à coups de dés, Constable et le réalisme des couleurs (1816, [Gombrich]).

- La poussée scientiste de la fin du XIX : musique sérielle prévue par Jules Verne [Verne] et surtout, montée de la philosophie et des problèmes qu’elle pose ; aspects scientifiques des néo-impressionnistes.

- Le grand élan scientifique des années 30 : Schillinger, ondes Martenot, Léger, Bauhaus (d’un certain point de vue) qui se poursuit malgré (voire grâce à) la guerre  et se prolonge avec Calder, Tinguely, Schoeffer, Vasarely, Moles, Ducrocq, pavillon Philips à Bruxelles ; la cybernétique, les grands espoirs de l’IA …  [Schillinger][Schoeffer][Klee 22][Klee 56][Itten] ; l’exposition de Bruxelles en 1958 marqua une sorte de point d’orgue, avec l’atomium triomphant et le pavillon Philips, œuvre architecturale, lumineuse et musicale, principalement réalisée par Varese et Xenakis sous l’autorité de Le Corbusier. Il fut hélas détruit à la fin de la manifestation sans que quiconque ne proteste.

- Le début des trente Glorieuses   1969 : Oedipe roi de Kayat, L’augmentation, de Pérec.

- L’apparition de la télématique (minitel) puis d’Internet,  de 1982 à 1992.

Il y a déclin en revanche quand le « romantisme » l’emporte, relancé par « les horreurs de la guerre » ou simplement les excès des rationalistes, ou encore parce que les techniques de l’époque ne permettent pas d’aller beaucoup au-delà des grandes idées.

- Fermeture des esprits à la fin du règne de Louis XIV ; le rococo l’emporte sur le rationnel

- Excès de la dictature napoléoniens, romantisme, Beethoven contre Mozart.

- Limites techniques pratiques et guerre de 14-18 ; relativité et principe d’incertitude. Dada et les surréalistes.

- Déception « soixante-huitarde » à la fin des Trente glorieuses, les grands élans de Malraux-McLuhan-Wiener retombent dans la malédiction post-moderniste.

En pratique, les premiers algoristes au sens présent du terme apparaissent plutôt la fin des années 1970 (Cohen, Csuri, Cambiaire…). La deuxième vague (Lioret, Berger, Cayla) apparaît plutôt après la crise de 1993.

Bibliographie

 [100] Beaux Arts Magazine : 100 artistes. Qu’est-ce que l’art contemporain en France.  2006

 [Adams]  Randy Adams, Steve Gibson and Stefan Müller Arisona (eds.) : Transdisciplinary digital art. Sound, vision and the new screen. Conference, Zurich and Victoria (Canada) 2006-2007. Springer 2008.

[Adorno]  Theodor.W. Adorno :  Autour de la théorie esthétique. Paralipomena, introduction première. Klincksieck 1976.
[Adorno]  Theodor W. Adorno :  L'art et les arts. Textes réunis et présentés par Jean Lauxerois. Desclée de Brouwer 2002.
[Adorno] Theodor W. Adorno  : Aesthetic theory. Continuum 2002. Original 1977.

[Agoston]  Max K. Agoston : Computer graphics and geometric modeling. Mathematics . Springer 2005.

[Aho]  Alfred Aho , John Hopcroft John and Jeffrey Ullman: The design and analysis of computer algorithms. Addison-Wesley, 1976.

[Akin]  J.E. Akin : Finite element analysis, with error estimators. Elsevier 2005

[Albers] http://www.artcyclopedia.com/artists/albers_josef.html

[Alexander] Thor Alexander (ed.)  Massively multiplayer game development 2. Charles River, Mass 2005.

[Algorists] Site : http://hebert.kitp.ucsb.edu/studio/algorists.html. Voir aussi Wikipedia.

[Agloristes] Site HTML : http://les-algoristes.org. Blog : http://les-algoristes.over-blog.com/

[Amerika] Mark Amerika : Meta/data, a digital poetics.  MIT Press, 2007

[Animation:Master] Software product. See for instance  David Rogers : Animation:Master, a complete guide. Charles River, Boston Mass, 2007.

[Aquinas] Thomas Aquinas: Summa Theologica.  Voir par exemple l’édition de Nicolai, Sylvii, Bil Billuart et CJ. Drioux. Bloud et Barral, Paris, 1856. « 

[Artprice] Le marché de l’art contemporain 2007/2008.

[AP]  Le XVIe rendez-vous des artistes graphiques à Lurs : « l’artiste, déjà soumis au public, sera-t-il remplacé par la machine ? . Article signé A.P. dans Le Parisien du 29/8/1966

[AS] ArtStudio 9/1991. La sculpture en mouvement

[Asch 83] Georges Asch et al. Les capteurs en instrumentation industrielle. Dunod 1983.

[Asch 03] Georges Asch  et al. : Acquisition de données, du capteur à l’ordinateur. Dunod 2003

[Aspord] Elise Aspord. L’art évolutif et comportemental. Thèse de doctorat, Université Paris X, 2008

[Atlan] Henri Atlan : La fin du « tout génétique ». Vers de nouveaux paradiges en biologie. Inra éditions 1998.

[Bailly] Francis Bailly et Giuseppe Longo  :  Mathématiques et sciences de la nature. La singularité physique du vivant. Hermann 2006.

[Balpe] Jean-Pierre Balpe :   Initiation à la génération de textes en langue naturelle. Exemples de programmes en Basic. Eyrolles, Paris, 1986.

[Balpe2] Jean-Pierre Balpe, I. Saleh, D. Lepae et F. Papy : Hypertextes, hypermédias. Créer du sens à l'ère numérique. Hermès/Lavoisier, Paris, 2003. 
[Baudelaire] Charles Baudelaire : Critique d’art, suivi de critique musicale. Avec une présentation de Claire Brunet. Gallimard 1976, 1992.

[Bellanger] M. Bellanger : Traitement numérique du signal, théorie et pratique Masson 1987.

[Benjamin] Walter Benjamin : L’œuvre d’art à l’heure de sa reproductibilité technique. Editions Allia, Paris 2005.

[Berger 69] Pierre Berger : Œdipe roi 69 : une mise en scène sans complexe. 0.1. Informatique, 12 mai 1969.

[Berger 99] Pierre Berger : L’informatique libère l’humain, la relativité digitale. L’Harmattan 1999.

[Berger 86] Pierre Berger : Télé CAO pour l'emballage. Le Monde Informatique no 248, 22/9/86

[Berger J] Joël Berger et Pierre Berger : Prospective et entreprise, 2028.  in Entreprise 2018. Conseil Supérieur de l’Ordre des Experts Comptables  Paris 2008.

[Berger M. 01] Marcel Berger : « Peut-on définir la géométrie aujourd’hui ». Results in mathematics 40(2001). Birkhauser Verlag, Basel 2001.

[Berger M. 03] Marcel Berger : A panoramic view of Riemannian geometry. Springer 2003.

[Bisognin] Luca Bisognin et Sylvie Prety : Emotions et systèmes multi-agents, une architecture d’agent émotionnel.  Leibnitz-Imag, équipe Magma, http://magma.imag.fr/publications/papers/2004-Bisognin-Pesty-JFSMA.pdf

[Blanc] Charles Blanc : Grammaire des arts du dessin.   1863 et plusieurs éditions ultérieures.

[Boissier] Jean-Louis Boissier :

[Boucher] H. Boucher. Organisation et fonctionnement des machines arithmétiques. Masson 1960.

[Braga] Newton C. Braga : Mechatronics for the evil genius. 25 build-it-yourself projects. McGraw-Hill 2006. 

[Breazeal] Cynthia L. Breazeal : Designing sociable robots.  MIT Press 2002

[Bres] Stéphane Bres, Jean-Michel Jolion and Franck Lebourgeois : Traitement et analyse des images numériques. Hermès-Lavoisier 2003.

[Bret] Michel Bret: Images de synthèse. Méthodes et algorithmes pour la réalisation d'images numériques. Dunod 1988

[Brinkmann] Ron Brinkmann : The art and science of digital compositing.  Morgan-Kaufmann 1999

[Burnham] Burnham Jack. Beyond Modern Sculpture. (1968) . See comments in Whitelaw

[Cabanne] Pierre Cabanne. Le siècle de Picasso Denoël 1975

[Callet] Patrick Callet : Couleur-lumière, couleur-matière. Diderot Multimédia 1998.

[Chasport] Danièlle Chasport : Image, parole, texte, l’Ordinateur face à la création. Les Echos, 27/10/1986 . Pas très « art », mais il y a un petit papie sur Balpe, l’atelier Alamo, le logiciel Renga.

[Choquer] Katia Choquer : Touche futuriste. Roland développe un piano utilisant la modélisation des sons au lieu de l’échantillonnage. Diapason, juillet-aout 2009.

[Clodic]  A. Clodic, V. Montreuil, R. Alami et R. Chatila : Une architecture décisionnelle pour l’interaction homme-robot. LAAs. http://jnrr05.irisa.fr/document/jnrr-poster-006.pdf

[Co]  Phil Co : Level design for games. Creating compelling game experiences.  New Riders, Berkeley 2006.

[Cocquerez] J.-P Coquerez and S. Philipp (eds).  Analyse d’images, filtrage et segmentation. Masson 1995

[Cohen] Harold Cohen : Coloring without seeing, a problem in machine creativity (sur le web) $$$

[Cohen] Harold Cohen : The further expoits of Aaron, painter (sur le web)

[Costa] Mario Costa : Internet et globalisation esthétique. L’avenir de l’art et de la philosophie à l’époque des réseaux.  L’Harmattan 2003.

[Couchot1] Edmond Couchot et N. Hillaire  : L’art numérique, Flammarion 2003.

[Couchot2] Edmond Couchot, Des images, du temps et des machines dans les arts et la communication. Jacqueline Chambon 2007

[Cox] David Cox, John Little and Donald O’Shea : Ideals, varieties and algorithms. An introduction to computational algebraic geometry and commutative algebra. Springer 1992,1997

[CyberArts] CyberArts2004

[Dawkins] Richard Dawkins .  The blind watchmaker. 1986

[Delahaye]  Jean-Paul Delahaye : Information, complexité et hazard. Hermès 1999

[Dreyfus]  G. Dreyfus, J.-M. Martinez, M. Samuelides, M.B. Gordon, F. Badran, S. Thiria, L. Hérault : Réseaux de neurones, méthodologie et applicaitons. Eyrolles 2002-2004

[Ducrocq] Albert Ducrocq L’Ère des Robots Julliard, 1953

[Durer]  Par exemple Du COLOMBIER  Pierre. Albert Durer.Albin Michel 1927.

[Ebert] David S. Ebert, F. Kenton Musgrave, Darwyn Peachey, Ken Perlin and Steven Workey : Texturing and modeling, a procedural approach. Morgan Kaufman 2003

[Eco] Umberto Eco (ed.) : On beauty. A history of a western idea.

[Elam] Kimberly Elam : Geometry of Design, Princeton Architectural Press 2001. French translation : Géométrie du design. Eyrolles  2005.

[Engélibert] Jean-Paul Engélibert .  L'homme fabriqué. Récits de la création de l'homme par l'homme. Garnier 2000. [Escarpit] Robert Escarpit : Le littératron. Flammarion, 1964.

[Farin] Gerald Farin and Dianne Hansford : The geometry toolbox for graphics and modeling. AK Peters, Mass. USA 1998

[Feigenbaum]  Edward A. Feigenbaum & Julian Feldman (eds.) : Computers & Thought. McGraw Hill 1963. Reprinted AAAI Press/MIT Press 1995.

[Fischwick] Patrick Fishwick (ed.) : Aesthetic computing.  MIT Press, 2006.

[Flash] Graphic software. See for instance  Shamms Mortier, Flash 5 en 30 étapes faciles, Osman Eyrolles 2001

[Foley]  James D. Foley, Andries van Dam, Steven K. Feiner, John F. Hughes : Computer Graphics. Second edition, Addison Wesley 1990

[Forest] Fred Forest : Pour un art actuel. L'art à l'heure d'Internet. L'Harmattan 1998.

[Forest] Fred Forest : De l’art video au net art. Art sociologique et esthétique de la communication. L’Harmattan 2004.

[Foster] Fred Foster, Catalogue de l’exposition  An American Odyssey,1945/1980[Debating modernism],  Madrid, Salamanca, A Coruña 2004, New York 2005).

[Frank]  Jane Frank (ed.) : Paint or pixel, the digital divide in illustration art. Nonstop press, New York 2008.

[Fumaroli] Marc Fumaroli : Paris-New York et retour. Voyage dans les arts et les images. Journal 20007-2008. Fayard 2009

[Funck-Hellet]  Ch. Funck-Hellet : Composition et nombre d’or dans les oeuvres peintes de la Renaissance. Proportion, symétrie, symbolisme. Editions Vincent Réal, Paris 1950.

[Garaudy] Roger Garaudy: Esthétique et invention du futur. 10/18 UGE 1971.

[Garrelts] Nate Garrelts (ed.)  Digital Gameplay. Essays on the nexus of game and gamer. McFarland , Jefferson NC, 2005.

[Gazzaniga] Michael S. Gazzaniga, Richard B. Ivry ad George R. Mangun. Cognitive neuroscience, the biology of the mind.  Norton, New York, 1998-2009

[Genèse] Premier livre de la Bible. Le premier chapitre est très « algorithmique », le second beaucoup plus « analogique ».

[Gombrich 02] E.H. Gombrich : Art & illusion. A study in the psychology of pictorial representation. Phaidon 2002-2005.

[Gonzalez]  Rafael C. Conzalez and Richard E. Woods : Digital Image Processing. Sd edition. Pearson/Prentice Hall 2002.

[Greif] Irène Greif (ed.) Computer-supported cooperative work. (a book of readings) Morgan Kaufman, San Marco, California 1988. 

[Haggard]  Gary Haggard, John Schlipf and Sue Whitesides : Discrete mathematics for computer science. Thomson Brooks/Cole 2006

[Haraway] Donna J. Haraway : Modest_Witness@Second_Millennium. FemaleMan@Meets_OncomouseTM. Routledge 197

[Harel]  David Harel with Yishai Fedlman : Algorithmics, the spirit of computing.  Addison-Wesley 1987-2004

[Harley]  David Harley, Robert Slade & Urs Galliker : Virus, definitions, mécanismes et antidotes.  Campus Press, Paris 2002

[Heinich] Nathalie Heinich : La sociologie de l’art.  La Découverte, Paris 2001

[Hollis] Richard Hollis : Graphic design, a concise history. Thames and Hudson 1994

[Huitric] Hervé Huitric & Monique Nahas : Computer art with Rodin. In Information Processing 83, REA Mason ed. IFIP 1983

[Intellectica] Trois articles sur « cognition et mathématiques », avec F. Doridot, G. Longo et M. Panza. Intellectica no 39 , 2004/2. Les trois articles sont en ligne sur http://www.intellectica.org/archives/n39/n39_table.htm

[Itten] Johannes Itten . Art de la couleur. Dessain et Tolra 2004 . Original 1921-1961

[Java] Java Language, e.g . in  Cay S. Horstmann & Gary Cornell : Core Java, Sun Micropress 2008

[Jones] Joseph L. Jones :  Robot programming. A practical guide to behavior-based robotics. McGraw-Hill 2004.

[Jouable] Jouable. Art, jeu et interactivité. Expositions, workshops, colloque.  Genève, Kyoto, Paris.  HES Genève, Ensad Paris, Université Paris 8. Centre pour l’image contemporaine, Genève. 2004.

[Jouannais] Jean-Yves Jouannais : Artistes sans œuvres. Hazan 2007, Gallimard 2009

[Jouven] Georges Jouven. L'architecture cachée, tracés harmoniques. Dervy Livres, 1979.

[Kandinsky] Wassily Kandinsky Wassily. Ueber das Geistige in der Kunst, insbesondere in der Malerei. 1912. Traduction française : Du spirituel dans l'art, et dans la peinture en particulier. noël, Paris, 1969. [Kandinsky2] Wassily Kandinsky : Kunst und Linie zu Flache. Traduction française : Point et ligne sur plan. Denoël 1991.

[Kaplan] Frédéric Kaplan : La naissance d'une langue chez les robots. Hermès science 2001

[Kaufmann] Jean-Claude Kaufmann : Ego. Pour une sociologie de l'individu. Nathan 2001

[Kemp] Martin Kemp : The science of art. Optical themes in western art from Brunelleschi to Seurat.  Yale university press 1990.  

[Keucheyan] Razmig Keucheyan : Le constructivisme, des origines à nos jours.  Hermann2007

[Kant] Immanuel Kant : The critique of judgment. Prometheus books 2000

[Klee 22] Paul Klee : Cours du Bauhaus,  Weimar 1921-22. Contribution à la théorie de la forme picturale. Traduction Claude Riehl.  Musées de Strasbourg 2004

[Klee 56]  Paul Klee : Théorie de l’art modern. Denoël 1964, 1985

[Kott] Interview par Pierre Berger. Asti Hebdo..

[Lacan] L’auteur étant difficile en direct, nous recommandons par exemple le plus abordable Jacques Lacan, d’Anika Lemaire (Pierre Mardaga, 1977). 

[Laufer]  Roger Laufer ed. : La machine à écrire. Institut d'étude du livre. Solin, 1982.
[Laval 2009] Actes, notamment A.S. Lemeur …

[Leibniz] parmi d’autres éditions :  G.W. Leibniz : Discours de métaphysique, monadologie. Gallimard 2004.

[Leblanc] Gérard Leblanc. Various titles about programming languages, mainly C, C++, C#

[Lechner] Marie Lechner :  To go or not to go. In  Libération, 30-31 mai 1009.

[Leech] Geoffrey N. Leech : A linguistic guide to English poetry. Longman 1969

[Léger] Fernand Léger : Fonctions de la peinture Gallimard 1997

[Le Meur] Anne-Sarah Le Meur : « Body, numbers, light. color phenomena of Eye-Ocean, experimenta virtuail image”, in the proceedings of Laval Virtual Virtual reality international conference, 2009. www.laval. Virtual.org.

[Leroi-Gourhan] André Leroi-Gourhan : Le geste et la parole. Tome I. Technique et langage, 1964. Tome II. La mémoire et les rythmes, 1965. Albin Michel.

[Levy-Ranvoisy]  Francine Levy-Ranvoisy : Manuel de dessin pour communiquer avec une population non alphabétisée.  ACCT-Karthala 1987.

[Lioret] Alain. Emergences de nouvelles esthétiques du mouvement

[Lioret2] L'art génératif

[Lioret3].  Recherches, expérimentation et création

[Lioret4].  Publications et textes

[Longavesne]  Jean-Paul Longavesne : L’œuvre d’art à l’époque de sa production numérique : ironie de l’art digital.  Actes du congrès de Montpellier, 1996.

[Ludwig]  Mark Ludwig : Du virus à l’antivirus, guide d’analyse.  Dunod 1997.

[McComb] Bordon McComb & Mike Predko : Robot builder’s bonanza. 3d edition, McGraw-Hill 1987-2006

[Macdonald] Nico Macdonald : Guide complet du design numérique. Pyramid ntcv, Paris 2003.

[Mandelbrot] Benoit Mandelbrot : Les objects fractals. Flammarion 1975-1995

[Magnenat-Thalmann] N. Magnenat-Thalmann and D. Thalmann : Handbook of virtual humans. Wiley 2004.

[McCorduck] Pamela McCorduck : Aaron’s code. Meta-art, artificial intelligence and the work of Harold Cohen.  Freeman 1991

[McFarland] David McFarland and Thomas Bösser : Intelligent behavior in animals and robots. MIT Press 1993.

[Melot] Michel Melot : L'art selon André Malraux, du musée imaginaire à l'inventaire général. In-situ, numéro 1/2001.

[Menger] Pierre-Michel Menger : Le travail créateur. S’accomplir dans l’incertain. Gallimard/Le Seuil 2009

[Michaud] Yves Michaud : Critères esthétiques et jugement de goût. Editions Jacqueline Chambon 1999.

[Michaud2] Yves Michaud : La crise de l’art contemporain. PUF 1997.

[Millington]  Ian Millington : Artificial intelligence for games. Elsevier 2006 

[Mitchell] W.J.T. Mitchell : What do pictures want ? The lives and loves of images. University of Chicago Press, 2005.

[Mohen] Jean-Pierre Mohen (commissaire de l’exposition)  Lumière.couleurs. Dialogues entre art et science. Cloitre des Cordeliers 2005.

[Moles 71] Abraham Moles: Arts et ordinateur. Casterman 1971.

[Moles 72] Abraham Moles : Théorie de l'information et perception esthétique. Denoël 1972.

[Morelli] http://www.scam.fr/actua.php?action=voir&tree=Le%20calendrier&year=2009&month=1&ArticleId=1674&calendar=moins

[Mourioux] G. Mourioux : Architecture fonctionnelle pour les robots. JJC/LVR 19/02/2004.  http://www.bourges.univ-orleans.fr/rech/lvr/intranet/site_jjc/JJC04/Articles/groupe2/JJC04_Mourioux.pdf

[Moutot] Gilles Moutot  : Adorno, langage et réification. PUF 2004.

[Natkin] Stéphane Natkin : Jeux vidéo et médias du XXIe siècle. Quels modèles pour les nouveaux loisirs numériques.  Vuibert 2004.

[Nixon] Mark Nixon & Alberto Aguado : Feature extraction & image processing. Elsevier, Academic Press 2002-2008.

[Pacherie] Elisabeth Pacherie : Le robot n’a que des intentions simples. Interview par Azar Khalatbari. Science et avenir, no 724, juin 2007. http://sciencesetavenirmensuel.nouvelobs.com/hebdo/sea/p724/articles/a346791-.html

[Panofsky] Erwin Panofsky : La perspective comme forme symbolique.  Editions de Minuit 1975.

[Panofsky2]  Erwin Panofsky :  Idea. Traduction française Gallimard,Paris, 1983.

[Paul] Christiane Paul : L’art numérique. Thames and Hudson 2004

[Pérec] Georges Pérec. L’augmentation. http://www.mouvement.net/site.php?rub=30&id=1e0f094a5a0b455c&fiche_alias=tnt

[Photoshop] see Provider documentation

[PHP] Par exemple  Luke Welling & Laura Thomson : PHP5 & MySQL5. Campus Press  2005

[Plas] Odile de Plas avec Stéphane Davet : Auto-Tune, le logiciel qui comme les couacs et les ratés. Le Monde, 26-27 juin 2009. 

[Pommier] Edouard Pommier : L’art de la liberté. Doctrines et débats de la révolution française.  Gallimard 1991.

[Poppper]  Ecrire sur l'art

[Popper2]. Popper From technological to virtual art

[Powers]  Richard Powers : Plowing the dark. Vintage 2002. Traduction française : L’ombre en fuite, Richard Powers – Cherche Midi 2009 ;

[Pralutier] J. Pralutier : Une pièce de théâtre « algorithmique ». L’organigramme d’une aventure dans « L’augmentation » de G. Pérec. 0.1. Hebdo du 16/3/1970

[Processing] voir  les references sur le web ou par eexemple Ira Greenberg : Processing, Creative coding and computational art. Friendsoft 2007

[Pylyshyn] Zenon W. Pulyshyn : Seeing and visualizing. It is not what you think. MIT Press 2003.

[Rancière] Jacques Rancière : Malaise dans l’estshétique. Galilée 2004.

[Raynal] Benjamin Raynal. Présentation aux Algoristes, printemps 2009 (non publié). Poster présenté au Siggraph 2009 avec Venceslas Biri, Xavier Gouchet et Adrien Hérubel. 

[Rennard] Jean-Philippe Rennard : Réseaux neuronaux, une introduction, accompagnée d’un modèle Java.  Vuibert 2006

[Rivard]  Pete Rivard : Digital Color Correction. Thomson Delmar Learnings 2006.

[Robertson]  Iain Robertson ed. : Understanding international art markets and management.  Routledge 2005

[Roxame] Roxame code (open source), giving examples of the quoted algorithms

[Sakarovitch] Jacques Sakarovitch : Eléments de théorie des automates. Vuibert 2003

[Sandoval] Victor Sandoval (ed.) La ville numérique. Les Cahiers du numérique, volume 1-2000. Hermès Science 2000.

[Scavetta] Roger Laufer et  Domenico Scavetta : Texte, hypertexte, hypermedia. PUF 1992.

[Schillinger] Joseph Schillinger : The mathematical basis of the arts.  Philosophical library, New York, 1948

[Schmitt]  Interview par Pierre Berger  Stic-Hebdo. No 27. 20 septembre 2004

[Schaeffer JM] Jean-Marie Schaeffer : L’art de l’âge moderne. L’esthétique et la philosophie de l’art du XVIIIe siècle à nos jours. Gallimard 1992.

[Schaeffer P] Pierre Schaeffer : Traité des objets musicaux, essai interdisciplines. Seuil 1966. 

[Schöffer 69] Nicolas Schôffer. La ville cybernétique. Tchou 1969

[Schöffer 70] Nicolas Schöffer.  Le nouvel esprit artistique. Denoël/Gonthier 1970.

[Serfati] Michel Serfati : La révolution symbolique. La constitution de l’écriture symbolique mathématique. Editions Petra, Paris, 2005.

[Seul] Michael Seul, Lawrence O’Gorman and Michael J. Sammon : Practical algorithms for image analysis. Description, examples and code. Cambridge University Press, Mass. 2000-2005.

[Siarry] Patrick Siarry ed.  Optimisation en traitement du signal et de l’image. Hermès-Lavoisier 2007

[Simondon] Gilbert Simondon: Du mode d'existence des objets techniques. Aubier, 1979.

[Sirinelli] Rapport Sirinelli : Industries culturelles et nouvelles techniques. Ministère de la Culture et de la francophonie 1994.

[Smith] Carl H. Smith : A recursive introduction to the theory of computation. Springer 1994

[Sofer]  Ken Sofer : Art ? or not Art ? Datamation aug. 1981

[Stiegler] De la misère symbolique. 2. La catastrophè du sensible. Galilée 2005.

[Strindberg]  August Strindberg :   Du hasard dans la production artistique. In Revue des revues, 1894. Nouvelle publication, avec une préface de Göran Söderström, L’échoppe 1990.

[Subsol] Gérard Subsol (ed.) : Virtual storytelling.  Third ICVS, 2005. Springer 2005.

[Swedien] Bruce Swedien : In the Studio with Michael Jackson. Hal Leonard 2009

[Thalmann] N. Magnenat-Thalmann & D. Thalmann : Handbook of virtual humans.  Wiley and sons 2004.

[Tinguely] Museum Jean Tinguely Basel. The Collection. 1996

[Triolet] Elsa Triolet : L’âme. Gallimard 1963. 

[Turckle] Sherry Turckle:  The second self. MIT Press 1985-2005. Traduction française : Les enfants de l'ordinateur. Denoel (vers 1986).

[Vitruve] Les dix livres d’architecture de Vitruve. Préface Antoine Picon. Bibliothèque de lmage 1995.

[Walker] James Faure Walker: Painting, the digital river. Prentice Hall 2006

[Wands] Bruce Wands Art of the Digital Age. 2006

[Whitelaw]  Mitchelll Whitelaw : Metacreation. Art and artificial life.  MIT 2004

[Wiener] Norbet Wiener : Cybernétique et société. UGE 1962. Collection 10/18.

[Worms] Anne-Cécile Worms (ed.) : Arts numériques. Tendances, artistes, lieux & festivals.  MCD 2009

[Yoo] Terry S. Yoo (ed.)  Insight into images. Principles and practice for segmentation, registration and image analysis. AK Peters, Mass, USA 2004

[Zaffalon] Luigi Zaffalon : Programmation concurrente et temps reel avec Java. Presses polytechniques et universitaires romandes 2007.

[Zelanski]  among other books :  Paul Zelanski  et Mary PatFisher : Les théories de la couleur. Thalia 2006.

[Zomorodian]  Afra Z. Zomorodian : Topology for computing. Cambridge university press 2005.

 

==

Texte et image : [Laneyrie-Dagen]  Nadelje Laneyrie-Dagen : Lire la peinture. Tome 1 – Dans l’intimité des oeuvfres.  Larousse 2006

-commenter Sommerer-Mignonneau

- dire que les algoristes ne sont pas tous membres du groupe ni de l’association

- citer Fishnick plus fortment