Association pour les Sciences et Technologies de l’Information
25 avril 2001
Apports fondamentaux et relations des sciences de l’information au savoir, à la société et à la culture
Ces premières rencontres des sciences et technologies de l'information concrétisent une volonté de fédérer une large communauté de chercheurs, d'établir des synergies fructueuses entre diverses thématiques scientifiques, et de renforcer les liens entre les volets recherche et développement au sein des STIC. Tels sont en effet les objectifs principaux de l'ASTI.
Au-delà de ces objectifs, traduits tout au long du programme du colloque, l'ensemble de la manifesta-tion, et plus particulièrement la journée ASTI du 25 avril, visent à affirmer l'unité des STIC comme champ disciplinaire et à soulever un débat sur son apport et ses relations aux autres champs de savoir et de culture.
Les sciences de l'information s'affirment en effet comme une discipline à part entière, au même titre que les sciences de la matière ou les sciences de la vie. C'est une discipline très jeune, certes, mais une des disciplines fructueuses de notre époque, par ses apports conceptuels et ses retombées fondamentales, et par les questions pertinentes qu’elle pose aux autres sciences, de la logique et des mathématiques, à la physique et la biologie.
L'impact technologique des STIC sur les plans économiques et sociaux est largement médiatisé. Leur apport technologique à la recherche est aussi bien connu. L'instrumentation a toujours été un vecteur essentiel de progrès scientifique. Les capteurs et actionneurs d'aujourd'hui et les moyens de traitement de l'information ont transformé profondément tous les champs du savoir. La médecine en donne un bon exemple, de l'imagerie, source de nouvelles représentations et connaissances, à la chirurgie assistée minimalement invasive.
On connaît également le paradigme des sciences calculatoires, qui repose sur une boucle de modélisation, de calcul et de simulation, et qui introduit une interaction flexible et étroite entre l'effort de conceptualisation et celui d'analyse et d'expérimentation. Moins connues par contre sont les possibilités ouvertes par ce paradigme de jonctions pluridisciplinaires. Diverses approches de la même réalité donnent lieu à des modèles complémentaires, mais hétérogènes dans leurs représentations mathématiques et difficilement unifiables. L'approche calculatoire permet des intégrations plurithématiques de représentations hétérogènes au sein d'un même programme. Reste à approfondir la position de telles intégrations relativement aux efforts de synthèse.
L'apport conceptuel des sciences de l'information mérite également d'être davantage discuté. Les théories de l'information et du signal, les concepts de contre-réaction, de systèmes, et leurs prolongements cybernétiques sont parmi les modèles féconds de notre époque. La démarche algorithmique, les concepts de calculabilité, de complexité calculatoire, de preuve et de vérification, voire celui de rationalité limitée, ont transformé notre approche face à un problème abstrait ou concret. La portée de ces modèles et outils conceptuels se doit d'être analysée relativement à leur utilisation, à leur remise en cause et leur enrichissement par d'autres disciplines, en particulier pour aborder des problèmes d'intérêt commun. Par exemple, peuvent-ils nous permettre d'appréhender les problèmes profonds de cognition naturelle ou artificielle ?
La journée ASTI nous permettra d'aborder plusieurs volets de ce débat, en particulier au cours de la matinée qui soulèvera les questions des liens des sciences de l'information aux mathématiques, à la biologie et aux neurosciences. Le débat se prolongera au cours de l'après-midi sur l'apport et la relation des STIC à la création artistique. La journée se conclura par une session faisant un point nécessaire sur la recherche fondamentale et la politique scientifique de cette discipline.
L'ASTI remercie vivement tous les intervenants et organisateurs de ces sessions et souhaite à tous d'excellentes Rencontres.
Président de l'ASTI
Gilles Kahn Inria, directeur scientifique de l'Inria, membre de l'Académie des sciences
Philippe Codognet Université Paris 6
Les actes comprennent, pour chaque intervenant, l'interview qu'ils ont accordé à Pierre Berger, rédacteur-en-chef d'Asti Hebdo, et pour certains un texte complémentaire.
Sciences de l'information et connaissances scientifiques
" Dépasser une vision ancillaire de l'informatique "
Gilles Kahn
Directeur scientifique de l'Inria. Membre de l'Académie des sciences. gilles.kahn@inria.fr
Asti-Hebdo : Vous animez, dans le cadre de la journée de l'Asti, la session " apports et relations des sciences de l'information aux connaissances scientifiques ". Y aurait-il des doutes sur l'utilité de l'informatique ?
Gilles Kahn : Tous les scientifiques se servent de l'informatique et n'en font pas mystère. Mais la relation entre informatique et autres sciences semble souvent utilitaire. On utilise des logiciels s'ils sont disponibles sur étagère, sinon on s'en passe.
Je pense que cette vision ancillaire de l'informatique ne correspond pas à la réalité de la recherche scientifique d'aujourd'hui. Cela ne se passe pas comme cela. L'informatique est désormais au coeur de la science elle-même. Exactement comme les mathématiques. Mais il reste à bien comprendre ce rôle spécifique.
Le dialogue est d'ailleurs difficile parce que nombre de scientifiques, par ailleurs cultivés, Ainsi, tel physicien s'étonne que les informaticiens connaissent mal la mécanique quantique mais, en revanche, s'imagine que les ordinateurs manipulent effectivement des nombres réels.
Les chimistes, par exemple, se heurtent à des problèmes de puissance de calcul, de précision et de modélisation de très grosses structures, aussi bien qu'à la nécessité d'en donner des représentations graphiques efficaces. Les problèmes que se pose la science aujourd'hui vont exiger de la part des informaticiens un effort considérable pour fournir des machines et surtout des algorithmes appropriés.
Hebdo : L'algorithmique est donc un axe essentiel de développement de l'informatique ?
G.K. : C'est un point crucial. Et la disponibilité d'algorithmes appropriés peut être la condition sine qua non de certaines recherches physiques. Prenons l'exemple classique de la transformation de Fourier rapide. Son mérite majeur est de prendre un algorithme de complexité O(n2) et de le ramener à O(n.log(n)). Un détail, qui sans doute ne semblera pas d'une importance fondamentale. Et qui pourtant fera tout simplement la différence entre le possible et l'impossible pour la modélisation des phénomènes qu'il étudie.
Concrètement, un des objectifs scientifiques prioritaires de l'Inria est de combiner modélisation numérique et réalité virtuelle. Aux chimistes, par exemple, nous voulons offrir, derrière les outils conviviaux et intuitifs de la réalité virtuelle, une panoplie de calcul scientifique aussi avancée que possible. Bref, offrir la richesse du calcul dans des environnements beaucoup plus interactifs qu'aujourd'hui.
Cela exige le développement d'algorithmes totalement nouveaux. Par exemple, pour visualiser progressivement des résultats et les traduire dans des images de plus en plus précises, il faut disposer d'une visualisation incrémentale qui dépasse les algorithmes sous-jacents aux plus belles images du dernier Siggraph.
Hebdo : Ainsi l'algorithmique ferait-elle le ciment entre toutes les spécialités, toutes les professions concernées ?
G.K. : L'informatique est un domaine extraordinairement varié autant que rapidement évolutif. Cela réagit sur toutes ses applications. Une compagnie d'assurances ou une banque pense aujourd'hui son avenir en termes non seulement d'actuariat, comme au XIXe siècle, mais de modélisation et de gestion du risque comme de mise en réseau de tous ses interlocuteurs. Ses problèmes ne sont pas, bien sûr, ceux du chimiste ou de l'astrophysicien.
L'informatique est donc un domaine extraordinairement varié, dont on ne peut donner une vision complètement monolithique, même si elle s'organise autour de quelques axes majeurs comme l'algorithmique.
Ces considérations théoriques prennent leur sens dans la pratique des chercheurs, des développeurs et même de tous les utilisateurs, industriels mais ici surtout scientifiques. Ce qui peut se résumer en une question-clé à leur poser : Que faites-vous quand les logiciels dont vous avez besoin ne sont pas disponibles ? Les développez-vous tout seul ? Organisez-vous une coopération avec d'autres ? À partir de quel moment concluez vous que l'investissement logiciel nécessaire dépasse ce qui est normal pour le budget de votre laboratoire ou le type de compétences qu'il regroupe ?
Cette question a une dimension économique et
managériale aussi bien que purement scientifique etépistémologique.
Voilà le débat que je compte animer avec les personnalités
que j'ai invité à se joindre à moi à la tribune
d'Asti 2001. Sciences de l'information et connaissances scientifiques
Sciences de l'information et connaissances scientifiques
" Nous devons tous avoir une approche multidisciplinaire "
Alain Berthoz
Professeur au Collège de France. Directeur du laboratoire de Physiologie de la perception et de l'action.
Asti-Hebdo : Quels sont les thèmes que développe votre laboratoire ?
Alain Berthoz : Nous ne nous intéressons pas aux différents sens séparément, mais à l'interaction multimodale, multi-sensorielle : comment le cerveau intègre les informations fournies par les différents sens dans une perception cohérente, qui permet de contrôler le mouvement ?
Notre premier thème est le regard. Comment s'organise la relation entre la vision et les mouvements du corps ? Dans quelle mesure l'exploration visuelle active (active vision), par le déplacement de la tête, des yeux, du regard, permet de lever les ambiguïtés du flux nerveux optique ? Une équipe travaille, par exemple, sur la perception visuelle en trois dimensions. Comment pouvons-nous reconstruire les propriétés tridimensionnelles des objets (courbure, volume) ?
Notre cerveau dispose d'un répertoire de mouvements, par exemple les saccades et la poursuite, qui permettent de suivre une cible en mouvement. Ils s'appuient sur des données venant de l'oreille interne, qui forme une petite centrale inertielle. Ils permettent de donner, par exemple, quand la tête se déplace, un mouvement des yeux en sens contraire. La tête elle-même est stabilisée en direction quand le corps se déplace.
Nous travaillons aussi sur le sens haptique (toucher) avec la perception des forces (grâce à des dispositifs à retour d'effort). Lorsque nous manipulons un objet, la vision ne nous donne sur lui que des informations limitées pour ce qui concerne son poids, la distribution de ses masses et même sa géométrie. A fortiori si l'objet est complexe, élastique... Le fait de le manipuler, de sentir les résistances qu'il oppose à notre action nous apporte bien d'autres informations.
Ici, nous coopérons notamment avec le Cnes (Centre national d'études spatiales). Nous sommes en train de réaliser une plate-forme importante, intégrant réalité virtuelle et retour d'effort. Nous travaillons dans ce domaine avec Renault.
Mais la perception se conjugue avec l'action. Comment pouvons-nous naviguer dans notre environnement ? Par exemple, comment imaginons-nous le chemin que nous faisons pour aller de notre domicile à notre lieu de travail ? Le trajet peut se mémoriser comme une suite d'actions, associées à des repères visuels : je tourne à droite au feu, je roule tant de temps, puis je tourne à gauche devant la mairie... Il peut se penser aussi comme une carte, où je me vois comme un petit point qui se déplace. En pratique, le cerveau utilise les deux stratégies. Et nous étudions comment les systèmes biologiques contribuent à l'une comme à l'autre. L'imagerie cérébrale montre que certaines structures cérébrales sont communes aux deux stratégies, mais que d'autres sont différentes.
Autre thème passionnant : la capture d'un objet. Comment faisons-nous pour attraper une balle avec la main ? Il faut prédire la trajectoire. Il faut donc anticiper. Nous ne savons pas bien comment le cerveau y parvient. Mais nous avons pu constater qu'il arrive à commander une force qui est exactement celle nécessaire à contrebalancer l'impact. Le cerveau dispose donc d'un modèle interne des lois de la mécanique newtonienne et de la gravitation.
Cela peut conduire à des considérations très théoriques. Au lieu de raisonner simplement dans un espace euclidien où vitesses et accélérations se dérivent des positions, certains roboticiens pensent qu'il est plus efficace de travailler avec des variables composites, traitant parallèlement espace, vitesses et accélérations. La complexité est en apparence plus élevée, mais certains problèmes sont simplifiés : de non linéaires, ils deviennent linéaires. On se demande si le cerveau n'utilise pas ce genre de techniques, s'il ne travaille pas dans un espace plus complexe que celui de la mécanique classique.
De même, le cerveau doit gérer les délais de transmission de l'information. Entre un capteur qui donne le mouvement de l'oeil et un autre qui donne le mouvement du pied, l'écart peut atteindre plusieurs dizaines de millisecondes. L'on a découvert des sortes de lignes à retard. Mais notre cerveau utilise sans doute aussi des astuces plus subtiles. Je suis convaincu que la collaboration avec les roboticiens est essentielle pour comprendre le fonctionnement du cerveau.
Hebdo : De quel type de moyens disposez-vous pour ce type de recherches ?
A.B. : Les neurosciences ont besoin d'appareillages élaborés, qui doivent en permanence progresser eux-mêmes.
Pour étudier le contrôle du regard, chez l'animal et chez l'homme, nous disposons d'outils d'enregistrement du mouvement oculaire (caméras digitales, notamment), avec des techniques et des méthodes de description du mouvement des yeux qui posent à elles seules des problèmes complexes de traitement du signal, de recueil d'information : ces petites sphères se déplacent à plus de 500 degrés par seconde, avec une précision de quelques minutes d'arc. À vrai dire, même les problèmes strictement technologiques de mesure ne sont pas encore vraiment résolus.
Nous développons aussi des dispositifs expérimentaux à base de robotique mobile, de réalité virtuelle (visuelle ou utilisant le " retour d'effort ") d'imagerie cérébrale (IRM, magnéto- encéphalographie). Ici, nous coopérons avec des centres d'imagerie cérébrale comme ceux du CEA à Orsay ou à Caen. Ces techniques nous permettent d'identifier les zones du cerveau qui sont activées quand on fait des mouvements simples ou complexes, liés ou non à la mémoire...
Les méthodes non-invasives sont donc en pleine révolution. Mais elles ne peuvent pas nous dire ce que osnt les processus neuronaux qui sous-tendent le traitement de l'information. Là, il faut recourir à l'enregistrement multi-électrodes de neurone chez le singe ou le rat. Nous arrivons à étudier jusqu'à trente, voire cent neurones à la fois. Hélas, la France est actuellement un des pays qui a le moins de moins de postes singe. Or ils sont indispensables. Nous coopérons aussi avec des médecins cliniciens, qui ont été les premiers à établir des relations entre le monde sensoriel et la structure du cerveau. Mais il n'est pas fréquent que l'on trouve justement le malade qui souffre de lésions dans les zones cérébrales concernées par nos recherches.
Hebdo : On a l'impression d'un développement explosif de vos disciplines
A.B : Cela dépend des domaines et des techniques utilisées. Par exemple, les travaux sur les mécanismes neuronaux de contrôle de la tête et des yeux exigent des expériences longues, durant plusieurs mois, pour élucider le rôle de quelques neurones ou dizaines de neurones.
Mais des techniques nouvelles, comme les traceurs anatomiques, nous font aller plus vite, parce qu'elles permettent de reconstruire tout un système, là où, hier, l'on ne pouvait voir qu'un relais entre deux neurones. Nos amis Japonais font aussi progresser rapidement les méthodes optiques. Quant à l'imagerie cérébrale, surtout combinée avec la magnéto-encéphalographie, elle provoque vraiment une explosion des connaissances sur le cerveau.
Nous devons tous avoir un esprit multi-disciplinaire. Personnellement, je suis ingénieur des Mines, psychologue et neuro-physiologiste. Notre laboratoire regroupe des ingénieurs, des médecins, des psychologues, de mathématiciens et même un ou deux philosophes. Et nous formons actuellemnet, dans les DEA de sciences cognitives, des ingénieurs (Polytechnique, Centrale). Nous leur apprenons les neuro-sciences. Symétriquement, nous formons aux mathématiques et à l'intelligence artificielle de jeunes psychologues ou neuro-scientifiques. Et, bien que nous disposions pas d'informaticiens à proprement parler, ici, tout le monde est un peu informaticien.
C'est pourquoi l'essentiel se fait dans le cadre de
projets de recherche multi-disciplinaires. Nos équipes publient
ensemble et, tout récemment, une thèse a été
co-dirigée par un philosophe du CNRS et un membre de notre laboratoire,
mathématicien, biologiste et médecin.
Sciences de l'information et connaissances scientifiques
" La relation ne doit pas s'arrêter au calcul "
Christian Gautier
Professeur de biologie à l'Université Claude Bernard - Laboratoire de biologie évolutive
Asti-Hebdo : Comment vivez-vous la relation de votre discipline, la bio-informatique, avec l'informatique ?
Christian Gautier : On pourrait penser que l'informatique n'est pour nous qu'un outil : calcul, stockage des données, analyse des données, navigation dans les données. Mais j'ai toujours pensé, et dit, que la relation ne doit pas s'arrêter là.
Notre équipe de " Biométrie et biologie évolutive ", s'intéresse principalement au génome et à son évolution, non seulement de manière locale (un gène et la protéine associée) mais aussi avec le fonctionnement global de tout le génome. Le fil rouge de nos travaux, c'est le style d'écrire propre à chaque génome. La possibilité d'un style naît du fait que la fabrication d'une protéine donnée peut être déclenchée par plusieurs messages (suite codons) différents.
Notre premier problème a donc été de créer une base de séquences (chaînes dans un alphabet à quatre lettres) pour y appliquer des moyens de calcul. Il s'est vite avéré indispensable de développer un système de base de données spécifique. En revanche, les outils standard de l'analyse de données nous ont suffi à valider notre hypothèse de départ : chaque génome a bien son style. Et, même au sein d'un génome donné, les gênes qui produisent beaucoup de protéines sont mieux optimisés que ceux qui en produisent moins.
Hebdo : Continuez-vous à développer des outils spécifiques ?
C.G. : Oui, par exemple pour la manipulation des arbres. En effet, la biologie évolutive, nous conduit à reconstruire l'arbre phylogénétique des espèces (NDLR : en clair, l'arbre généalogique des espèces vues sous l'angle de leur génome). Nos bases de données (ou de connaissances, si vous préférez) contiennent aujourd'hui des milliers d'arbres. Nous voulons pouvoir y appliquer des requêtes et des calculs (processus de Markov, par exemple).
Or ces arbres ont des caractéristiques particulières qui posent des problèmes mathématiques difficiles (par exemple, non homogénéité des processus de Markov). Nous coopérons donc actuellement avec l'Inria (Grenoble) pour développer un système de requête d'arbres, qui pourrait répondre à des questions comme :
- dans quels arbres sont représentées telle et telle espèce ?
- quels arbres présentent des incohérences entre la structure des génomes et la phylogénie des espèces ?
Un autre exemple est l'analyse de la position des gènes sur un génome, c'est à dire la cartographie génomique. Les cartes entre espèces ne sont pas facilement comparables et dans une même espèce plusieurs systèmes de cartographie existent, par entièrement cohérents entre eux.
Plus généralement, nous avons besoin de naviguer dans des univers de représentations de plus en plus compliquées, pour déboucher sur une cartographie comparée des génomes. Cette cartographie permettrait notamment d'enrichir les cartes d'un type d'organisme par celles d'autres types. Le séquençage coûte cher, en effet. Il serait intéressant, par exemple, d'utiliser pour le blé les importants travaux menés en ce moment sur le riz.
Hebdo : Mais il s'agit toujours d'outils informatiques. La coopération peut-elle atteindre un niveau plus élevé ? Ne peut-on espérer que votre connaissance des langages du génome pourrait donner de bonnes idées aux concepteurs de langages de programmation ?
C.G. : Nous n'en sommes pas là. On pourrait même dire, dans l'état actuel de nos connaissances, que la nature a réinventé tous les défauts de la programmation informatique, avec une évolution largement appuyée sur des " verrues " (pour parler comme un informaticien), avec énormément de segments de codes qui semblent ne servir à rien. Dans le génome humain, par exemple, 95% ne semblent pas porter d'information utile.
Notre problème commun, avec l'informatique, est celui de la modélisation. Nos besoins de cartographie nous conduisent à développer des formes adaptées d'UML, dont la simplicité d'écriture convient bien à nos travaux.
L'intérêt de la modélisation informatique
par rapport aux mathématiques c'est (ne le prenez pas négativement)
sa relative faiblesse. Dans certains domaines, la modélisation mathématique
est liée à des théories trop fortes, porteuses de
contraintes trop lourdes. Avec l'informatique, on perd en richesse de théorèmes,
mais on gagne en légèreté pour modéliser des
objets compliqués. De notre point de vue, les deux formes de modélisation
sont donc complémentaires.
Sciences de l'information et connaissances scientifiques
" De véritables problèmes de sémantique, et même d'ontologie "
Simon Tillier
Directeur de l'Institut de systématique. Muséum d'histoire naturelle. tillier@mnhn.fr
Asti-Hebdo : Vous intervenez à la prochaine journée Asti. Les sciences de l'information auraient-elle quelque chose à apporter à la systématique, si bien mise en ordre, pourrait on penser, depuis quelques deux siècles, par Linné et ses émules ?
Simon Tillier. : Contrairement à ce que vous croyez, comme un peu tout le monde, non seulement la systématique est en pleine révolution, mais elle est au coeur d'enjeux législatifs et commerciaux majeurs.
Ses objectifs sont la compréhension des relations entre les organismes (vivants ou fossiles) et leur classification dans un système qui permette de prédire leurs propriétés biologiques. Des points essentiels toutes les fois que l'on parle de protection des espèces menacées, de biodiversité ou même de brevetabilité des OGM.
Et cela n'a rien de simple, car il faut donc gérer des concepts flous portant sur des données incomplètes et imprécises, dans le cadre de théories et de modèles qui évoluent au cours du temps et font, aujourd'hui encore, l'objet de débats animés.
A la base, le concept d'espèce, avec un trait essentiel dans sa définition classique : les individus d'une même espèce sont interféconds. Dans la conception aristotélicienne de la nature, chaque individu d'une espèce était l'expression d'un type sous-jacent, fixé dans l'absolu quelque part, expression concrète et imparfaite d'un individu parfait, d'un archétype.
D'une manière plus actuelle, on préfère le mot de " taxon ", désignant tout groupe d'organismes dans une classification découlant d'une analyse des caractères et dont l'objectif est de traduire les relations$ de parenté. On établit des matrices, avec les taxons en lignes et les caractères en colonnes. L'application d'un algorithme de construction d'arbres à de telles matrices permet de définir les taxons, qui correspondant aux noeuds des arbres obtenus, et d'identifier les caractères qui les définissent. Chaque branche de l'arbre phylogénétique obtenu est appelée un clade. En termes plus techniques, chaque caractère est une observation à partir de laquelle on peut faire une hypothèse d'homologie, qui est confirmée ou infirmée par la topologie de l'arbre obtenu et par les états de chaque caractère à chaque noeud.
Il existe un débat sur la définition et le contenu de la systématique, avec une opposition entre deux positions extrêmes. La première accepte que toute classification relève de la systématique, quels que soient les objets et les caractères classés ainsi que la méthode utilisée. De ce point de vue, les minéralogistes font de la systématique aussi bien que les biologistes.
La seconde position (que je professe), ne prend en compte que les caractères liés à la parenté des espèces. Dans cette optique, la systématique est une discipline propre à la biologie. Il y a rupture entre le monde minéral et le monde des êtres vivants, qui descendent tous d'une population unique, apparue sur terre il y a quelque quatre milliards d'années, et dont la classification doit traduire les relations de descendance avec modifications (pour utiliser les mots de Darwin).
Bref, comme vous le voyez, nous avons de véritables problèmes de sémantique, et même d'ontologie. Et ces problèmes peuvent intéresser les chercheurs en sciences de l'information, d'autant plus qu'ils correspondent à des besoins précis et urgents de la société.
Hebdo : Très concrètement, que vous apporte l'informatique ?
S.T. : A la base, elle nous permet de progresser sur des problèmes pratiques, je dirais même de productivité. Par exemple en automatisant la formalisation et la perception des caractères morphologiques. Saisir automatiquement le contour d'une aile d'insecte n'est pas sans intérêt, s'il y en a des milliers, voire des millions !
Plus profondément, comme en en génétique, l'informatique permet de mieux concevoir les classifications en travaillant méthodiquement sur la comparaison (l'alignement) des séquences génétiques, sur leur superposition pour en percevoir les différences pertinentes. Elle aide à construire et à traiter les matrices taxons/caractères et les arbres phylogénique (généalogie des espèces), dont la taille est telle qu'il n'est pas concevable de les traiter autrement.
La dimension historique du travail des systématiciens bénéficie aussi des possibilités des bases de données. Car il n'est pas sans importance, aujourd'hui, de savoir comment les noms d'espèces ont changé au cours du temps. Ce que Muller, en 1780, a appelé Helix Aspersa a toujours de l'importance aujourd'hui. Et le seul moyen de le savoir est de disposer de collections de spécimens. Celles du Muséum d'histoire naturelle sont parmi les plus importantes au monde.
Les bases de données nous permettent d'informatiser le catalogue des collections qui ont servi à faire les classifications. A un premier niveau, c'est un travail relativement peu intéressant, quoique parfois moins simple qu'il n'y paraît : certaines étiquettes portent plusieurs noms, trace du passage au fil du temps de systématiciens successifs...
Hebdo : Ces préoccupations historiques sont-elles à la mesure des enjeux mondiaux de la biodiversité et du génie génétique ?
S.T. : La gestion des synonymes est essentielle au métier des systématiciens. Ne serait-ce que pour gérer la diversité des termes employés dans les différentes réglementations mondiales et pour progresser au niveau mondial dans l'interopérabilité des bases de données.
Le problème est rendu plus aigu par l'arrivée des OGM. Si l'on ne met pas en place une classification bien faite, qui permet que le nom d'une espèce soit accepté et scientifiquement validé par tout le monde, on pourra breveter la même chose sous différents noms. C'est un vrai problème d'informati-que. Et il se concrétise mondialement par le projet gbif annoncé en décembre dernier à Copenhague.
Il s'agit, d'abord, d'assurer l'interopérabilité des bases de données sur la biodiversité à leurs différents niveaux, depuis les noms d'espèces jusqu'aux séquences protéiques ou d'ADN, avec leurs fiches signalétiques, les environnements géographiques correspondants, etc.
Au cœur du système, il faut élaborer une base de noms et de synonymes, un référentiel taxonomique qui définira les concepts de façon aussi bien à fixer le sens des termes qu'à le rendre accessible aux différents utilisateurs.
Dans cette coopération internationale, la France n'est pas mal placée, mais la compétition est plus vive que jamais. Comme nous l'avons dit dans notre rapport à l'Académie des sciences (" Systématique, organiser la diversité du vivant ", publié par Tec & Doc), il est donc indispensable de mettre en place une politique institutionnelle appropriée, qui s'appuiera sur le développement des outils informatiques nécessaires. Et vous avez pu voir que ce développement pose des problèmes, notamment de sémantique, qui méritent d'intéresser les chercheurs en sciences de l'information !
Sciences de l'information et connaissances scientifiques
" Systématique et sciences de l'information "
Simon Tillier
Directeur de l'Institut de systématique. Muséum d'histoire naturelle
Ce texte s'inspire largement du chapitre " Informatique et systématique ", rédigé par Régie Vignes-Lebbe, François Rechenmann, Christian Gautier et Simon Tillier, pour l'ouvrage " Systématique, organiser la diversité du vivant ". Éditions Tec & Doc, 2000.
1. Des besoins plus grands que jamais
En systématique, les connaissances s'accumulent depuis la création de la discipline, il y a deux siècles : propriétés biologiques, occurrences, définitions, noms et classifications hiérarchiques. Ces informations circulent traditionnellement par différents canaux.
1. Les systématiciens génèrent une littérature spécialisée, composée principalement de descriptions d'espèces, de révisions et de monographies. Les dernières années ont vu cette littérature prendre en compte, de plus en plus souvent, de nouveaux descripteurs taxonomiques, portant notamment sur la morphométrie ou les caractéristiques moléculaires.
2. Les systématiciens constituent aussi, ou enrichissent, des collections de référence. On y trouve les types porte-noms des différents groupes espèces (c'est-à-dire les spécimens faisant référence, avec le nom qui leur a été attribué au moment de leur entrée dans la collection, et le cas échéant les noms successifs qui ont pu leur être donnés dans la suite par d'autres systématiciens). Comme les concepts évoluent, ces collections permettent de comprendre à quoi correspondent les noms publiés depuis longtemps aussi bien que les dénominations actuelles.
3. Une littérature plus large, destinée à tout public intéressé par la biologie et disposant d'une culture suffisante, se diffuse sous forme de faunes et de flores, qui n'ont pas vocation à la critique et ne comportent pas d'actes nomenclaturaux. En revanche, ils donnent accès aux concepts et aux noms consacrés par les systématiciens dans la littérature scientifique. Ces documents sont en général accompagnés de clés qui permettent l'identification des espèces en présence de spécimens rencontrés par les lecteurs.
2. Les insuffisantes de la production actuelle d'informations
Cette dernière littérature s'est faite plus rare vers la fin du dernier siècle, contrastant avec une production croissante de littérature scientifique. Pourtant, à la même période, le besoin d'identifications s'élève, du fait d'une prise de conscience des enjeux de l'écologie et tout particulièrement de la biodiversité, comme le montre la signature de la Convention sur la diversité biologique. Le travail législatif aussi bien que le développement des disciplines liées à l'écologie, aussi bien qu'en biotechnologie ou en épidémiologie doivent impérativement s'appuyer sur des outils solides d'identification des espèces concernées. La référence aux molécules, cellules, processus évolutifs et parentés entre espèces doivent s'appuyer sur des connaissances cohérentes portant aussi bien sur les organismes actuels que sur les fossiles. C'est à la systématique de fournir un cadre cohérent et transdisciplinaire pour l'ensemble des approches actuelles.
Or il s'en faut que la systématique apporte actuellement une réponse adéquate à la demande mondiale. Pour y parvenir, la communauté internationale a lancé le projet d'une table de référence susceptible de relier entre elles toutes les bases de données biologiques existant actuellement dans le monde, le projet GBIF (Global Biodiversity Information Facility).
3. Les systématiciens et les Stic
Le progrès de la systématique dépend du recueil de nouvelles données, mais aussi de la mise au point de nouvelles méthodes, allant de pair avec le développement et le renouvellement des concepts. Les sciences et technologies de l'information, avec leurs réseaux, en particulier Internet, leurs bases de données, leur algorithmique, apportent une contribution majeure au développement de la systématique. Dans une certaine mesure, l'apport est réciproque, car la nature même des problèmes posés par la systématique débouche sur de nouvelles problématiques, stimulantes pour les chercheurs en Stic.
Bien entendu, les systématiciens ne négligent pas l'outillage bureautique de base, avec le traitement de texte, les tableurs... et les différentes formes du " groupware ". Dans le mouvement actuel de mondialisation des outils comme des problèmes et des responsabilités, le développement du web répond à un besoin de partage universel des savoirs, tout particulièrement en systématique.
Mais la systématique a besoin d'outiils plus spécialisés, par exemple des programmes pour informatiser les descriptions taxonomiques et les comparer. Ils souhaitent disposer aussi de bases de données adaptées à leurs problèmes, notamment à l'hétérogénéité des données prises en compte.
4. Les caractéristiques particulières aux données taxonomiques
Quatre traits majeurs caractérisent les données de la systématique. Leur combinaison rendent difficilement ces données difficilement réductibles aux schémas classiques de gestion des bases de données.
1. Le volume des bases est important, comparable aux grandes bases de données des entreprises commerciales, les bases taxonomiques gèrent des millions de noms (1,5 millions de taxons environ, soit plus de 2 millions en tenant compte des synonymes). Les collections françaises, à elles seules, renferment probablement une centaine de millions de spécimens justifiant une saisie de données.
2. Les sources sont dispersées. Elles se situent dans, ou émanent de l'ensemble des pays développés. Les systématiciens se sont adapté à cette situation et ont appris au fil des décennies à coopérer entre eux. Mais cette dispersion limite les perspectives d'harmonisations purement nationales et oblige dans tous les cas à construire des systèmes multinationaux, ce qui n'est facile ni techniquement, ni politiquement.
3. Les concepts aussi bien que les données traduisent une forte hétérogénéité. La normalisation n'a encore que très peu touché ce domaine.
4. Les données sont marquées par l'incertitude aussi bien que par l'imprécision. En outre, elles dépendent de doctrines scientifiques qui ont évolué au cours du temps, et tout particulièrement dans les dernières décennies du fait des débats autour du " cladisme ", par exemple. Il s'en faut, en début du XXIème siècle, que l'on soit parvenu à un consensus.
Pour toutes ces raisons, la recherche en informatique, tout particulièrement en matière de modélisation et de gestion de données hétérogènes, est conviée à des efforts, intéressants même d'un strict point de vue théorique, pour répondre à cette demande aux caractéristiques originales mais émanant de véritables nécessités pour la gestion du patrimoine biologique mondial.
Plus précisément, dans le cadre du réseau national de biosystématique, Jacques Lebbe a répertorié six catégories d'activités qui pourraient constituer une informatique appliquée à la systématique : recherche méthodologique, développement d'outils informatiques génériques, applications de l'informatique, mise en oeuvre de matériels informatiques, formation et aide à l'enseignement, mise en place d'une activité de service.
5. Vers de nouveaux concepts en sciences et technologies de l'information
C'est l'ontologie même de la systématique qui pose de stimulants défis. La formalisation des concepts, leur adaptation aux systèmes d'information automatisés et communicants pose des problèmes intéressants aux chercheurs en Stic aussi bien qu'à la systématique, encouragée ainsi à progresser vers des approches encore plus rationnelles.
Depuis un siècle, les systématiciens ont, pour des raisons légitimes d'ailleurs, masqué les limites de l'information taxonomique et donné le pas à la stabilité de la nomenclature sur la stabilité des concepts. Pour les utilisateurs, en effet, la stabilité de la nomenclature est essentielle pour sa mise en oeuvre opérationnelle. Ce choix a l'inconvénient le laisser du flou au niveau des concepts, mais les experts se chargent des difficultés rencontrées de manière à ne pas gêner le travail des utilisateurs.
Mais on bute aujourd'hui sur plusieurs difficultés. D'une part l'importance des enjeux politiques et industriels rend de plus en plus inacceptable le maintien d'imprécisions qui laissent place à des interprétations diverses. D'autre part le manque d'experts, dont le nombre n'augmente pas à proportion des besoins rencontrés. Il est donc essentiel de progresser, et les développements nécessaires, indispensables aux systématiciens, sont dignes d'intéresser les spécialistes des Stic.
On peut donc espérer voir apparaître une véritable " science de l'information systématique ", élaborant des concepts appropriés pour répondre à l'ontologie du domaine, aux traitements qu'il appelle, aux exigences de communication qui lui sont essentielles à l'heure de la mondialisation.
Parmi les thèmes à approfondir, on peut citer déjà : hiérarchies, synonymie, imprécision, incertitude, exception, corrélation, évolution temporelle, objets composite, type porte-noms. Les fondements mêmes de la spéciation, le volet profondément statistique de sa formulation et de son ontologie même appellent des mathématiques, sinon des logiques, particulières. Toute une réflexion pourrait aussi être menée sur les relations, souvent contre-intuitives et à contredisant les modèles répandus d'un évolutionnisme téléologique, entre systématique et complexité.
Annexe : Extrait du document OCDE http://www.gbif.org/docsfram.htm
A vast amount of information has been compiled on the properties and functions of Earth's living organisms, and an increasing proportion of this information is contained in large electronic databases. These include biodiversity databases on the distribution of plants, animals and microbes around the globe; detailed genomic maps; compilations of the physiological functions of organisms, and information about the behaviour and function of species within ecosystems.
Because these data have been collected and compiled during many unrelated, independent projects, their full potential has not been reaped. There are numerous, as-yet unrealised, applications and opportunities for using this information resource in public policy formulation, economic development, environmental protection, education, and scientific research.
Taking advantage of these opportunities will strengthen the utilisation and preservation of global biodiversity resources. Like biodiversity itself, databases and expertise are distributed world-wide. Further, many of the challenges transcend the capabilities and resources of individual nations. Thus, international consultation, co-ordination and collaboration are vital.
Sciences de l'information et connaissances scientifiques
" Une souce permanente d'inspiration pour la logique mathématique "
Jean-Louis Krivine
Professeur de mathématiques, Université Paris 7. krivine@pps.jussieu.fr
Asti-Hebdo : En quoi l'informatique contribue-t-elle au développement de vos recherches en mathématiques ?
Jean-Louis Krivine : Mes recherches appartiennent à la logique mathématique, et mon objectif personnel est de répondre à une question que je me suis posée dès que j'ai commencé à faire des mathématiques, c'est à dire vers 15 ou 16 ans : pourquoi sont-elles si efficaces, alors qu'elles semblent a priori tourner à vide ? Je crois avoir trouvé la réponse que je cherchais,
La " déraisonnable efficacité des mathématiques " (une formule du physicien Wigner) a toujours intrigué. Les logiciens de l'antiquité ont apporté une première réponse. Un pas décisif a été franchi dans les années 30-40, notamment avec le théorème de complétude de Gödel, moins connu, mais peut-être aussi important que son célébrissime théorème d'incomplétude. À partir de cette époque, on sait que toute démonstration peut se réduire à une suite d'opérations mécanisables.
Un autre découverte, beaucoup moins connue mais capitale, est la remarque faite par Curry et Howard, deux logiciens, dans les années 50 : à toute démonstration correspond un programme (en l'occurrence, un terme du lambda-calcul). Leur remarque se limite alors au calcul propositionnel intuitionniste, c'est à dire à un ensemble de tautologies sans intérêt mathématique, d'autant plus qu'on s'interdit le tiers exclu (autrement dit, le raisonnement par l'absurde).
Puis, au fil des ans, la correspondance de Curry-Howard a été étendue à la logique (intuitionniste toujours) des prédicats (logique du second ordre). Des logiciens français comme Jean-Yves Girard ont participé à ces extensions. C'était cependant encore insuffisant pour concerner les mathématiciens, qui ne savent pas se passer du tiers exclu.
C'est en 1990 que Matthias Felleisen, un spécialiste de Lisp, cherchant à typer l'instruction CallCC de Scheme (instruction de traitement des erreurs), en écrivit le type sous la forme :
((A implique B) implique A) implique A) (loi de Peirce)
Son collègue Timothy Griffin lui fit observer que cette formule ne peut être valable, puisque la correspondance de Curry-Howard ne s'appliquait pas au tiers-exclu. Jusqu'à ce que, poursuivant sa réflexion, il ne conclue que, justement, ce typage permettait cette extension, dépassant ainsi la logique intuitionniste, et publia sa découverte notamment dans les Communications de l'ACM.
Ma contribution a consisté à étendre cette correspondance de Curry-Howard jusqu'à la théorie des ensembles (plus précisément, aux axiomes de Zermelo-Fraenkel, car l'axiome du choix pose des problèmes redoutables). Elle s'applique maintenant à la quasi-totalité des mathématiques. On peut donc dire aujourd'hui qu'à toute démonstration mathématique correspond un programme informatique. Et comme les mathématiciens ont, en 2500 ans, accumulé un capital considérable de démonstrations, il y a là un trésor où nous n'avons plus qu'à puiser.
Mais il y a une difficulté majeure : en général, quand on trouve l'équivalent en programmation d'une preuve mathématique, ce qu'on trouve est totalement inattendu, inimaginable, même. Nous sommes un peu comme les égyptologues avant Champollion : nous savons bien que ces hiéroglyphes forment un langage, mais nous ne savons pas le traduire.
Les logiciens, et moi-même en particulier, se sont donc attelés à la constitution progressive d'un dictionnaire, dont je vous ai donné quelques exemples. Ajoutons-en quelques autres qui, vous allez le voir, n'ont rien d'intuitivement évident :
- à preuve (ou démonstration) correspond programe,
- à axiome correspond déclaration de variable,
- à application d'une règle de déduction correspond instruction de programme,
- à théorème (proposition prouvée) correspond spécification (d'un programme fonctionnant correctement),
- au modus ponens correspond l'application d'une instruction à un argument,
- ...
A force d'enrichir le lexique, nous finirons, je l'espère, par décoder le langage lui-même et par donner ainsi à un accès efficace à ces trésors. Mais nous n'en sommes pas là. Actuellement, je cherche simplement les théorèmes de mathématiques pour lesquels j'ai bon espoir de trouver la spécification informatique correspondante (Vous trouverez sur le web mes publications ce thème). Ainsi, l'informatique est-elle pour moi une source permanente d'inspiration pour le développement de mes travaux de logique mathématique
Hebdo : Ces travaux ont-ils un intérêt pour l'informatique et plus généralement les Stic ?
J.-L.K. : Le développement des techniques de preuve de programmes est plus important que jamais, en raison des quantités toujours plus grandes de logiciels intégré par exemple aux moyens de transport. Le futur Airbus A 380 emportera encore dix fois plus de logiciel que les séries précédentes. Il en va de même pour les logiciels enfouis (comme on dit aujourd'hui) dans les objets de grande consommation et en particulier les téléphones portables. Le volume même de ces applications ne permet plus d'en tester que d'infimes parties.
Seules les preuves formelles sont à la mesure des besoins. Comme toutes ces applications deviennent de plus en plus vitales (et, dans le cas des transports, mettent souvent des vies humaines en jeu), la fiabilité garantie par les preuves s'impose donc absolument.
Hebdo : Mais cela répond-il à votre objectif initial : montrer pourquoi le jeu intellectuel des mathématiques est si efficace en réalité ?
J.-L.K. : Tout à fait, bien qu'il soit difficile de s'en convaincre, car il faut pousser le raisonnement à bout. Cette masse de théorèmes qu'ont prouvé les mathématiciens, c'est un peu comme le contenu de la ROM de mon Oric, le micro-ordinateur sur lequel j'ai appris la programmation en langage machine, dans les années 80. Je me disais : il y a un trésor là-dedans, comment le récupérer ?
Tous ces théorèmes peuvent être
considérés comme programmes. Et pour quel ordinateurs ont-ils
été écrits, et par quel programmeur ? La réponse
est évidement : pour le cerveau humain, et par l'évolution.
Leur efficacité tient à cela. Le rôle du mathématicien
est de décoder ces programmes, il fait ce qu'on appelle du " reverse
engineering ". Je considère donc la logique comme un moyen d'accès
privilégié pour comprendre le cerveau humain. Les perspectives
de recherche en ce domaine sont proprement fascinantes.
Sciences de l'information et connaissances scientifiques
" L'algorithmique se situe à la frontière "
Philippe Flajolet
Directeur de recherche, Inria, projet Algorithmes. Philippe.Flajolet@inria.fr
Asti-Hebdo : Vous avez écrit " Mathématique et informatique se rejoignent ", et vous en débattez à la journée Asti. Mais, au fond, où situez-vous l'algorithmique, votre spécialité ?
Philippe Flajole : L'algorithmique se situe à la frontière. On pourrait la qualifier d'" informatique mathématique ", comme on parle de " physique mathématique ".
Au sein de l'algorithmique, on peut distinguer la conception (algorithmes nouveaux, perfectionnement d'algorithmes anciens) de l'analyse, c'est-à-dire, pour l'essentiel, l'analyse quantitative des performances. C'est elle qui permet de comprendre quelles sont les bonnes ou les mauvaises utilisations de tel algorithme, quelles sont les sources d'inefficacité des traitements informatiques, et sur quoi fonder de bonnes solutions, voire de nouvelles fonctions.
En particulier, en ce qui concerne mon domaine de recherche principal, l'analyse d'algorithmes, on y trouve plus facilement des chercheurs en Europe qu'aux États-Unis. En effet, la séparation entre les disciplines y est plus précoce que chez nous. Cela facilite là-bas l'apparition de programmeurs très précoces. Par contre, en Europe, la séparation ne se fait qu'assez tard, dans les universités et les grandes écoles, ce qui enrichit notre potentiel de jeunes de culture interdisciplinaire.
L'algorithmique a un caractère plus immédiatement applicable que la logique mathématique, avec ses perspectives absolument généralistes (par exemple en théorie de la démonstration), qui la font souvent se heurter à des problèmes d'indécidabilité. En revanche, les chercheurs en algorithmique se spécialisent en général dans une catégorie donnée d'applications, avec des concepts et des objets plus délimités, voire dans des sous-domaines précis, par exemple la communication sur réseau, les bases de données, le traitement de données en langue naturelle. Pour ce qui me concerne, l'un de mes thèmes de prédilection actuel est le calcul formel. outil qui peut servir aussi bien aux physiciens qu'aux mathématiciens... et aux informaticiens.
J'utilise largement des méthodes de nature mathématique, mais ma problématique n'existerait pas du tout, s'il n'y avait pas l'informatique.
Hebdo : Y a-t-il toujours des progrès à faire, dans ce domaine brillamment défriché par Donald Knuth dans les années 60 ?
P.F. : Knuth, n'a encore aujourd'hui que 63 ans ! Il a fait un travail énorme (notamment sa célèbre série d'ouvrages " The Art of Computer Programming ") et beaucoup croient qu'il a pris sa retraite. Mais il continue d'être actif, comme un certain nombre de seniors de la spécialité.
En informatique, on a tendance à ne voir que la loi de Moore, avec la montée des processeurs en puissance et des mémoires en capacité. Or ce n'est qu'un aspect de l'histoire. On pourrait même dire que la loi de Moore oblige à faire des progrès en algorithmique, car elle encourage à traiter des volumes de données qui croissent encore plus vite.
Les progrès algorithmiques ont permis, pour nombre de problèmes, de se ramener à une complexité polynomiale alors qu'ils étaient considérés longtemps comme de complexité exponentielle. On a progressé aussi en recherche rapide d'informations complexes, en communication sur les réseaux (où l'on est sur plusieurs plans aujourd'hui proche de l'optimum informationnel).
Notre discipline change aussi dans ses méthodes. Dans les années 70-80, on tendait à construire des gratte-ciel très compliqués, avec de grosses équipes. Aujourd'hui, la complexité et la versatilité des problèmes posés par l'informatique appellent plutôt des solutions efficaces, claires, validées, garanties, donc à élaborer des fonctions de base bien balisées.
On observe aussi un certain retour de la géométrie. Ce mouvement pourrait se comparer à certains travaux récents de logiciens (notamment de Jean-Yves Girard, qui parle de " locus solus "). Nous nous apercevons, en effet, que pour comprendre le comportement quantitatif des algorithmes, nous avons tout intérêt à en regarder des géométries associées. En quelque sorte, on revient ainsi de l'univers du discret à l'univers du continu (au niveau de l'analyse, pas de la conception).
Hebdo : Quelles sont à votre avis, les applications les plus importantes de vos travaux ?
P.F. : On cherche des algorithmes pour aller plus vite (en bases de données, sur Internet) ou pour assurer des fonctions inaccessibles jusqu'à présent, et que les progrès du calcul formel permettent maintenant de traiter effectivement. L'algorithmique est tout spécialement d'actualité en matière de cryptographie (avec des progrès rapides) ou en compression de données pour le stockage et la transmission de la vidéo par exemple.
Pour ce qui concerne le calcul formel, celui-ci a été créé historiquement par les physiciens, s'appuyant sur Fortran et sur Lisp, au cours des années 60. On leur doit des outils comme Mathematica et Reduce. A ses débuts, le calcul formel se sentait proche de l'intelligence artificielle. Il s'en est assez rapidement détaché, car le calcul formel ne relève guère des systèmes experts mais d'une bonne algorithmisation des connaissances mathématiques.
Aujourd'hui les physiciens sont assez coupés de la communauté de recherche en calcul formel, et poursuivent leurs travaux au sein de laboraroies spécialisés (le CEA ou le Cern, notamment). En pratique, le premier marché est celui de l'enseignement, avec ses logiciels voire ses calculettes (TI 92) qui peuvent traiter des formules aussi bien que des nombres.
Parmi les applications intéressantes, celles des automaticiens se distinguent, avec un processus de développement en deux phases. Partant d'un problème de mécanique, ils en font la modélisation exacte en calcul formel. A ce niveau, ils travaillent par exemple sur des matrices jacobiennes (inversions, notamment), sur les dérivations... Ensuite, ils peuven produire automatiquement du code Fortran pour utiliser numériquement les formules, pratiquer les intégrations et les simulations.
Mais, parmi les plus stimulantes applications, il faut citer les " mathématiques expérimentales " (une spécialité notamment de l'équipe canadienne de Jonathan Borwein, à Vancouver). Il s'agit de soutenir et d'affiner l'intuition, de saisir ce qui est vrai et ce qui ne l'est pas, pour en chercher ensuite la démonstration. Le calcul numérique n'apporte ici qu'une aide limitée, car il bute rapidement sur les limites de précision des opérations sur très grands nombres. Les outils formels permettent au contraire l'expérimentation en très grande précision tout en ayant des résultats garantis.
Ainsi, vous le voyez : mathématique et informatique
se rejoignent. En tous cas à l'Inria !
Sciences de l'information et création artistique
" Aller au delà d'une mimésis qui singe le réel "
Philippe Codognet
Professeur à l'Université Paris 6. Laboratoire Lip 6. codognet@poleia.lip6.fr
Asti-Hebdo : Vous animez, dans le cadre de la journée de l'Asti, la session " Sciences de l'information et création artistique ". Pourquoi consacrer une après-midi à l'art ?
Philippe Codognet : D'abord, c'est le moment ! On sent qu'il se passe quelque chose. L'art numérique sort du ghetto où il est resté pendant plusieurs décennies, où quelques artistes travaillaient dans leur coin. Cette génération de pionniers ouvre aujourd'hui le champ, vers un public plus large (et même le grand public) aussi bien que vers des questions plus globales, appelant une réflexion pluridisciplinaire.
Plusieurs manifestations récentes (le symposium ISEA à Paris et ses divers colloques satellites à la Sorbonne et aux Beaux-Arts, le festival Interférences à Belfort, sans parler d'Imagina) en témoignent. Plus encore, les chercheurs en informatique liront avec profit le rapport Risset " Art-Science-Technologie ", qui montre l'importance des enjeux, tant économiques que scientifiques.
Hebdo : Scientifiques ! Les STIC auraient donc quelque chose à apprendre de l'art et des artistes ?
P.C. : On tend aujourd'hui à vouloir piloter toute recherche à partir des besoins économiques et même, plus précisément, commerciaux. Les recherches artistiques ont certes une portée commerciale (voyez les batailles autour de l'industrie cinématographique ou des droits d'auteurs, le marché de la lutherie électronique...), mais l'informatique a d'autres sources de créativité. Ni Internet, lancé par des chercheurs américains soutenus par la Défense, ni le Web, lancé en Europe au Cnet, ne sont nés des besoins du commerce. Ni d'ailleurs l'ordinateur à ses origines. Si l'on dispose, dans vingt ou trente ans, d'ordinateurs quantiques, on ne le devra pas à la poussée de l'e-business.
Or l'art est une source intéressante d'inspiration pour l'innovation informatique. Ou, si vous préférez, il peut y avoir fertilisation croisée entre création d'art numérique et recherche informatique. Et ses résultats mériteraient d'être mieux connus des informaticiens de toutes spécialités.
Les interfaces homme-machine sont tout spécialement explorés par les artistes, qui attendent de l'art numérique des possibilités d'interactivité. Or les informaticiens n'ont en général aucune culture de l'image. A aucun moment de leur scolarité ils n'ont eu de cours de design, encore moins d'histoire de l'art. Ils sont pourtant, par toutes les applications qu'ils développent, des designers autant que les architectes, et leurs choix auront une importance considérable pou les utilisateurs.
Le contact avec l'art numérique permettra aux informaticiens de mettre leurs travaux en perspective et de faire de la prospective, en découvrant par exemple l'originalité des systèmes immersifs. Tous seraient intéressés, j'en suis sûr, par des festivals comme Ars Electronica qui a lieu chaque année au mois de septembre, ou l'exposition Beyond the Screen / Au-delà de l'écran qui a eu lieu au mois de décembre à l'Ecole Nationale Supérieure des Beaux-Arts de Paris.
Les responsables informatiques, dans les entreprises comme dans les laboratoires, ont toujours eu du mal à se projeter dans l'avenir. Il leur a toujours fallu du temps pour prendre au sérieux l'arrivée, par exemple, de la micro-informatique, de la couleur sur les écrans ou même du multi-fenêtrage. Les chercheurs eux-mêmes ont tendance à rester un peu frileusement dans les techniques qu'ils connaissent bien. L'art de manière générale et, pour les informaticiens en particulier, l'art numérique, se présente comme " la figuration d'un possible " et donne à penser des ouvertures vers la créativité et l'innovation.
Hebdo : Mais, au plus profond, qu'est-ce que les STIC apportent à l'art ? On a parfois un sentiment de déception...
P.C. : C'est la vraie question. Y a-t-il réellement une esthétique numérique. Peut-on aller au delà d'une mimésis qui singe le réel ? Je le crois.
D'abord, nous l'avons vu, il y a les possibilités nouvelles apportées par l'interaction. Mais l'interaction ne suffit pas. Pour maintenir l'intérêt, le plaisir, du spectateur, encore faut-il lui proposer un contenu. Un monde qu'il puisse créer (en temps-réel), ou faire évoluer, avec ses règles propres, sa logique interne, la complexité de ses relations, la richesse des liens entre le sensoriel et l'émotionnel, et aussi l'abstraction et l'intellectuel.
Le numérique apporte enfin une autre nouveauté : la participation simultanée de plusieurs spectateurs à travers une œuvre, dans le processus d'interaction avec elle, et par là même entre eux. L'art traditionnel, a fortiori tel qu'il se présente dans les musées, se prête mal à ces coopérations.
C'est peut-être là justement l'intérêt d'une réunion comme Asti 2001, où la présentation de plusieurs grandes oeuvres interactives se combine avec des sessions de réflexion et de discussion entre artistes numériques et informaticiens de toutes spécialités.
Sciences de l'information et création artistique
Nature artificielle et artifice naturel
Philippe Codognet
Professeur à l'Université Paris 6. Laboratoire Lip 6.
J’emprunte le titre de cet exposé à Claudio Tolomei, érudit Sienois du XVIe siècle, qui l’appliqua aux jardins maniéristes mélangeant végétation naturelle et constructions humaines : non seulement bassins et jets d’eau, mais aussi statues, constructions diverses et grottes, comme par exemple dans le célèbre jardin des Orsini construit à Bomarzo, près de Rome, au début du XVIème siècle. Cette époque était la terre d’élection du " double oxymoron ", miroir linguistique des audaces stylistiques des peintres maniéristes, et l’on retrouve de nos jours cette figure rhétorique de l’oxymoron dans le terme, maintenant consacré, de " Réalité Virtuelle ".
La réalité virtuelle sort maintenant des laboratoires de recherche pour atteindre un large public. Après le passage de l'ordinateur alpha-numérique aux interfaces graphiques en deux dimensions dans les années 80, la dernière décennie du XXème siècle a vu l'émergence de la réalité virtuelle comme nouvelle frontière technologique. Tôt ou tard, toutes les interactions avec l’ordinateur se feront en trois dimensions, même si ce sera sans doute plutôt à travers la fenêtre albertienne de l'écran qu’avec des dispositifs visuels ou haptiques complexes (multi-sensoriels, à retour d'effort, etc). Internet et le World Wide Web seront sans doute aussi bientôt affecté par cette révolution, et nous changerons bientôt notre manière d'y naviguer : du surf à la surface de plates pages HTML, nous plongerons à l’intérieur de mondes en trois dimensions, dans des espaces virtuels où les communautés digitales se rencontrent et font l'expérience de nouveaux médias de communication.
I. Des œuvres d'art virtuelles
On a pu voir apparaître lors de ces dernières
années plusieurs expérimentations d’installations artistiques
en réalité virtuelle immersive. Ces travaux ont en général
été réalisés avec des technologies nouvelles
comme les environnements CAVE ou les casques HMD, prolongeant les travaux
pionniers d'Ivan Sutherland en 1968 et ceux d’un ingénieur aujourd'hui
oublié, Morton Heiling dès1960. On peut aussi rapprocher
de ces dispositifs des panoramiques circulaires entourant les spectateurs
dans le but de créer un environnement virtuel interactif qui ont
été introduit par Jeffrey Shaw dans l'univers de l'art avec
son œuvre Space - a user’s manual (1995), puis repris dans Place
- Ruhr (2000) ainsi que dans le Memory Theatre d'Agnes Hegedus
(ZKM, 1997). Parmi les œuvres les plus connues utilisant des espaces immersifs
de type CAVE ou HMD, on peut citer : Perceptual Arena d’Ulrike Gabriel
(Cannon ARTLAB, 1993), ReConfiguring the CAVE de Jeffrey Shaw, Agnes
Hegedüs et Bernd Lindermann (ICC, InterCommunication Center, Tokyo
1997), Osmose (1995) et Ephemere (1998) de Char Davies, Icare
de Ivan Chabaneau (CICV 1997), World Skin de Maurice Benayoun (Ars
Electronica, Linz 1998), et Traces de Simon Penny (Ars Electronica,
Linz 1999).
Ulricke Gabriel Perceptua+l Arena, 1993
Une version plus économique d’espaces virtuels peut se contenter des écrans plats d'ordinateurs courants : les univers 3D sont modélisés avec le langage de description VRML (Virtual Reality Modeling Language) et utilisés avec un outil de navigation ad hoc. Cette technique a été utilisée par exemple dans des œuvres comme Suspension (de Jordan Crandall et Marek Walczak, Documenta X, Kasel, 1997) ainsi que pour la version Web d'Icare de Yvan Chabaneau.
Dans un contexte scientifique, cette technologie VRML a été utilisée pour des créer de modernes Wunderkammern (cabinets de curiosité), pour représenter comme à la Renaissance le microcosme et le macrocosme, c’est-à-dire pour la description du corps humain (et de son intérieur) ainsi que pour l'exploration de l'espace (cf. la reconstitution par la Nasa et SGI du territoire de Mars à partir des photo de Mars Explorer, en 3D et en temps-réel).
Il faut cependant faire une distinction entre les deux
dispositifs cités au début de cet article, le CAVE et le
casque, car ils semblent en effet être utilisés en art pour
des buts différents : le CAVE (ou les environnements du même
genre) est utilisé pour représenter des espaces virtuels
(tel Space, a user's manual de Jeffrey Shaw), alors que les œuvres
utilisant le casque sont plus poussées vers l'abstraction (tel Perceptive
Arena d'Ulrike Gabriel). N'y aurait-il pas ici une dichotomie entre
un espace extérieur perspectiviste et un univers intérieur
abstrait ?
Maurice Benayoun, World Skin, 1998
Jeffrey Shaw, Space - a user’s manual, 1995
II. Préhistoire de la réalité virtuelle
Analysons tout d’abord les antécédents historiques et philosophiques de ces dispositifs technologiques. Nous trouvons tout d’abord, à l’orée de la Renaissance le Castellum umbrarum, château des ombres, conçu par l'ingénieur vénitien Giovanni Fontana dans son manuscrit Bellicorum instrumentum liber (1420), qui peut être décrit comme un ancêtre lointain du CAVE. Fontana décrit ainsi une pièce dont les murs sont composés de parchemins translucides mobiles, éclairés par l’arrière, créant ainsi un environnement d'images animées. Il avait en outre conçu une sorte de lanterne magique pour projeter sur les murs des images grandeur nature de démons ou d'animaux. Cette utilisation de projections visuelles a été par la suite reprise et décrite en détail par l'une des figures majeures de l'humanisme baroque, le père jésuite Athanasius Kircher, " maître ès mille arts ", dans son ouvrage Ars magna luce et umbrae (1646).
Il existe aussi une filiation directe entre les dispositifs CAVE et les fresques en trompe l'œil des villas italiennes de la Renaissance (vénitiennes, florentines ou romaines), même s’il ne s’agit là que de décors immobiles. On peut par exemple citer le " salon des perspectives " de la villa Farnesina à
|
|
Giovanni Fontana, Bellicorum instrumentum liber, 1420
Rome, dont les fresques peintes par Perruzi en 1510, sommet de virtuosité perspectiviste et illusionniste, représentent un paysage vu à travers des fenêtres fictives, répondant ainsi ironiquement à Leon Battista Alberti. Leonard de Vinci a lui-même travaillé sur de telles idées dans ses études anamorphotiques et l'on peut trouver dans un de ses carnets (le Codex Urbinas) un dessin montrant comment effectuer une peinture sur les cotés d’un espace cubique de manière à recréer, à partir d’un certain point de vue, une image courbe non-distordue. Ce système a été, bien plus tard, mis en œuvre de manière informatique par les créateurs du CAVE.
Les environnements immersifs recréant un espace illusionniste " virtuel " en projetant des images sur les murs d'une pièce fermée ont ainsi été explorés depuis longtemps. Les nouvelles technologies leur ont donné un nouvel élan par leur facilité de création, d’animation et de " réalisme " des espaces ainsi constitués. Un autre point, que nous développerons en profondeur plus loin, est l'interactivité introduite par la possibilité de se déplacer dans ce type d'environnement.
Le deuxième type de dispositif technologique de réalité virtuel qui nous intéresse est le casque HMD, où l'utilisateur/spectateur est totalement coupé du monde réel et immergé dans un espace fictif qui est projeté sur deux petits écrans placés devant ses yeux. Pour le grand public, cet appareil est devenu et le symbole même de la réalité virtuelle et de l'art high-tech. L'idée que l'utilisateur/spectateur est immergé en lui même n'est certainement pas étrangère au succès de cette de cette icône moderne.
Mais reprenons là-encore le cours de l'histoire et cherchons les traditions qui annoncent ce concept, en particulier dans la pensée du philosophe et mathématicien Gottfried Wilhelm Leibniz.
Leibniz est en effet un philosophe clé pour comprendre les changements actuels de notre société. Non seulement on lui doit l'invention de la notation binaire et la mise en place de la logique symbolique, qui forment toutes deux les bases conceptuelles des ordinateurs d'aujourd'hui, mais il apparaît aussi que sa philosophie baroque préfigure bien des aspects du paradigme post-moderne.
Gilles Deleuze dans son étude sur Leibniz (Le pli, Leibniz et le baroque, 1988), considère que la meilleure représentation du concept leibnizien de monade (Monadologie, 1714) est une pièce close, coupée de tout accès direct sur monde extérieur, " sans portes ni fenêtres ". Une monade est une entité, une âme, " un sujet conçu comme un point métaphysique " dit Deleuze, contenant le monde entier " replié " à l'intérieur de lui-même. Cette idée trouve ainsi sa meilleure illustration dans l'art baroque avec le studiolo de François 1er de Médicis au Palazzo Vecchio (Florence, 1570-72), car, de manière similaire, le studiolo contenait métaphoriquement le monde entier, peint sur ses murs.
Un autre philosophe a cependant utilisé le concept
de monade un siècle avant Leibniz, c'est Giordano Bruno (De triplici
minimo et mensura, 1591). Pour reprendre les mots de Michel Serres,
on peut dire que le bûcher de Bruno jette toujours ses lueurs sur
la philosophie du XVIIe siècle. Pour Bruno, la métaphore
de la quête philosophique de la vérité est on ne peut
mieux exprimée par le mythe d'Acteon (Degli eroici furori,
1585). Actéon, ayant vu Diane nue pendant son bain, est rendu aveugle
et pourchassé par ses chiens. Selon Bruno, le philosophe lui aussi
doit devenir aveugle et se fermer au monde pour trouver la vérité
ultime en lui même, coupé des sensations corporelles. On retrouve
une représentation directe de ces idées dans la célèbre
Iconologia
de Cesare Ripa, où la métaphysique est représentée
par une allégorie portant un bandeau sur les yeux. Une image comparable
est associée au concept d'" âme " dans les travaux de l'humaniste
tchèque Comenius (Jan Amos Komensky) dans son Orbis sensualium
pictus quadrilinguis (1658), "la peinture et nomenclature des principaux
objets du monde et des principales actions de la vie", en réalité,
un dictionnaire multilingue en images. Les images sont " les symboles de
toutes les choses visibles du monde, auxquelles, par des moyens appropriés,
ont peut aussi réduire les choses invisibles ". L'âme ainsi
est représentée dans certaines éditions par une tête
sous un voile.
Cesare Ripa, Iconologia (édition française de Jean Beaudin, 1644)
Cette tradition fournit-elle un arrière-plan, un archétype culturel pouvant expliquer le succès du casque HMD comme moyen de plonger en soi-même dans un univers virtuel ? En outre, cette image du casque n'évoquerait-elle pas une mélancolie profonde, un regret amer de l’abandon de la métaphysique dans notre monde moderne ?
III. Le point de vue du spectateur
Une caractéristique importante des environnements virtuels est la possibilité pour le spectateur de se déplacer de manière interactive à l'intérieur de tels espaces, et de percevoir le monde virtuel comme vue à travers une caméra subjective. En un certain sens, le spectateur devient ainsi un acteur, bien qu'en général il ne puisse guère faire autre chose que se déplacer dans un espace restreint. Cette facilité de mise en mouvement du point de vue du spectateur qu’a rendue possible l’ordinateur est l’innovation majeure que les partisans des arts numériques opposent aux critiques de perspectivisme moderne et de mimésis qui sont souvent faites aux œuvres issues des nouvelles technologies. Il est ici important de se rendre compte que nous passons ainsi d’un paradigme cartographique à un paradigme ichnographique. L'idée de " l'œil cartographique dans l'art " est apparue il y a quelques années pour mettre en lumière une certaine tendance de l’art du XXème siècle et elle semble particulièrement pertinente pour comprendre le post-modernisme américain des années 60-70, avec des artistes comme Jasper Johns, Robert Morris ou Robert Smithson. Mais avec la réalité virtuelle nous nous éloignons de la métaphore de la carte pour aller vers celle du chemin, avec non plus le point de vue de la tierce personne (" l'œil de Dieu ") mais celui de la première personne. Personne ne connaît la globalité de la carte, personne ne peut se représenter ou organiser le territoire d'une manière complète, même de façon abstraite. La complexité de la structure (graphe chez Michel Serres, rhizome chez Deleuze, ou réseau en informatique) ne se laisse plus appréhender, ni visuellement ni conceptuellement. Il est alors intéressant de noter que, en passant du 2D au 3D, on perd en un certain sens de l'information. D'abord parce qu'il n'y a jamais de représentation parfaite comme avec une carte. Ensuite parce que la 3D implique toujours qu'il y ait des surfaces cachées, une " part maudite ", la part du diable, qui échappe toujours à la connaissance. Il n'y a pas d'ombre sans lumières, de vie sans mort, à la manière baroque.
Ce changement de paradigme, pour reprendre l’expression de Thomas Kuhn, est aussi présent dans d’autres formes d’art plus classiques, tel l'art vidéo des dernières années, en considérant par exemple certains artistes comme Pipilotti Rist dans ses vidéos comme Pickelporno (1995), ou ses installations (Ever is Over All, biennale de Venise, 1997). Quelques travaux de Bill Viola, en particulier le triptyque de Nantes, semblent eux aussi témoigner de cette approche.
Les jeux sur ordinateur, proches dans leurs principes et dans leurs buts de la réalité virtuelle, expriment le même changement de paradigme. La caméra subjective a ainsi révolutionné le monde des jeux sur ordinateur avec l'apparition il y a quelques années de Doom (1992). Malgré un scénario incroyablement simpliste (chasser et tuer) et des graphismes rudimentaires, l'effet immersif y était totalement opérationnel, sans doute même un peu trop pour certaines personnes, car l'utilisateur/spectateur était complètement engagé mentalement, sinon physiquement, dans l'univers virtuel. Cependant, à voir certains développements récents, comme le jeu Tomb Raider et ses suites, on peut avoir l'impression que l'industrie des jeux s'éloigne de la subjectivité. Dans TR, le joueur est derrière une caméra qui suit l'héroïne, la cyberstar Lara Croft, comme dans une bande dessinée. Il ne joue pas lui-même. Il est intéressant de noter qu’il en résulte une certaine schizophrénie : on doit par exemple choisir en début de partie si les effets sonores doivent être calculés du point de vue de Lara ou bien de celui du spectateur… De tels points de vue à la troisième personne, typiques des images télévisuelles, sont aussi câblées dans de nombreux jeux sur les manettes de contrôle des consoles comme la Playstation de Sony ou la Nintendo 64. Mais à parcourir l'histoire du cinéma, il faut admettre que le concept de caméra subjective a été rarement utilisé depuis les années 40, et n'a jamais été bien reçu par le grand public. Le film plus connu tourné exclusivement en caméra subjective est Lady in the lake de Robert Montgomery (1947), et c'est en fait le seul qui ait fait date dans les anthologies du cinéma. Espérons que le point de vue à la première personne aura plus de succès dans les œuvres d’art de la réalité virtuelle.
Cependant, si un point de vue mobile est déjà plus riche que le point de vue unique de la perspective classique, il ne doit pas oblitérer l'intérêt de points de vue simultanés ou de certains points de vue privilégiés. Ainsi pour Leibniz, décidément le fil d’Ariane de notre histoire, s'il y a de multiples manière de percevoir la réalité " comme des multiples vues perspectives d'une ville ", et qu’il puissent donc exister différentes " vérités ", il y a néanmoins toujours un point de vue particulier qui est le meilleur pour comprendre l'ensemble d’un projet. Ainsi en est-il de la sorte en géométrie avec le sommet d'un cône, à partir duquel toutes les coniques sont intelligibles. Cette idée d'un point de vue spécifique et privilégié marque aussi les perspectives de l'art baroque : les célèbres fresques d'Andrea Pozzo pour Sant’Ignazio à Rome (1691-94) sont calculées pour être vues d’un certain point, indiqué sur le sol de l’église.
En dehors de cette endroit l’architecture virtuelle dépeinte sur la voûte ne semble plus prolonger l’architecture réelle mais partir en faisceaux incohérents, mettant à jour l’ironie de la représentation. Ici encore, il y a un point précis d'où tout s'ordonne et prend sens. Ce point où l'illusion est parfaite pourrait bien être celui où l'on comprend que la représentation est une illusion et que la réalité elle-même est une construction fragile. Dans l'art contemporain aussi perce cette même interrogation, bien que les artistes utilisent plutôt des points de vue simultanés, fragmentaires, pour montrer la complexité de leur discours. Le célèbre One and three hammers (1965) de l’artiste conceptuel Joseph Kosuth en fournit un exemple évident, en juxtaposant un objet (un simple marteau), une photo de cet objet et la définition du dictionnaire de celui-ci. D'ailleurs en poussant les divergences à leurs limites, les points de vue simultanés peuvent même être contradictoires, pour mieux interpeller le spectateur quant à la réalité de l'objet représenté, comme l'exprime déjà le Ceci n'est pas une pipe, de Magritte en 1926.
IV. Interactivité, espaces partagés et environnements multi-utilisateurs
L'interactivité dans les environnements virtuels est en général très limitée : dans de ce qu'on appelle " l'art interactif " ne se trouvent souvent mises en œuvre que de simples relations binaires (marche/arrêt) vis à vis d’images ou d’objets. Autrement dit, lorsque l'utilisateur atteint un point donné, fait un certain geste précis ou touche un objet, il se passe quelque chose. Malgré leur multiplication ces dernières années, les expositions d’art interactif ont surtout montré les étroites limites de l'implication du spectateur : son rôle s'arrête au choix à l’intérieur d'un petit nombre de possibilités et le dialogue avec la machine est ainsi réduit et prédéfini. Peut-on avoir de nouvelles modalités d’interaction ? Peut-on aller au delà (ou en deçà) d’un langage ou d’une gestuelle simpliste ? Pourrait-on par exemple interagir de manière artistiquement intéressante avec des créatures artificielles dans des mondes virtuels habités ?
Une interaction plus riche exigerait une intégration réelle du spectateur à l'œuvre, ce qui actuellement n'est pas le cas. En particulier, des thèmes comme l'identité, la perception de soi ou le regard de l'Autre sont pratiquement absents des œuvres virtuelles. Une sorte de schizophrénie sépare le monde réel du monde virtuel, quelle que soit la complexité des outils technologiques (casque, gants, son 3D spatialisé, etc.). Pourtant ces questions sont au cœur de la réflexion contemporaine sur l'art : on pourrait mentionner les installations vidéo de Gary Hill, où le spectateur est regardé par les personnages de la vidéo, ainsi que le slowly turning narrative de Bill Viola, dans lequel le spectateur est en quelque sorte intégré à l’œuvre à travers un miroir en lente rotation, et plus généralement l'emploi omniprésent de miroirs dans les peintures et/ou les installations.
Une nouvelle voie à explorer pour élargir le degré d’interactivité des œuvres numériques et des nouveaux médias s'ouvre avec le champ des environnements virtuels partagés, dans lesquels plusieurs utilisateurs/spectateurs peuvent pénétrer dans le même espace (notamment grâce à des connexions Internet), et peuvent donc engager une interaction à travers leurs avatars, c'est à dire leurs incarnations dans le monde virtuel. Cette technique est couramment utilisée comme infrastructure pour créer des communautés digitales et des espaces de " chat " où l'on peut en général bavarder mais guère plus. C'est en quelque sorte une version 3D des domaines multi-utilisateurs (MUD) du début des années 90. Rien n'empêche cependant d'employer le même média avec un contenu plus riche pour concevoir des interactions complexes dans les œuvres d'art dans le but d’impliquer plus profondément le spectateur en proposant des expériences plus complexes, et le faire devenir véritablement partie intégrante de l'œuvre. En fait, les espaces virtuel sont des champs d'interaction, tant entre l'œuvre et ses spectateurs qu'entre les spectateurs eux-mêmes.
Peu d’œuvres s’attaquent cependant à cette problématique participative, mais l’installation Resonance of 4 (1994) de l'artiste japonais Toshio Iwai en donne un bon exemple, bien qu’elle utilise un médium plus réel que virtuel. Celle-ci comporte quatre postes équipés d'ordinateurs (écran + souris) destinés à quatre spectateurs simultanés, qui sont disposés aux quatre coins d’une pièce placée dans la pénombre. Chacun d'eux peut produire de la musique, sous forme d'une mélodie simple saisie grâce à un dispositif classique de matrice de notes. Mais le point important de cette œuvre est que les spectateurs doivent intuitivement prendre conscience qu'ils ne sont pas seuls dans l'installation et doivent donc entamer un dialogue musical et une coopération avec les autres spectateurs pour que leurs mélodies s'accordent, de manière consonante ou dissonante. La vrai signification de cette œuvre est donc la dynamique qui peut se créer entre les spectateurs dans un schéma interactif simple comme la musique, c’est-à-dire l'émergence d'un comportement partagé par les spectateurs. L'artiste crée donc un terrain de jeu et un ensemble adéquat de règles d’évolution pour que cette interaction apparaisse. Ainsi, le sens n'est pas produit par l'artiste et interprété par les spectateurs, mais pleinement et librement construit par les spectateurs. Nous sommes donc appelés à définir et mettre en place de nouveaux modèles et de nouveaux concepts pour penser cette complexité, comme nous y ont engagé les travaux de Francisco Varela : auto-organisation, propriétés émergentes et autopoièse.
Toshio Iwai, Resonance of 4, 1994
Sciences de l'information et création artistique
" L'art et la science sont des lieux d'invention, de découverte, de passion "
Edmond Couchot
Professeur d'art et technologie de l'image. Université Paris 8. couchot@club-internet.fr
Asti-Hebdo : Vous qui avez dirigé pendant ces quinze dernière années le département Arts et technologies de l'image à Paris 8, quels sont les thèmes actuels de votre démarche ?
Edmond Couchot : Je suis plutôt un théoricien de l'art. J’ai en effet publié un certain nombre d’articles et d’ouvrages sur la question de l’art et de la technique depuis le début des années quatre-vingt, mais j'ai aussi une certaine pratique artistique qui me permet de ne pas dériver. J'enseigne, mais je mets aussi la main à la pâte.
Plasticien d'origine, je me suis intéressé, dès le milieu des années soixante, à la participation du spectateur avec mes mobiles musicaux, des dispositifs cybernétiques (comme on disait à l'époque) lumineux, susceptibles de réagir à des stimulations sonores (musique, voix, bruits divers) et d'en proposer en temps réel des interprétations visuelles où l'automatisme est nuancé par une intervention dosée du hasard.
Plus récemment, j'ai repris cette préoccupation avec, par exemple, un dispositif interactif intitulé " Je sème à tout vent ", en lui apportant toutes les ressources de l'informatique.
(NDLR : Un PC, muni d'un capteur de pression, affiche l'image d'un pissenlit, comme dans la marque bien connue des Larousse. Quand on souffle sur le capteur, on voit les graines du pissenlit s'envoler ; à chaque souffle, les images se renouvellent.)
Hebdo : Avez-vous besoin des informaticiens pour créer aujourd'hui ?
E.C. : A l'heure actuelle on ne peut plus se passer d'informatique pour manipuler et pour créer des images, des sons et même des textes. On ne peut plus s'en passer non plus pour les diffuser; les nouveaux réseaux de diffusion sont numériques.
Donc, si l'on veut avoir une attitude responsable par rapport aux outils, la collaboration avec les informaticiens s'impose. L'art est mis en demeure de s'intéresser à ces technologies, à cette technoscience que constitue l'informatique, et d'imaginer des modes de collaboration appropriés avec les informaticiens. Ce n'est pas toujours facile, mais on trouve tout de même quelques informaticiens qui s'intéressent à l'art, et qui aident beaucoup les artistes dans la construction de leurs outils, voire de leurs oeuvres.
Ils leur apportent leur connaissance, incontournable, de la programmation et, plus profondément, des connaissances sur l'usage des modèles de simulation qui sont à la base de toute programmation. On peut aussi doter les artistes d'une certaine compétence technique dans le domaine, comme nous essayons de le faire dans notre université.
Mais l'artiste est aussi conduit à collaborer avec d'autres chercheurs. Je pense aux biologistes, ou encore aux spécialistes de la perception. Comme l'équipe d'Alain Berthoz, du Collège de France, avec qui nous commençons à travailler actuellement. Cette démarche s'inscrit dans le projet " Cognitique 2000 " du ministère de la Recherche, sur les relations entre arts et sciences cognitives.
Les artistes, au moins d'une façon intuitive, se sont toujours intéressés à la perception. La peinture a toujours été un regard sur le regard. Il y a toujours, Les artistes portent toujours une certaines attention aux mécanismes perceptifs mis en jeu dans la production de leurs œuvres mais aussi dans leur réception par le spectateur. Les Impressionnistes voulaient recomposer toute la gamme des couleurs à partir de quelques couleurs pures. La peinture de cette époque s'inspirait en partie du modèle chromatique du physicien Chevreul. À l’âge numérique, les artistes s’intéressent toujours à la perception mais s'inspirent d’autres modèles, comme ceux qui sont issus des sciences cognitives et de la vie artificielle.
Hebdo : Mais si l'art va trop loin dans la réflexion scientifique, ne risque-t-il pas de perdre la passion, l'ubris, l'émotion ?
E.C.. : Voilà la grande question. Si
les artistes jouent aux scientifiques, ils ont tout à perdre. Il
en va de même pour les scientifiques, quand ils jouent aux artistes.
L’art et la science n’ont pas les mêmes buts, mais ils sont l’un
et l’autre des lieux d’imagination, d’invention, de découverte et
de... passion. Explorer leur frontières, leurs frictions, peut enrichir
l’un et l’autre.
Sciences de l'information et création artistique
" Aller au-delà d'une mimésis qui singe le réel "
Jeffrey Shaw
Artiste australien. http://www.the-artists.org/artist/pages.STU/shaw.html
Pionnier de l'utilisation de l'ordinateur, il a été directeur du ZKM de Karlsruhe (centre d'art et musée) de 1997 à 1999
Né en 1944 à Melbourne (Australie), il étudie l'architecture puis l'histoire de l'art à l'université de Melbourne.
En 1965, il part étudier la sculpture à l'académie d'art de la Brera de Milan, puis à la Saint Martin's School of Art de Londres.
En 1970, il est un des fondateurs de l'Eventstructure
Research Group, auquel il participe jusqu'en 1980.
Parmi ses œuvres et installations les plus connues, il faut citer :
- Points of View, Amsterdam, 1983 ;
- The Narrative Landscape,Amsterdam, 1985 ;
- The Legible City (avec Dirck Groeneveld), 1989, présenté à Artifices en 1990 ;
- Alice's Rooms, Kawasaki, 1989 ;
- The Virtual Museum, Art Frankfurt, 1991 ;
- Disappearance, L'Ère binaire, Musée d'Ixelles, Bruxelles, 1992 ;
- EVE (Extended Virtual Environment), Multimediale 3, ZKM, Karlsruhe, 1993 ;-
- Place: A User's Manual (Lieu : Mode d'emploi), 1995 ;
- The Golden Calf (Le Veau d'or), 1994.
On peut visiter son sit web : http://www.the-artists.org/ArtistView.cfm
Sciences de l'information et création artistique
" Transcender l'outil, de l'information à la communication-dialogue "
Maurice Benayoun
Artiste, enseignant à Paris I, fondateur de Z-A Production. maurice@benayoun.com
Asti-Hebdo : Vous avez choisi l'image numérique comme terrain d'expression de votre art. L'informatique y est-elle un simple support, ou quelque chose de plus ?
Maurice Benayoun : Depuis la création de Z-A, il y a quelque treize ans, j'œuvre dans le champ de l'image numérique. Je travaille en parallèle sur les concepts et les outils, les moyens informatiques. Pour moi les deux pratiques sont à la fois parallèles et convergentes. La création conduit en effet à développer des outils pour réaliser les projets. Mais les outils conduisent à dépasser radicalement le cadre du projet initial. Il s'agit d'une nouvelle forme d'écriture. Il ne suffit pas de multiplier les tuyaux ni même les langages. Il faut travailler leur syntaxe et leur sémantique.
On l'a vu pour le cinéma. Il a fait la synthèse de techniques venant de l'optique, de la mécanique et de la chimie. Au départ, c'est presque une expérience de physique amusante. Et les artistes s'aperçoivent qu'ils peuvent s'en servir pour créer des discontinuités spatio-temporelles. Griffith, le premier, fait un vrai montage, sortant du modèle théâtral qu'avaient transposé Lumière et Méliès, et qui conservait la linéarité temporelle. Créer des ellipses, mais aussi changer le point de vue du spectateur. Il n'est plus assis en un point fixe d'une salle de théâtre.
Et tout cela s'automatise. Déjà la perspective inventée par la Renaissance fournissait un moyen presque automatique de reconstruction de l'image. La photographie fait un pas de plus, mais ne peut que capturer la réalité. L'image de synthèse la reconstruit, en reprenant et en dépassant les principes de la perspective (géométrie, vision monoculaire, dégradation linéaire).
Elle automatise, dans le même temps, les changements de point de vue. Ce dernier point représentait, à la main, un travail fastidieux (que le dessin animé traditionnel évite ou qu'il limite à des formes simplifiées de travelling). Avec l'imagerie numérique, on quitte radicalement la frontalité du spectacle. Et, avec l'interactivité, le spectateur devient une partie de l'oeuvre, qui prend en compte sa présence et change en conséquence les finalités. Derrière l'hyper-réalisme de surface, l'image de synthèse apporte un infra-réalisme des profondeurs.
A partir de ce moment, le langage se développe et commence à donner tout son sens au cinéma hier, à l'imagerie graphique aujourd'hui. Une nouvelle forme d'expression se déploie. Et derrière elle une nouvelle industrie culturelle, que valide le nouveau langage. C'est mathématique ! Une technologie trouve sa mise en forme progressivement dans le champ des expériences culturelles.
Hebdo : Si la technologie est si déterminante, à quoi sert l'artiste ?
M.B. : La liberté du regard, la capacité à fixer d'autres objectifs que le développement d'outils. La capacité, en particulier, de faire abstraction de ce qui est considéré comme connu.
Prenons l'exemple d'un site commercial, avec un boucher, un marchand de tableaux... On croit qu'en reconstituant une ville, avec des rues et des boutiques, le visiteur (le client, en l'occurrence) va se sentir à l'aise. En fait, l'expérience montre que cela ne fonctionne pas.
Je pars de l'inverse. Quelle est la logique de cet espace ? Il s'agit d'atteindre un certain nombre de produits. C'est à partir de là, de ces actions, qu'il faut faire le nouvel urbanisme.
De quoi le visiteur n'a-t-il pas besoin ? Ce monde n'est pas un lieu qu'il habite. Ni un musée pour protéger des objets. Les murs n'ont donc plus une fonction de protection ni de soutien physique. Ils ne servent plus à accrocher les tableaux ou les quartiers de viande, ni à les protéger du froid, du chaud ou des prédateurs. Plus besoin de toit non plus pour abriter des inteméries qui tombent du ciel. Ni de fenêtres pour faire entrer la lumière. Bref, nous quittons l'écosystème classique avec ses éléments architecturaux de base.
Reste le sol, qui garde son sens. Et les murs, qui en retrouvent comme séparation de domaines de sens.Et pourquoi pas les fenêtres, qui peuvent faire découvrir le monde extérieur. Ces objets prennent un rôle sémantique, qui dépasse celui que leur fixaient les conditions traditionnelles de l'architecture et de l'urbanisme. C'est dans ce monde de significations que nous proposons au visiteur des orientations et des navigations, que nous émettons des signaux. Les objets eux-mêmes deviennent des infortmaions, et l'architecture est une architecture de l'information. Chacun de ses éléments est le composant d'un sens dans l'intention de l'auteur.
Hebdo : La dimension " virtuelle " est-elle vraiment nouvelle ?
M.B. : Je prends virtuel au sens traditionnel : ce qui précède le passage à l'acte. Il y a une part d'indétermination, un devenir du réel, un coefficient d'indétermination qui échappe à notre capacité à modéliser le monde.
Avec le temps réel, la possibilité de réactions rapides, on peut dire que situation et production se rejoignent. Le temps réel confère à la représentation un potentiel d'actualisation plus grand que les connaissances du monde dont nous disposons avant l'action.
Dans un film (je pense au cinéma traditionnel), il se passe des choses que je n'attend pas, et qui font mon plaisir, et que le film cultive. Mais, si je vois cinq fois le même film, la surprise disparaît. Le propre de la réalité virtuelle est de nous proposer un devenir sans cesse différent. Sa puissance lui permet d'enraciner sa différence dans notre différence.
En réalité virtuelle, une architecture explose. Elle n'est jamais définitive. Elle se modifie constamment. Je la visite, mais en la visitant je participe à son devenir. L'auteur a une intention, un message : rendre visible le réel, travailler sur des situations, des questions, donner à réfléchir. J'ai un problème avec " la réalité ".
Hebdo : Comment avez vous concrétisé ce travail, cette modélisation-actualisation ?
M.B. : En 1994-96, je montrais la première des Grandes Questions, intitulée : Dieu est-il plat ? Une pièce carrée avec des murs de briques. Quand on se cogne contre le mur, il se creuse, au fur et à mesure des déplacements. Le sens, c'est l'espace libre où je suis. L'espace que je creuse est la trace, la mémoire de mon parcours. Il n'y a pas d'obstacle infranchissable. Il n'y a pas non plus d'issue.
Parfois, on croise des images qui flottent. Des images de Dieu. Prises dans l'histoire de l'art. Elles viennent vers nous, mais elles deviennent statiques, sans épaisseur. On avance, on module, on confronte. Un espace fait par l'homme. Mon espace. Notre espace. Différent pour chacun.
Plus tard, c'était Le diable est-il courbe, pour Canal +. Le principe est le même. Mais là, on creuse dans le ciel. Bleu, avec des nuages. Magrittien. Avec du son spatialisé.
Une chose habite le ciel. On finit par la rencontrer. Faite de cinq sphères couleur chair. Fragments de corps. Sensuel. Une respiration, des gémissements. Quant on la touche, on lui donne du plaisir, jusqu'à l'orgasme. Si on s'éloigne, la chose disparaît, une autre réapparaît ailleurs. Cette chose a une mission, séduire : " Reste avec moi, tu me donnes du plaisir ". Par la suite, j'ai été conduit à en faire une version PC (Politiquement Correcte), enfin, presque.
A partir du Diable, en 1995, nous avons fait, avec Z-A, le Tunnel sous l'Atlantique, de Paris à Montréal. Le public, à chaque bout du tunnel, creusait des images, extrudées comme des blocs de matière, qui se définissaient au dernier moment.
J'avais décidé que le parcours durerait cinq jours, au terme duquel les creuseurs se rencontreraient, car ils auraient alors trouvé les images qui leurs sont communes. Voilà le vrai travail de l'auteur : définir les règles du monde qu'il construit, celles qui en portent le sens, qui en sont la matière culturelle. La virtualité est dans la géométrie de l'espace et de ses structures.
Après le Tunnel Z-A a développé un outil puissant (pour l'Atelier ce création France-Télécom Recherche et Développement) d'auto-profiling des utilisateurs, qui a été adapté aux agences de voyages : on creuse des paysages virtuels pour déboucher sur une proposition de voyage réel. Il faut pour cela une base d'images aussi large que possible. Plus elle est importante, plus la proposition de voyage sera pertinente. L'outil est bien entendu adaptable à toute thématique.
Hebdo : Qu'attendez-vous des chercheurs en informatique ?
M.B. : Qu'ils aillent le plus loin possible. qu'ils donnent aux artistes les moyens de créer un monde qui fait tout pour nourrir nos désirs, qui leur fasse oublier l'outil en le transcendant, qui nous permettent de passer de l'information à la communication-dialogue.
Je ne demande pas un monde qui me fasse l'amour. Les
résistances du réel sont intéressantes. S'il n'y a
pas d'obstacle, on court à l'ennui. Les ordinateurs m'ennuient.
Je n'aime pas spécialement les jeux vidéo. Mais j'esaie de
comprendre où ils vont, ce qu'ils me permettront de faire dans dix
ans. Comment je pourrai jouer mon rôle d'auteur : partir de mes préoccupations
pour donner une forme à des concepts qui parlent aux autres.
Sciences de l'information et création artistique
" Les structures musicales posent des problèmes intéressants et difficiles "
Gérard Assayag
Directeur de l'équipe de représentation musicale, Ircam. Gerard.Assayag@ircam.fr
Asti-Hebdo : La musique peut-elle être une source d'inspiration pour les informaticiens ?
Gérard Assayag : La composition musicale, et plus généralement la représentation des structures musicales posent des problèmes informatiques intéressants et difficiles. Elles conduisent à recourir aux techniques informatiques les plus pointues, en raison de la nature fortement combinatoire du domaine et de la complexité des structures mises en jeu.
Il faut associer de nombreuses dimensions : la mélodie (horizontale), l'harmonie (verticale), mais aussi le rythme, les timbres. Il faut faire évoluer de nombreux processus parallèles avec des échanges d'information et des synchronisations.
Deux approches s'opposent, d'ailleurs. L'approche " réductionniste " sépare les différents points de vue. C'est la manière naturelle de travailler pour les compositeurs. Ils traitent séparément les hauteurs, les rythmes, l'harmonie et la mélodie, ils génèrent des matériaux... après quoi il s'efforcent de recoller les morceaux. Ce qui ne va pas de soi, puisque chacun des morceaux a sa logique propre.
Cette façon de travailler n'a rien d'idéal. Elle s'explique par l'histoire de la théorie musicale, qui fonctionne ainsi depuis très longtemps, qui insiste beaucoup sur les hauteurs et sur l'harmonie, mais tend à négliger le rythme. Un des gros enjeux de la recherche musicale, et de l'informatique musicale en particulier, est de résoudre les problèmes ainsi posés.
A l'opposé, la méthode " holistique ", que nous essayons d'implémenter, s'appuie sur des bases statistiques, sur la théorie de la complexité, de l'analyse et de la compression des données. Dans l'analyse d'un texte musical, elle cherche à reconnaître des patterns, des formes, pour stocker l'information musicale de la manière la plus concise possible, conserver dans la représentation toute la néguentropie du signal musical de départ.
Cette approche combine mélodie, harmonie et rythmes pour organiser l'information musicale en tranches successives, déterminées par l'arrivée d'événements nouveaux. Chaque tranche (ou couche) est traitée comme un super-symbole, et la musique comme un flux de symbole. On essaye alors d'en trouver la logique statistique de fonctionnement. On peut alors, par exemple, faire des prédictions sur les symboles qui vont apparaître, et s'appuyer sur cette logique pour composer.
Hebdo : Ces nouvelles approches intéressent-elles les compositeurs, qui peuvent aujourd'hui trouver sur le marché des outils élaborés comme les " séquenceurs " ?
G.A. : À partir du moment où les compositeurs commencent à utiliser beaucoupp l'ordinateur, ils perçoivent les limites des outils disponibles, et en particulier des séquenceurs. Ce sont des programmes que l'on a pensé pour eux. Et qu'ils ne savent pas comment faire évoluer dès qu'ils commencnet à vouloir " sortir des cases ". C'est à partir de là qu'ils viennent vers nous.
On s'aperçoit d'ailleurs qu'ils entrent facilement dans la logique de la programmation, parce qu'il y a une certaine parenté entre la programmation et la composition musicale, qui consiste à déployer une logique dans le temps.
Les langages que nous développons, particulièrement dans le cadre du projet Open Music que je dirige, sont à base de connectique et de schématique des processus. Ils assurent une sorte de passage continu entre les niveaux de langage : ceux où l'on spécifie les algorithmes et ceux de l'éditeur, avec lequel on construit et modifie les objets musicaux et, in fine, le signal audio. Les différents niveaux sont unis dans la présentation graphique de l'éditeur.
Hebdo : Mais ne faites-vous pas de la musique pour intellectuels ?
G.A : Nos approches, au contraire, s'inscrivent bien dans un mouvement actuel de fusion stylistique. Alors que l'on tendait à séparer complètement la musique électronique du grand public, celle des DJ, de la musique contemporaine savante, nous voyons aujourd'hui tomber les frontières entre cases. De ce point de vue, l'Ircam est un lieu très ouvert.
Nous avons par exemple accueilli il y a deux ans le
jazzman américain Steve Coleman. Il est connu pour avoir beaucoup
expérimenté en matière d'utilisation de l'ordinateur,
notamment pour introduire dans son spectacle des éléments
qui donnent un second souffle au principe, essentiel au jazz, de l'improvisation.
Nous avons fait un concert aux Bouffes du Nord, du jazz de très
bonne qualité avec une interaction permanente machine/interprètes.
Sciences de l'information et création artistique
Composition assistée par ordinateur (CAO)
Gérard Assayag
Directeur de l'équipe de représentation musicale, Ircam. Gerard.Assayag@ircam.fr
L'histoire des idées musicales s'est confondue pendant longtemps avec celle des idées philosophiques, religieuses, et pré-scientifiques. Réglée, dans la conception des anciens, par des relations numériques, à l'instar de l'univers, la musique a été considérée au moyen- âge comme l'expression sensible d'une harmonie universelle. À ce titre elle a constitué à la fois un domaine de spéculation et un champ d'expérience privilégiés, liée par un double flux aux disciplines de la raison : arithmétique, géométrie, astronomie. Pour Kepler, la spéculation sur les proportions musicales devait-elle se confronter aux observations astronomiques et aux connaissances de la géométrie euclidienne ; les expériences sur les objets musicaux engendrant, de leur côté, de nouvelles spéculations sur le mouvement des corps célestes. Dès la seconde moitié du XXème siècle, avec les travaux inauguraux de Hiller, l’ordinateur est devenu le support du calcul musical. Plus récemment l’Ircam, avec les programmes PatchWork et OpenMusic a essayé de donner une matérialisation visuelle du calcul musical : l’interface se confond avec le calcul, le calcul est devenu un objet que l’on manipule et sur lequel on expérimente à l’aide d’une interface graphique. Ce que l’on représente n’est plus tant l’objet musical, que le calcul qui y conduit : cela ouvre de nouvelles perspectives pour les compositeurs.
Dans son Harmonie Universelle (1636) Mersenne se demande s'il est possible de composer le meilleur chant imaginable ; il répond par la négative car le nombre de chants possibles est trop grand et on ne pourrait pas procéder par la technique que les informaticiens d'aujourd'hui appellent " générate and test ". Il se donne néanmoins la peine d'effectuer, dans cet ouvrage et dans d'autres, des dénombrements fastidieux dont il ne donne que les résultats.
De la systématisation de l'idée combinatoire aux XVIIème et XVIIIème siècles découle naturellement celle d'automatisation de la production musicale qui débouche alors sur l'apparition des premières " machines à composer ". La " caisse musicale " (arca musurgica) de Kircher contient des lattes mobiles que l'on doit permuter. Sur les lattes sont indiquées les notes et des nombres codant durée et tonalité. A la fin du XVIIIème siècle apparaissent des jeux musicaux comme le Musikalisches Wurfespiel (attribué notamment à Mozart ) qui, partant de tables, de cartes et de dés, engendre par un principe combinatoire des menuets de 16 mesures. Le componium de Diederich Winkel (1826) est un " improvisateur mécanique " basé sur des mécanismes d'horlogerie et qui a l'avantage de posséder une sortie sonore directe utilisant des tuyaux d'orgues.
L'apparition de l'ordinateur dans la deuxième moitié du XXème siècle suscite un regain d'intérêt pour les questions combinatoires : les espaces de recherche gigantesques entrevus par Mersenne sont, semble-t-il à portée de puissance des calculateurs.
On situe les premières expériences d’utilisation de l’ordinateur dans la composition musicale vers le milieu des années 50. Il faut cependant attendre L. Hiller pour parler véritablement de composition automatique. En compagnie de L. Isaacson, Hiller crée en 1957 la première véritable pièce composée avec ordinateur : " Illiac suite for String Quartet ". Hiller défendait une démarche " soustractive ", en utilisant le langage de la théorie de l’information ou de la théorie générale de systèmes, très en vogue à l’époque : " ...le processus de composition musicale peut être caractérisé comme l’extraction d’ordre d’une multitude chaotique de possibilités disponibles... ". Le matériau de base pour la suite Illiac est engendré dynamiquement et en grande quantité grâce à l’algorithme de Monte-Carlo. Ce dernier produit des nombres qui sont codifiés et associés à différents paramètres musicaux comme les hauteurs, les intensités, les groupes rythmiques et même les modes de jeu. Ces paramètres sont ensuite soumis à un ensemble de règles d’enchaînement encodées sous la forme de chaînes de Markov.
Les travaux menés par P. Barbaud et R. Blanchard en France au début des années 60 ont aussi une place importante dans l’histoire de la CAO. De même que Hiller, Barbaud reprend les théories aléatoires pour construire ses pièces, considérant que la musique oscille entre l’ordre et le désordre. Cependant il va plus loin dans la formalisation. Ses travaux reposent sur la théorie des ensembles, qui lui sert de base pour l’analyse du langage tonal. On définit par exemple les demi-tons par Z/12, l’ensemble des résidus modulo 12, et l’opération de transposition par l’addition. D’autres acteurs du langage tonal comme les gammes, les accords, etc. sont réduits à des ensembles ou à des ensembles d’ensembles. Dans cette vision ensembliste, cependant, le problème du temps musical est sujet à questions, car la seule façon de parler du temps est la succession d’événements, ce qui implique un temps strictement linaire et irréversible.
Des compositeurs comme D. Cope ou C. Ames, entre autres, mènent des recherches basées sur l’idée d’établir des domaines de paramètres musicaux sur lesquels on impose des structures de contrôle automatiques dont l’exécution engendre la pièce musicale. Cope [COP 96] a évolué récemment vers un modèle de bases de données contenant une grande quantité de gestes musicaux élémentaires capturant des éléments de style. L’algorithmique porte alors sur la recombinaison de ce matériel " génétique " selon des formes préétablies en résolvant les problèmes d’articulation et en imposant les transformations locales nécessaires à la reconstitution d’un discours cohérent. Cope a produit des simulations intéressantes du style de Bach, Mozart, Beethoven.
Bien sûr dans ce parcours historique de la composition assistée par ordinateur nous devons mentionner les travaux de Xenakis [XEN 91] qui a basé sa musique de manière tout à fait originale sur le principe d’indéterminisme. Dans les divers écrits de Xenakis se manifeste le désir de développer un langage pour la manipulation des événements sonores dérivés de la mathématique, la logique et la physique. Pour ce compositeur, l’application du sérialisme à d’autres paramètres compositionnels que les hauteurs dégénère dans la perte de cohérence du discours polyphonique. Prenant acte de cette " mort du discours " articulé, il choisit d’assumer un paradigme non syntaxique d’organisation musicale. Les éléments primitifs dans ses compositions ne sont plus alors les notes, mais des nuages de sons dont le développement dans le temps est contrôlé à l’aide de distributions de probabilités.
Après une phase de sommeil, la CAO " moderne " émerge depuis le milieu des années 80. Ce renouveau est conditionné par un certain nombre de facteurs : la disponibilité des ordinateurs personnels ; les progrès dans les interfaces graphiques ; la création de standards de communication inter-machines, parmi lesquels, depuis 1983, la norme MIDI (Music Instrument Digital Interface) ; et les progrès réalisés dans le domaine des langages de programmation, de notre point de vue le facteur le plus important. De la même façon que le choix d’un langage de programmation influence le programmeur, il joue un rôle dans la formalisation d’une idée musicale. En effet, l’utilisation d’un langage peut susciter des expressions formelles qui ne seraient pas favorisées dans un autre contexte. Les progrès dans le domaine des langage de programmation ont donc été fondamentaux pour la CAO. L’utilisation d’un langage de programmation oblige le musicien à réfléchir sur le processus même de formalisation et lui évite de considérer l’ordinateur comme une boîte noire qui impose ses choix. Les langages de programmation offrent au compositeur une énorme liberté de décision, en échange d’un effort dans la formulation et la conception.
La contribution de l’Ircam à l’émergence de cette discipline mérite un traitement à part car c’est une des rares institutions qui se soit impliquée avec constance depuis une quinzaine d’années dans la défense de ces idées. Depuis le début des années 80 se sont succédées à l’Ircam plusieurs équipes qui ont adopté des noms différents mais qui ont toutes travaillé sur les manières de représenter et de manipuler les structures et les connaissances musicales dans un but compositionnel.
L’équipe Représentations Musicales de l’Ircam, fondée en 1992, a bénéficié de tous les travaux exposés aux paragraphes précédents dans sa tentative de construire une démarche cohérente clairement identifiée sous le nom de Composition Assistée par Ordinateur, avec un accent particulier sur la notion d’écriture. Nous essayons de définir ici le cadre général dans lequel nous situons notre recherche.
Nous avons essayé avec notre logiciel OpenMusic de rendre la plus continue possible la transition entre les divers niveaux de schématique structurelle intervenant dans la conception musicale. Dans OpenMusic, l'unité de calcul est la fonction. Une fonction est matérialisée par une icône qui dispose d'entrées et de sorties. Les icônes se connectent entre elles pour former un patch. Le patch est l'unité de programme. Il peut à son tour être condensé en une icône et, masquant sa complexité interne, devenir à son tour un atome de calcul dans un autre patch. Premier aspect récursif dont on jouera pour montrer ou cacher la complexité. La programmation devient alors un art graphique par lequel on essaiera de rendre évidents les aspects syntaxiques et sémantiques.
Les fonctions sont dotées de généricité (ou polymorphisme). Une fonction est alors à considérer comme un ensemble de méthodes, qui réalisent chacune un calcul dépendant du type des objets qu’elle traite. Ainsi, la fonction " addition ", appliquée à deux nombres, en calculera la somme ; appliquée à deux structures musicales elle en opérera, par exemple, la fusion rythmique. Il y a là un avantage qui est de favoriser l'abstraction. Dans les deux cas la même icône sera utilisée, donnant un aperçu rapide du programme et une indication sémantique sur le type d'opération en jeu. On passe donc de la notion de calcul à la notion de classe de calculs par un artifice de notation : l'identité visuelle.
En plus des fonctions est utilisée la notion d'objet. Un objet est une instance, une concrétisation, d'un autre objet que l'on appelle une classe, modèle abstrait nécessaire à sa fabrication. Par exemple, les classes nombre entier, ensemble, structure harmonique, etc. Une classe peut avoir des sous-classes : par exemple la classe accord est une sous-classe de la classe structure harmonique. Les objets créés directement par l'utilisateur ou résultats d'un calcul peuvent être matérialisés : ils émergent littéralement à la surface du patch, sous formes de nouveaux icônes, et deviennent des sources de valeur ou des lieux de stockage d'information. Un objet peut ainsi être un simple nombre, un texte ou une polyphonie à vingt-quatre voix.
Les objets, y compris les patches, peuvent être " plongés " dans une maquette, surface graphique dont la dimension horizontale représente le temps. Ainsi sont créées, par superposition et concaténation, les articulations entre objets élémentaires. Une maquette peut être plongée dans une maquette et articulée dans le temps à d'autres objets ou d'autres maquettes. Ainsi, par récursion, seront emboîtés les niveaux successifs de l’organisation formelle. Une maquette peut être plongée dans un patch, et devenir à son tour un atome de calcul : la structure musicale qu'elle représente devient source de valeur, simple paramètre pour un calcul de plus haut niveau. Encore une fois il appartient au créateur de calibrer la complexité, mais le système lui-même n'impose aucune limite.
Il est clair qu'une maquette, un patch, sont des notations. On a vu d’autre part qu’ils peuvent être plongés les un dans les autres, ad libitum : l’apport de l’informatique, à ce stade, n'est plus seulement quantitatif mais qualitatif. On bascule dans la mise en abyme de la notation.
Figures 1 et 2
La figure 1 montre un exemple de patch (programme visuel) dans lequel on réharmonise le début de Syrinx de Debussy, enutilisant un solver de contraintes.
Figure 3 Un exemple de maquette musicale
Dans une maquette, nous avons donc accès de manière fluide à quatre niveaux interdépendants d’organisation musicale :
Le niveau dynamique de la grande forme, à savoir les relations fonctionnelles qui lient les blocs entre eux. Ce niveau est déjà porteur d’indications sémantiques.
Le niveau syntaxique, c’est-à-dire les modalités calculatoires selon lesquelles se construit le discours au sein de chaque bloc.
Le niveau du matériau.
La CAO est fort utilisée en Europe aujourd’hui et commence à diffuser dans le monde anglo-saxon, juste retour des choses si l’on songe qu’elle y est née au tournant des années soixante. OpenMusic est né de la confrontation avec les créateurs contermporains, qui ont chacun une vision différente du rôle de la technologie. Notre expérience de collaboration entre scientifiques et créateurs nous a appris que la CAO avait profondément bouleversé les habitudes et les méthodes en composition musicale. Bien au-delà d’un gain quantitatif, elle opère une remise en question qualitative des modalités de la création.