Philosophie du digital, en bref.
Très tôt la nature a fait des économies en remplaçant les gestes réels par des signaux. Ils sont moins coûteux (en énergie), moins dangeureux (gestes de domination et de soumission). Et ils se transmettent à la vitesse du son ou de la lumière.
Dès que les signaux deviennent nombreux et divers, ils s'organisent en langages. Les langages sont des systèmes d'oppositions (Sausure) donc binaires. C'est un constituant de la vie depuis ses origines (il y a des centaines de millions d'années). Mais les humains ont attendu Shannon et 1947 pour en prendre conscience et en tirer parti avec les machines digitales (Turing, Von Neumann et al.). Cela n'est pas étonnant parce que les humains ne sont pas construits pour utiliser directement les bits.
Quand les langages ont commencé à s'écrire, un mouvement progressif a conduit des idéogrammes aux alphabets actuels, quasiment stabilisés depuis les Grecs. En revanche ils sont le medium de choix pour les machines de calcul comme de communication.
Mais l'accouchement du binaire ne se fait pas sans douleur. Tout signal peut être mal envoyé ou mal interprété. L'écart se creuse entre le signifiant et le signifié. Il n'est comblé que par des jeux de conventions entre les interlocuteurs (orthographe, grammaire, syntaxe). Leur apprentissage est long, en particulier.
Cet écart est maximal avec le bit qui, pris isolément n'a pas de sens. Le sens est intégralement confié aux structures qui les combinent. Là aussi il faut des conventions, qui n'ont pas été faciles à mettre au point, mais qui sont aujoud'hui largemnet cachées par les couches successives de "langages".
Partons maintenant de la peception, en ayant en tête des machines et non pas la haute complexité sinon la transcendance de l'esprit humain.
Dans un flux de signaux (indépendamment ici d'un codage volonaire par un émetteur) par exemple des images apparaissant sur un écran en provenance d'une camér, il est facile à une machine de percevoir la persistance de certains paramètres et de certains objets. Si l'on veut exploitter ces signaux, il est impératif de remplacer les masses de pixels par du langage. A minima "En haut et à gauche de l'écran, il y a une tache grise". Si ces objets ont une certaines constance, on pourra leur attrivuer un nombre croissan de paramètres (volume, couleur(s), déplacement, forme...). Autrement dit de les décrire par un nombre croissant de bits.
Alllons plus loin, si la machine dispose d'un certain nombre de "types d'objets" avec des valeurs caractéristiques, il sera souvent possible de "reconnaître" les objets, autrement dit de leur affecter un type (cas élémentaire : une palette de couleurs peut-être vue comme un certain nombre de points dans le cube RGB (par exemple bleu, ocre, brun, gris...). Il est facile de "reconnaître la couleur" d'un pixel : c'est celle qui es la plus proche (distance euclidienne) dans le cube RGB.
A travers cet écran, le système va donc percevoir un "monde" d'objets nommés avec leurs caractéristiques et il pourra les décrire (sous forme d'un fichier de données). Les concepts de la programmation orientée objet, où un objet est l'instanciation d'une classe, conviennent particulièrement bien ici.
Mais d'autres questions surgissent.
- Cet objet, dont nons inférons la présence à partir des signaux (ce noumène derrière ce phénomène pour parler Kant), dans quelle mesure est il conforme à son modèle ? Jamais tout à fait, et les objects mathématiques sont ici éclairants. Parce qu'ils introduisent le continu infini à partir d'un signal binaire : le mot qui les représente, et les formules qui les définissent. Le mot "cercle" comprend six lettres (soit entre 36 et 96 bits suivant les modes de codage). Un cercle peut être défini par son rayon et son centre, et le fait que tous ses points doivent respecter la formue (x - xc)2 + (y-yc)2 = r2. Cela ne rentre jamais bien dans un système digital,
- d'abord parce que les coordonnées n'y prennent de sens que dans l'ensemble discret des pixels,
-ensuite parceque les racines carrées ne sont pas des nombres entiers, comme on le sait là aussi depuis les Grecs.
On retrouve donc, dans les univers digitaux, des problèmes similaires de limites à la continuité,mais cette fois avec des bits et non des quanta.
- Cet objet, dont nous inférons la présence, "existe-t-il réellement" ?
- Le langage nous conduit à des constructions qui n'ont rien de naturel. Dieu.
Et la rélexivité, le moi, etc.
Tout tient dans la récursion. Une caractéristique majeur des signes, ou du langage, c’est qu’ils permettent de parler de soi-même. Et la récursion par nature ouvre la voie de l’infini. Penser, c’est penser qu’on pense qu’on pense qu’on pense… comme la “mise en abîme avec deux miroirs parallèles.
Les preuves classiques de l’existence de Dieu sont basées là dessus. On ne peut pas être cause de soi-même (“omne quod movetur ab alio movetur”), mais la cause de ma cause a aussi besoin d’une cause…
Il faut donc une condition d’arrêt, comme en programmation de fonctions récursives.
Pour le croyant, ou le théiste, Dieu est ce point d’arrêt : il est sa propre cause. (on peut interpréter ainsi l’épisode de Moïse au buisson ardent “je suis celui qui suis”, mais c’est beaucoup demander à une texte hébreu dont le sens n’est pas tout à fait clair, si j’ai bien compris mon prof au séminaire).
L’athée ou l’agnostique n’acceptent pas cette solution, qui pose trop de problèmes (comme l’ensemble de tous les ensembles) et notamment le problème du mal. C’est le vieux dilemme : “Si Dieu n’existe pas, d’où vient le bien. S’il existe, d’où vient le mal”.
Mon sentiment est que la question, limitée à l’existence de Dieu, n’a pas d’intérêt… tant qu’on n’en dit pas plus sur Dieu, et surtout qu’il n’y a pas de prophète messie ou gourou qui se prétend représenter Dieu. Et que l’athéîsme, par réaction, peut devenir militant.
Tout tient dans la récursion. Une caractéristique majeur des signes, ou du langage, c’est qu’ils permettent de parler de soi-même. Et la récursion par nature ouvre la voie de l’infini. Penser, c’est penser qu’on pense qu’on pense qu’on pense… comme la “mise en abîme avec deux miroirs parallèles.
Les preuves classiques de l’existence de Dieu sont basées là dessus. On ne peut pas être cause de soi-même (“omne quod movetur ab alio movetur”), mais la cause de ma cause a aussi besoin d’une cause…
Il faut donc une condition d’arrêt, comme en programmation de fonctions récursives.
Pour le croyant, ou le théiste, Dieu est ce point d’arrêt : il est sa propre cause. (on peut interpréter ainsi l’épisode de Moïse au buisson ardent “je suis celui qui suis”, mais c’est beaucoup demander à une texte hébreu dont le sens n’est pas tout à fait clair, si j’ai bien compris mon prof au séminaire).
L’athée ou l’agnostique n’acceptent pas cette solution, qui pose trop de problèmes (comme l’ensemble de tous les ensembles) et notamment le problème du mal. C’est le vieux dilemme : “Si Dieu n’existe pas, d’où vient le bien. S’il existe, d’où vient le mal”.
Mon sentiment est que la question, limitée à l’existence de Dieu, n’a pas d’intérêt… tant qu’on n’en dit pas plus sur Dieu, et surtout qu’il n’y a pas de prophète messie ou gourou qui se prétend représenter Dieu. Et que l’athéîsme, par réaction, peut devenir militant.
Tout tient dans la récursion. Une caractéristique majeur des signes, ou du langage, c’est qu’ils permettent de parler de soi-même. Et la récursion par nature ouvre la voie de l’infini. Penser, c’est penser qu’on pense qu’on pense qu’on pense… comme la “mise en abîme avec deux miroirs parallèles.
Les preuves classiques de l’existence de Dieu sont basées là dessus. On ne peut pas être cause de soi-même (“omne quod movetur ab alio movetur”), mais la cause de ma cause a aussi besoin d’une cause…
Il faut donc une condition d’arrêt, comme en programmation de fonctions récursives.