Common nouns | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | 123..
Proper nouns A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z| HOME

The bit, atomic but clever

The bit is a sort of magician. Here, in this adder, it combines the three basic logical functions (OR, AND, NO) to provide an arithmetical function, addition, so merging two different modes of thinking: logic and arithmetics.

- Last revised 9/2/2014. Return to Major concepts. See varia (to be edited) on this topic.
- See Digital art, from the Bit to the Cloud, a synthesis paper

1. Digital and binary

The definition, and crucial quality, of the digital is that it can be reduced to bits and sets of bits. So, it can be seen as a set of binary values. For instance as 0s and 1s along the numeric scale of integers (N).

The existential bit. (from the Glover & Smith website)

But this reduction to bits must not take to see this world as a raster bitmap image. Its most important structures operate at a higher level. Languages have words and syntactic laws. Physics groups atoms into molecules. Genetics group pairs into genes. These may be reduced to bit strings by coding and decoding rules, by parsers and compilers. The rasterization is only the basic form when a digital universe needs to communicate with or through matter. See form.

Then, non-digital beings (continuous, analogue...) may be represented or generated along two ways:
- digitization/rasterization, for instance the pixels of an image
- naming of beings and formal descriptions of their features and relations.

A digit is an element of number representations (or command devices), from 0 to 9 for decimal numeration, 0 to 1 for binary, 0 to F for hexadecimal. The binary digits reach a wider range, since they may used to represent not only numbers, but also any two-valued feature. And they are conveniently implemented physically with logical circuits. However, they are not practical for the human cognitive system in general. Machines use bits by sets of 8 bits or more. Nature uses pairs of bits, grouped in genes, or sequences of (binary) pulses in the neurons.

The streaming of text into bits, and the reciprocal destreaming are done without loss, as long as:
- text conforms to the syntax of the used language,
- non syntactic expressive complements do not matter (such as font style and page setting for written text, and prosody for oral text). .

We shall say more about bits and matter in the "Incarnation" chapter, but we should never forget that, in nature as in artifacts, digital beings never operate in total independence of matter. In the reproduction of living beings, the combination of genomes will give a new being only through an epigenetic process which is not totally digital.

2. The bit, mathematical, logical...

What is a bit? The answer is not easy since, for example :
- a bit is always material as well as non-material; the quantity of matter per bit is central in Moore's law and its extensions;

- a bit is always a signifier and a signified ; the problem of meaning vs. digital has been seen at least from Weaver and Shannon book ; the more you digitize and the more the meaning goes out of the parts into their disposition, the structure arount the bits ;

- an isolated bit has no meaning at all; it acquires meaning through its material environment (the neighboring bits) or through its "semantic" environment, typically, a pointer on a boolean from an object ;

- a bit is never reached directly ; the length (or weight, cost...) of the way to access it could be a quantification of the "degree of digitization"; for example, a procedural texture is more digital than a sampled one since with the former one, the access path is coded, when, in a sampled one, the access is a map ;

- this digital degree could be interesting in languages; it is not by chance that the occidental alphabets have used around 25 letters since the Phoenicians;

- more generally, there is a "granularity", partly necessary by human (animals?) cognitive structures. See for example the introduction to Bourbaki.

The bit is also polyvalent; one could say "plastical", as well for abstract mental constructions (logics) as for physical devices: digital is today quite a synonym for electronic!

Some of these points may nevertheless be discussed:
- a ternary logic would, for some experts, be better, since the mathematical constant e is nearer to 3 than 2;
- in some electronic devices, or parts of devices, a "three states logic", the third state being somehow neutral, is more efficient;
- modal logics have attractive aspects that not always reduce to binary;
- a bit is not the least possible information quantity ; its proper value is reached only when the two positions in the alternative are equally probable ; if one out of the positions is more probable than the other, the informational quantity decreases, and vanishes when one position is certain.

Some other considerations:
- is a bit is a particle, and not an atom ?
- a bit is a kind of balance, a dissipative structure (a priori in a digital universe, and on full right in the physical universe);
- bits may be seen as electrons running through logical gates, which are stable structures of nuclei which determine the flows; hence, immediately, the irreversibility of logical functions.

3. One bit, two bits...

A bit alone has neither meaning nor value by itself; it is not even perceptible. At the limit, a sole bit does not even give the direction of transfer, implied only by the transmitting device

Nevertheless, the mere existence of a bit brings up an elementary optimism. If there is a bit, that implies that, somehow and somewhere, order is greater than disorder, structure more powerful than chaos. At least locally. From the most elementary level, we can then subsume the presence of a system funding values, yields, operational capacity, and at least a difference versus indifferenciation.

But that, by itself, places the bit inside of a system which lets appreciate it. We shall deal later with an hypothetical "general system". Let us begin with small bit configurations, which give consistence to their constituents.


Paris ACM Siggraph, the French chapter of ACM Siggraph, worldwide non-profit organization of computer graphics.

Varia to be edited

The minimal being

là est ça un bit, persstant
là: virtual, matter, address, location, speed, obeying the laws of matter
if virtual, refers to the world I think I see

ca: comprehension, an object of this class

- fixes structure, of n bits
- pattern recongition, helpet by headers
object with stable parts, mobile, unpredictable at first, but later predictale

What is in the memories
- images
- sack
the number of this iterations when in a for loop

the raster is not materialized, ut has some characteistic of matter

Le digital (fini en pratique), c'est la couche "raster", matrice de pixels ou d'autre chose qui est effectivemenet captée, stockée, traitée,envoyée par l'ordinateur.


Cette matrice est une réduction, fini entre deux infinis:
- la matière (continue et infinie sous réserve de nos quantas)
- nos concepts, que nous concevons en général comme continus et porteurs d'infini.


Quand nous nous servons d'un ordinateur pour percevoir, communiquer, créer et transmettre quoique ce soit, nous acceptons ces réductions, qui sont le prix à payer pour que ça marche (pour  "l'opérationalité"...).


Mais c'est vrai aussi sans ordinateur. Pour que nous puissons voir une image, il faut qu'elle soit réduite à des bits par notre rétine. C'est ensuite notre cerveau qui va reconstituer le continu et l'infini.



Mais cela n'a pas attendu l'homme. Pour se reproduire, la nature aussi accepte la réduction de tout son être, toute la richesse de son phénotype, à la suite binaire de l'ADN (c'est vrai pour le père; la mère, par son ovule, transmet aussi du continu (?)).


Et c'est aussi ce que dit la Bible. Aussi bien dans le premier chapitre de la Genèse  ("Dieu dit)  que dans le premier chapitre de l'évangile de Jean.  Dieu, en quelque sorte, se digitalise dès l'origine dans son fils, le Verbe. Et c'est le Verbe qui va ensuite s'incarner en se combinant, en quelque sorte, à l'ovule de Marie, puis en se développant embryolgiquemnet en son phénotype Jésus.  Lequel, d'ailleurs, ne nous laissera que des mots (comme Mahomet...).

Je viens de découvrir ça au petit matin, et je me trompe peut-être.


Mais une machine de Turing a une mémoire infinie. Ce n’est jamais le cas pour un ordinateur, et la différence n’est pas anodine.


(Mes excuses si je me répète).


Je vois un rôle central joué par ce qu’appelle en attendant mieux la “matière virtuelle”, c’est à dire les matrices de bits (pixels, fichiers son non codés).


Cette matière est toujours finie. Elle a deux volets qui se répondent “point à point”, le volet strictemnet matériel (le disque, l’impression papier) et le volet “immatériel”, c’est à dire leur description binaire.


Elle fait le pont entre deux infinis,
- celui de la matière jusqu’aux quanta
- celui de l’intellect (l’esprit ?) jusqu’au continu et au transcendant.


C'est en quelque sorte un point de “concentration”, ou de “compression”.

Dans les phases de perception (saisie, converstion A/D etc), on réduit l’infini de la matière à un certain nombre de bits. Puis on réamplifie ces bits en se servantde toute la puissance du cerveau (de l’esprit ...), ou de l’ordinateur. En effet, la formule des automates


E = f (I, E) permet de considérer que E est très grand (des giga, térabits...), donc qu’o partir d’un simple bit en entrée, on peut générer d’immenses choses.

Un peu comme les deux oui devant Mr le Maire...  “... jusqu’à la mort... Ils se marièrent et ils eurent beaucoup d’enfants...”.


Idem en sens inverse.

Bit. Quand il y a plusieurs bits. C'est aussi de l'extérieur quon détermine le sens de lecture.
Souvent on prendra, analogiquement, le sens naturel donné par la perception (ex. de gauche à droite)
Mais on peut faire toute autre convention.
Importance des codes au niveau des caractères.

Le phénomène, c'est le réel déjà réinterprété à partir du raster rétinien/acoustiqe.
Derrière, l'idée quil y a des objets absolus, simple, non rasters, et même non verbaux.
Mais on travaille toujours à des niveaux moyens. Court-circuit de la réception à l'émission, dont on voudrait toujours maîtriser plus profondément.

Pour une part, le progrès consiste à rendre implicite la couche raster, les mouvements de la main, la virtuosité, au profit de l'instinct, du profond.

La maximisation de volonté libre n'est qu'une forme de maximisation du nomgre de bits, autrement dit de complexité.

*** Sur le bit

Pour le bit, je pense que ce n'est qu'une étape provisoire. Une "abstraction" commode car opérationnelle avec nos machines préhistoriques. Genre la pierre taillée.
Bientôt la pierre polie ?
Je te fais remarquer que dans les circuits neuronaux il n'est plus question de "bit".
Toi concret Moi non plus

C'est ta tournure d'esprit que je trouve "platonicienne" : faire des hypothèses sur l'essence du bit me semble un peu capilotracté et pas vraiment concret. Le bit, comme la vapeur, est probablement une mode technique.
Donc , ce n'est pas que je ne te suive pas, c'est que cela ne me semble pas pertinent de généraliser le futur comme continuation du présent. On n'est pas dans des courbes calculables mais dans un système fondamentalement stochastique-chaotique.
Qui convient parfaitement à ma forme d'esprit.
Donc l'affirmation comme quoi le bit serait radicalement indépassable me semblent un peu gratuite. Il y a des indices qui indiquent que ce n'est pas si simple. Notamment du côté du quantique ou le "bit" devient nettement plus flou du fait de la généralisation de la notion d'onde ; c'est à dire en clair de train d'ondes.
Pour s'en convaincre, il suffit de dépanner un Luchrone à l'oscilloscope. Passé une certaine vitesse, on a du mal à reconnaître un bon créneau 0/1 à cause du bruit thermique. Le bit est une construction abstraite qu'on a un mal de chien à réaliser concrètement. Il faut mettre des capacités dans tous les coins pour que le bit ne s'efface pas spontanément dans le bruit. Mais pas trop non plus sinon il est oblitéré par la capa !
Donc je suis très content d'utiliser les bits tant qu'il sont dans la technologie d'aujourd'hui, mais je serai plus réservé quand à ce qui va se passer par la suite. Le mot de la fin est une idée qu'il faudrait se sortir de la tête.

Remarques pertinentes. Contre-remarques sous réserve d’approfondissement.

Le bit est un concept, comme Pi, ou Un, d’ailleurs. Il est normal que ce concept ait émergé à une date donnée dans l’histoire, mais une fois apparu, il n’a pas de raison d’évoluer ni de disparaître, tant qu’il y aura des humains (et/ou des machines ?) pour s’en servir.

2. Il n’est jamais parfaitement réalisé, ni dans l’espace ni dans le temps. Disons que, du point de vue matériel, c’est un morceau d’espace-temps où l’on peut distinguer (lecture) ou stabiliser (écriture ) deux états suffisamment distincts.

3. A la rencontre de la matière et de la forme, c’est un signe
. dont le signifiant peut être n’importe quoi (onde, encre sur papier, silicium, partie d’ADN…)
. dont le signifié peut être n’importe quoi, et qui ne prend son sens que par sa position.
C’est cette absence radicale de détermination qui en fait un concept fondamental.

Le 24/09/2016 17:02, a écrit :

Le chaos, les nuées et la langue….
Pas mal
Il ne manque que le bit, mais c’est le cœur de la langue (toute langue articulée est digitale par définition (ouais, on pourrait discuter)).

Du côté du concret, je ne fais plus de complexes depuis que mon premier rédac-chef m’a dit(j ne sais plus pourquoi, peut-être un reportage, ou un problème de répartition du boulot dans l’équipe : “Toi, tu es concret”.

Trois niveaux, une nouvelle logique

2. Pour ce qui est des calculateurs universels, il est probable que va s'introduire par nécessité de précision une différence "d'intelligence" entre le calcul de style mathématique et, par exemple, la langue, la philo ou la métaphysique. Le calcul étant assez facilement mécanisable, il est probable que le prochain "boson de higgs" réside traîtreusement dans l'impasse théorique entrevue par Gödel.

C’est une piste.
Remarque quand même que l’incomplétude Gödelienne n’a nullement gêné le développement considérable des maths depuis lors.

Je vois plutôt le prochain boson dans une meilleure connaissance des relations entre trois couches de connaissances (et de modes d’action associés)

- le mode chaotico-analogique de la nature matérielle pré-ADN
- le mode des mathématiques discrètes et du calcul au sens courant du terme
- le mode du “calcul formel”, avec ses fonctions, continues mais exprimées dans un langage articulé, donc fondamentalement discret lui aussi.

C’est là que ta remarque “avec les réseaux neuronaux, on ne parle pas de bits” prend toute sa portée.

3. La polémique actuelle en économie est une illustration de cette tendance à la mathématisation à coup de marteau. Les maths comme nouveau totalitarisme ?

J’ai envie de chercher la solution dans le paragraphe précédent (bon, tu prends ça comme ça vient) :

- le mode chaotico-analogique du marché à l’état brut
- le mode des algorithmes (droit écrit et ses barèmes, son code de la route, les algos financiers, d’affectation des scolarités, des impôts, des assurances et autres redistribution sociales)
- un mode supérieur, disons du discours et de la décision politique. Il n’annule pas la montée du mode sous-jacent des algorithmes, mais il devient assez fort pour le maîtriser dans une combinaison comme celle du tribunal, à cheval sur la loi écrite d’une part (passablement voire de plus en plus algorithmique) et d’autre part la conviction intime du juge ou du jury.

Essayons d’appliquer cela aux différents régimes politiques :
- l’anarchie (jamais totale d’ailleurs), chaotique par principe
- la monarchie qui concentre le pouvoir et le chaos entre les mains d’un seul, dont les décisions s’appliquent mathématiquement à tout. On pourrait aussi considérer les intégrismes comme une hypertrophie des algorithmes (typiquement, les prescriptions alimentaires juives)),
- la démocratie, qui introduit une couche d’algorithmes (processus électoraux) entre le niveau cahotique du “peuple” et le mode supérieur des pouvoirs élus.

Peut-être que quelqu’un va trouver les mots qu’il faut.
Trump, par exemple. Lol. Plus vraisemblablement le Gafa en complicité avec les Chinois… Ou un nouveau Daech plus astucieux.

S’il y a un “boson de Higgs” à trouver, il faut le chercher dans la troisième couche, ou dans les relations entre la deuxième et la troisième.

Gödel n’apporte pas grand chose, car il reste à l’intérieur de la deuxième couche, purement formelle. C’est le niveau où les concepts se réduisent à leur définition et/ou aux axiomes qui les constituent.

Il montre que cette couche à des trous (qu’il faut d’ailleurs avoir l’esprit tordu pour trouver). Cela n’empêche pas l’immensité des pleins.

Dans la couche au dessus, les concepts ne se réduisent plus à leur définition. Qui d’ailleurs souvent importe peu (définir l’amour …. ).
Ce qui compte, c’est
- la manière dont ces concepts jouent entre eux, avec un mélange d’analogique/concret et de digital/abstrait (pour
- la manière dont les concepts de ce niveau s’interfacent avec ceux de la couche formelle.
- la manière dont ils se connectent aux couches inférieures.

En quelque sorte a version "big data" de la logique floue. (ici aussi, remplacer la gaussienne de Zadeh par le data)

Des choses comme "tout homme... "il faudra une certaine siplification pour ne pas tout refaire à chaque fois.

Je persiste à penser que les réseaux neuronaux sont à tout le moins un bon point de départ.
Un peut trop difficile techniquement pour mes neurones à moi, mais je ne désespère pas.

En pratique, on lance une assertion
chaque mot n'appelle pas une définition mais une analyse à la Roxame.2
c'est- là-dessus qu'on va faire la combinaison
on obtient une analyse de même type
et on cherche le (la combinaison de) terme(s) la plus proche à ce résultat

Idée de base: aller plus loin que la logique floue avec une logique “big data”.

Essai historique.

Chez les grecs, la logique reste une démarche proche de la succession d’évidences. Le syllogisme d’Aristote est une partie de la rhétotique, pas des mathématiques.

Par la suite (philosophes arabes puis médiévaux), la logique se fait plus formelle, et corrélativement plus mécaniste (Bacon notamment).

La logique se complète avec la logique du deuxième ordre (si je ne me trompe), c’est à dire les quantificateurs. Puis avec les logiques modales (trois états), puis avec les logiques floues (Zadeh).

Au XIXe et au XXe, la logique (Jevons) et les mathématiques (Babbage, Turing ….) se mécanisent non seulement comme procédures appliquées par des humains mais comme des programmes exécutés par des machines.

Hors la rhétotique littéraire, toutes ces logiques posent plus ou moins explicitement que le sens d’un terme est intégralement fourni par sa définition ou par le jeu d’axiomes qui fonde une théorie. Modalité et flou ne font qu’introduire le “zeste de chaos” cher à mon frère de code.


Je propose d’aller radicalement plus loin, comme de Roxame.1 à Roxame2 : renoncer au random() et le remplacer par les données.

En pratique,
- avec des fonctions du genre de celles que j’ai développées (ana ~ Le_Boucher), plus un réseau sémantique,
- remplacer chaque terme non par sa définition mais par une synthèse issue de l’ensemble de ce que la base contient relativement à ce terme (une sorte d’induction),
- combiner ces synthèses dans chaque prémisse,
- combiner les synthèses de prémisses dans une “synthèse de conclusion”,
- fournir comme conclusion l’assertion la plus proche de cette synthèse.

En prime sur le gâteau : mon réseau sémantique va fournir non seulement des éléments informationnels, mais des éléments “émotionnels” (mettre trois paire de guillemets et écouter Gaussier sur ce point).

Donc ainsi on peut répondre aussi bien à des question d’ordre “factuel” : Socrate est-il mortel ?
qu’à des questions d’ordre “décisionnel” : Socrate doit-il mourir ?




Galerie Charlot An important supporter of digital art.