Le principe sera donc, plus ou moins nettemen selon les auteurs,
de considérer que le système est un réseau
borné de processeurs.
Un processeur, c'est quelque chose qui transforme quelque chose
en autre chose, qui effectue un traitement, qui traite quelque
chose (on lit parfois "il effectue un processement, il processe
quelque chose). Le "quelque chose" peut être un
produit, un flux, continu ou non.
Synonymes de processeur (à ce degréd'analyse) :
objet, entité, module, composant, acteur,opérateur
On n'a pas besoin, a priori, d'avoir d'idées précises
sur le contenu de la boite. En ce sens, l'analyse de systèmes
est essentiellement fonctionnelle. L'organe ne l'intéresse
guère en tant que tel, c'est la fonction qui compte : ce
que font les processeurs, et non comment ils le font, ni de quelles
parties, de quelles pièces, de quels matériaux ils
sont constitués... sauf pour quelques uns particulièrement
intéressants.
On peut toujours, dans le modèle, décomposer un
processeur en plusieurs, notamment pour faire apparaître
et bien isoler certaines fonctions. Au fond, il ne s'agit que
d'une convention de langage. Il faudra faire attention à
ne pas transposer trop aisément cette facilité au
monde réel. Ne pas oublier que :
- dans la réalité, on ne peut pas découper
n'importe comment, en particulier (mais pas seulement) quand il
y a des humains en cause,
- à partir de la convention de modélisation "un
processeur plus un processeur égale un processeur",
on passe facilement à un principe inquiétant s'il
est appliqué sans précaution : "une propriété
fondamentale des machines est leur possibilité de couplage.
Deux machines ou plusieurs machines peuvent être couplées
pour former une machine unique" (Ashby)", qui conduit
tout droit au mythe de la méga-machine. La réalité,
heureusement, n'est pas si simple.
Enfin, un système réel ne peut pas en général
se réduire à un réseau borné de sous-systèmes
ou de processeurs nettement identifiés. Il reste toujours
du tissu conjonctif, des services généraux, des
"overheads", une colonne "divers" en comptabilité,
etc.
Il est souhaitable de réduire les liaisons entre processeurs
à un lien purement formel. Ou, au contraire, à tout
centrer sur les relations, les noeuds devenant purement formels.
Cette solution est duale, et on peut en montrer l'équivalence
avec celle que nous choisissons ici (?).
Autrement dit, ce qui entre à un bout de la ligne exprimant
la liaison entre deux processeurs est strictement identique à
ce qui en sort pour entrer dans le processeur suivant. En particulier,
la liaison n'introduit ni déplacement spatial, ni délai,
ni dégradation d'énergie ou de forme. S'il y a lieu
d'introduire de telles transformations, elles seront représentées
par des processeurs spécifiques (à moins de choisir
d'autres conventions).
Dans la pratique, cette règle n'est pas toujours strictement
respectée, et c'est sans importance si l'on ne réintroduit
pas implicitement de telles transformations. Notons en particulier
que si les processeurs sont réalisés par des organes
matériels, leur existence en un même lieu est impossible,
et les relations représentent toujours plus ou moins implicitement
un déplacement spatial. Cela n'a pas d'importance... tant
qu'on ne fait pas de la logistique ou du routage de composants
sur un circuit électronique.
- si le système est un ensemble d'équations différentielles,
- le changement d'un élément quelconque ne dépend
que de cet élément, sommativité physique
ou indépendance,
- décroissance progressive des interactions: mécanisation
- élément dominant: centralisation progressive.
On devrait pouvoir rattacher cela à la redondance.
Ces concepts sont statistiques. On peut en souhaiter des versions
dynamiques.
Sans que cela soit clairement explicité par les auteurs,
la disposition spatiale des processeurs sur le papier des orientations
assez intuitives : le temps progresse de gauche à droite,
et les processeurs placés plus haut dominent ou contrôlent
les processeurs placés plus bas sur la feuille. Mais ont
peut faire toute autre convention, ou pas de convention du tout.
Les liaisons étant réduites à cette pure
jonction, on peut définir des valences, nombre d'entrées
et de sorties que peut accepter un processeur (entrance, sortance).
Bien entendu, on pose en principe que les liaisons ne se diviseront
ni ne se réuniront en dehors des processeurs (un respect
strict de cette convention ne serait indispensable que si l'on
traitait automatiquement ces figures ...).
- sortance d'un circuit électronique (en analogique et
en digital)
- connectivité neuronale
- nombre d'exemplaires d'un journal
- nombre d'auditeurs d'une émission
- id. d'un produit quelconque
- débit d'une machine
- éventail hiérarchique
- nombre de clients
- nombre de psychèmes
- extension d'un concept
Un processeur d'entrance nulle sera appelé source (exemple
: pile électrique, gisement pétrolier). Un processeur
de sortance nulle est un puits.
Un certain jeu est nécessaire pour assurer la stabilité
du système. Il y aura donc, explicites ou non, des processeurs
"tampons" (amortisseurs, mémoires intermédiaires,
ambassadeurs...).
La notion d'état
La symbolique systémique réduisant, dans un premier
temps au moins, le réel à une représentation
statique, il faut ensuite ré-introduire la dynamique. On
a recours à la notion d' "état" du système
ou du processeur.
Pris de la manière la plus générale, l'état
peut être une mesure quelconque sur le système ou
processeur, par exemple un level chez Forrester. Mais, dans beaucoup
de cas, on se donne des espaces d'états plus structurés,
en renonçant à la puissance du continu pour entrer
dans le dénombrable et même le fini :
- élimination du flou, suppression du bruit, définition
d'un espace d'états fini, souvent binaire (ouvert/fermé),
parfois plus étendu (degrés d'une d'échelle,
liste des couleurs découpée dans le spectre),
- dans le temps, la mesure se fait à des instants bien
définis, soit à un phase du cycle de fonctionnement,
soit à intervalles réguliers.
On distingue complication et complexité. L'accord est loin
d'être réalise sur le sens de ces termes, et Morin
(La Méthode), en souligne les paradoxes. Pourtant, on y
réfléchit depuis longtemps, et déjà
la cybernétique se donnait pour tâche essentielle
de réduire la complexité des systèmes. Sommairement:
- la complication exprime plutôt un volume global, mais
des structures relativement pénétrables ; en pratique,
sans qu'il y ait beaucoup de boucles ; à la limite, la
complication est proportionnelle au nombre d'éléments
;
- la complexité exprime la richesse des interconnexions,
des bouclages ; pour certains auteurs, la complexité serait
mesurée par le nombre de boucles ; pour d'autres, elle
a un caractère essentiellement subjectif et ne peut donc
se mesurer.
A mon avis : la taille et donc la complication ne peuvent croître
beaucoup sans buter sur des seuils qui exigent un accroissement
de la complexité. Dans une certaine mesure, la distinction
est un faux problème.
(Exemple: composants électronqiues : LSI plus de 100,
MSI plus de 12, SSI moins de 12 (et aussi définition fonctionnelle)
Texas, Data, 1973 ou avant)
Ces deux fonctions se renvoient l'une à l'autre
Intuitivement :
- une fonction se définit à partir de fonctions
plus vastes, de l'extérieur, des finalités ; c'est
le rôle d'un système ou d'un processeur, ce qu'il
fait ; on va du haut (logique) vers le bas, du global vers le
détail ; une fonction, en quelque sorte, est une propriété
externe ;
- un organe se repère physiquement et anatomiquement, par
exemple comme un ensemble de cellules identiques (mémoire
d'ordinateur, foie). Il se construit du bas (logique) vers le
haut, il émerge par différenciation et regroupement.
Une des tâches de l'analyse de système consiste précisément
à rechercher, à étudier, et le cas échéant
à remettre eu cause la correspondance établie entre
fonction et organes. Ou a créer des organes qui accompliront
une fonction souhaitée.
En général, il n'y a pas de correspondance simple
entre organes et fonctions. Non seulement un organe peut avoir
plusieurs fonctions et réciproquement, mais encore certaines
fonctions peuvent être accomplies de manière diffuse
dans l'ensemble du système, avec unevague spécialisation
de certaines parties (génération des globules rouges,
rangements dans un bureau), et certains organes, bien repérables
physiquement, peuvent avoir des fonctions vagues ou pour l'instant
inconnues (ce fut longtemps le cas de bien des organes humains
avant la médecine moderne).
Autres textes sur ce thème: organe et fonction
Le composant
A la différence de l'élément, cher à
la théorie des ensemble, le processeur, atome de la systémique,
est d'emblée une forme assez complexe, même quand
on la réduit à son expression la plus simple.
Cela rejoint l'idée qu'une "forme" est toujours
"prégnante", riche, évocatrice, dès
le moment où elle apparaît dans le champ de conscience
(voir Lussato, après bien d'autres). Citons aussi Blumenthal
: "un module doit regrouper un nombre d'opérations
suffisamment grand pour pouvoir constituer un centre autonome
économiquement viable".
Capacité cognitive d'un système: pour Galbraith,
elle doit être égale à la quantité
d'information circulant, par unité de temps, nécessaire
pour que soient assurées les tâches de cette organisation.
(bof)
Il s'agit de donner les grandes catégories de pièces
qui figureront dans notre Meccano.
Trois grands types de traitement : l'objet traité, le produit
ou le flux processé, etc. peuvent subir des transformations
:
- de temps : entrepôt, mémoire, - de position dans
l'espace : transports, communications,
- de forme : usinage, calcul, analyse et synthèse.
La dernière catégorie est un peu fourre tout. On
y mettra ce qui ne relève ni du temps ni de l'espace :
par exemple un chauffage, l'application d'un algorithme, un regroupement
de plusieurs intrants pour former un extrant unique
Dans le monde réel, un processeur n'est jamais d'un type
pur : un stockage agit sur les formes (évaporation, vieillissement),
un transport prend un certain temps et dégrade les objets
transportés, une modification de forme prend du temps et
souvent déplace les objets.
Cas particulier intéressant : l'amplificateur : "on
met quelque chose à l'entrée et on récupère
plus à la sortie". On pourrait placer dans cette catégorie
les processeurs réels ou fictifs introduits dans un modèle
pour respecter la non-bifurcation des liaisons. Dans le monde
réel, on aura : regroupements (pooler, mélangeur,
multiplexeur, concentrateur), séparations (filtres, répartiteurs,
séparateurs, trieuses, démultiplexeurs, diffuseurs)...
Pour aller vers un "algèbre des processeurs",
on pourrait aussi ajouter un élément neutre (entrées
strictement identiques aux sorties de tout point de vue).
On distingue couramment matière, énergie, information.
Ici encore, par de matière sans forme, ni d'information
sans support, et de l'énergie un peu partout... D'ailleurs
la matière peut se transformer en énergie (e = mc2)
et réciproquement. L'information pourra peut-être
un jour être mise en équation avec la matière...
bien que les bons esprits en doutent.
Il serait intéressant d'introduire des processeurs spécifiques
de finances. Bien que ce type de flux soit souvent cité
(par exemple les quatre flux de Le Moigne), on identifie rarement
ces processeurs spécifiques, qui présentent pourtant
des caractéristiques remarquables, intermédiaires
entre la matière (addititivé) et l'information (mêmes
supports, et tendance séculaire à les rendre de
plus en plus légers). Sans parler d'une propriété
remarquable : quand on prête de l'argent, il rapporte.
Les processeurs d'information, souvent regroupés dans "le
système d'information" par les modélisateurs
ou les informaticiens, méritent une attention particulière.
Ils tendent à concentrer la complexité des organisations.
Notons les processeurs :
- de régulation (très étudiés en automatique),
- de décision (recherche opérationnelle),
- de résolution de problèmes (jeux)...
Certains processeurs ont pour fonction spécifique d'assurer
le passage d'un type de produit à un autre :
- matière ou énergie vers information (capteurs,
transducteurs),
- matière vers énergie (moteurs, réacteurs
atomiques),
- information vers matière ou énergie (actionneurs).
Selon les cas, on insiste plutôt sur la continuité
du passage (l'information, au fil de l'histoire, se dégage
progressivement de la matière), ou sur leur séparation
étanche (clôture du langage, du système de
représentation).
C'est au niveau de ces passages que s'observent les effets les
plus puissants et les plus intéressants. A commencer par
la bombe atomique (matière/énergie), sans parler
de l'alchimie, et même des "sacrements" au sens
catholique.
Dans la nature comme dans les systèmes artificiels, la
"dynamique", le "progrès", relèvent
des bons choix en ce qui concerne ces passages. C'est grâce
à eux, sans doute, que le système parvient à
des échanges bénéficiaires avec son environnement
et parvient ainsi à survivre et à se développer,
alors que sa structure, hautement improbable, devrait se dissoudre
dans le chaos général.
Même pour les processeurs humains, "le discours est
du pouvoir" (Bernard Henri Lévy, Hitler). Ou plus
techniquement (Crozier) : "La codification (des zones d'incertitude...)
constituera toujours un enjeu majeur dans les conflits de pouvoir
qui opposent les membres d'une organisation.
Notes.
Pas d'Histoire, ni de prévision, sans une certaine explicitation
des processeurs d'information (l'Etat).
Lussato note qu'à l'entrée, les organes doivent
à la fois (ou tantôt) effectuer une dénotation
et recevoir des symboles. C'est évident en sortie (???).
On ne confondra pas "émergence d'un système
d'information" et "création d'un service informatique".
Cette distinction porte à la fois sur les processeurs et
sur les produits. Tantôt le produit est continu, liquide
(électricité, liquides et poudres...), tantôt
il est discret (pièces en mécanique).
Dans une certaine mesure, les produits discrets peuvent être
traités en continu (gâteaux secs sur un tapis roulant
pour les phases de cuisson) et réciproquement (batch, lots,
de produits continus).
Quand il s'agit d'information, on parle de données ou de
processeurs "analogiques" ou "numériques"
(plus souvent : digitaux).
Cas particulier : le terme de transaction exprime généralement
qu'un paquet d'opérations est appliqué à
un paquet de quelque chose, souvent en mettant en liaison deux
processeurs. Terme employé surtout pour la monnaie et l'information.
Continu et discret sont toujours un peu mêlés. "Toute
morphologie se caractérise par certaines discontinuités
qualitatives du substrat" (René Thom, mathématiques
de la morphogenèse). Autrement dit, il y a toujours du
digital, même dans l'analogique.
Il est inévitable qu'un processeur introduise des délais.
Cela n'a pas d'importance tant que ce délai n'est pas long
par rapport à ceux des autres processeurs (et dans certains
cas, par rapport aux caractéristiques des produits, comme
le savent les négociants en primeurs et les journalistes).
En effet, on peut toujours, dans ce cas, négliger les délais
propres à chaque processeur et les rappeler globalement
pour l'ensemble du système : on aura par exemple un délai
global égal à la somme des délais de la chaîne
de traitement la plus longue.
La situation peut se compliquer considérablement si :
- la chaîne de processeurs comporte des boucles,
- certains processeurs ont des cycles propres.
Il peut alors se créer des phénomènes d'accrochage
(pompage, résonance, Larsen, ), de battement... dont la
suppression sera indispensable au bon fonctionnement du système...
sauf bien sûr le cas où ils sont spécifiquement
recherchés (oscillateurs).
Les automaticiens sont allés très loin dans l'analyse
mathématique de ces questions.
Un cas particulier connu : les systèmes d'information par
lots, qui introduisent des phases, par exemple mensuelles, qui
ne sont pas sans inconvénient pour l'ensemble du système.
Ils sont pour cette raison de plus en plus remplacés par
des systèmes transactionnels.
Un processeur peut être dit "en temps réel",
s'il n'introduit pas de perturbation dans la durée et les
cycles des processus auxquels il participe. En pratique, on réserve
l'expression à des processus rapides (exemple : traitement
de signaux radar).
Une procédure judiciaire et un distributeur de billets
de banques dont l'un et l'autre des processeurs. On peut intuitivment
montrer ce qu'est l'explicitation en classant par explicitation
progressive :
- habitude
- méthode
- équation
- procédure
- outil
- machine
- machine automatique
- robot
- homme...
Il y a toujours quelque chose de choquant à considérer
un homme comme un processeur, et plus généralement
à parler d'un humain comme partie d'un système.
On peut employer le terme d'acteur (Crozier). En pratique, il
faut bien que nous pensions et que nous agissions, donc que nous
nous incarnions dans des systèmes concrets. Restons conscients
de cette déchirure entre l'individu et l'organisation,
entre l'acteur et le système.
Simondon emploie le terme de "concrétisation"
et le développe de manière passionnante. Voir aussi
Mélèse (AMS).
Ce problème de la "réalisation" plus ou
moins grande est souvent masqué par le mode systémique
de représentation. Il pose d'ailleurs des problèmes
délicats en matière de systèmes d'information.
Représenter une opération, et opérer sur
une représentation, c'est tout un. Et Peaucelle note :
"Il n'y a pas de différence de nature entre un besoin
en information et un système d'information".
Outre ces caractères typologiques, les processeurs peuvent
être décrits par des caractéristiques quantitatives
relatives soit aux produits traités, soit aux processeurs
eux-mêmes.
Cela ne fait pas problème dans les domaines rattachés
aux sciences exactes. Par contre, en sciences humaines, la quantification
est un problème théorique qui a une certaine portée
idéologique.
Ashby : machine
Bertalanffy : système, équation
Bourbaki : signe, terme, relation, ensemble, élement, partie
Bruter : objet
Cantor : élément, ensemble
Deleuze : machine (séparée)
Démocrite : atome
Electronique : composant, sous-système
Forrester : rate, level
Galois : groupe
Gille et al. : système (asservi)
Jacob : intégron
Koestler : holon
Markov : source, point d'un graphe
Mélèse : module
Mendéléieff : atome
Minsky : automate (fini)
Paciolo : compte, écriture
Petri : place, jeton
Piaget : système
Scolastique : ens
Simondon : objet (technique)
Thom : objet
Meyer, etc. : objet
(Lacroix 72) LACROIX Jean. Le Monde, 26-27 mai 1972.
Chapitre suivant: Structures Chapitre précédent: Introduction