3. STRUCTURES

3.1 Concepts

3.1.1 Concepts de base

Un système est donc un ensemble, un réseau deprocesseurs. Le réseau est représenté par un graphe,visuellement très expressif. Mais cette présentationprivilégie les relations dans le plan, et peut introduire des proximités artificielles.

Cet inconvénient pourra être éliminé par l'emploi d'une matrice de connexion entre les processeurs. Elle est moins parlante, mais plus "objective", et plus directement utilisable par un programme informatique. Cette matrice peut être aussi la matrice des coefficients d'un système d'équations différentielles.

Ces deux représentations ne comportent pas d'indications temporelles (sauf évidemment dans la forme différentielle). Le temps sera parfois indiqué par du texte, comme les points cotés en descriptive. Par construction, le graphe représente donc la part invariante du système, sa structure.

3.1.2 Nature de la liaison. Neutralisation

La plupart du temps, les liaisons sont orientées, puisqu'on a distingué entrants et extrants. En l'absence d'orientation, on considèrera en général que le flux peut circuler dans les deux sens.

Les liaisons peuvent représenter des échanges de matière, d'énergie, de monnaie, d'information. (Dans certaines méthodes, on utilisera diverses formes de pointillés ou tiretés pour représenter les différents types).

Ces relations expriment parfois le contrôle, la domination (implicitement exprimées par la position relative sur l'axe vertical), points qui ont fait l'objet d'études mathématiques approfondies.

La relation n'est jamais neutre. "Toute relation à l'autre est stratégique, et comporte une composante de pouvoir, si refoulée ou sublimée soit-elle".

Ce que nous recherchons, c'est un mode de couplage qui ne fasse violence à aucune des deux machines, de sorte qu'après le couplage, chacune demeure ce qu'elle était auparavant. (Ashby).

On ne représente pas, normalement, les caractéristiques quantitatives de ces relations (ces points relevant essentiellement des processeurs eux-mêmes).

Les relations peuvent être probabilistes.

Finalement, ces relations sont purement "topologiques", en principe. Cela n'interdit pas, même en l'absence d'emploi des axes de l'épure, de parler de "position des éléments". On distingue des propriétés "internes" aux processeurs (ou encore "propres", ou "organiques"), résultant de la "nature" des parties, de leur configuration interne, et des propriétés "externes" (ou systémiques, pour H.A. Simon, ou fonctionnelles), résultant de leur position.

Lussato pose le principe "selon que la nature des parties est plus complexe que la structure externe (structure du système), les propriétés des parties sont plus conditionnées par leur "nature" que la configuration du système, et inversement.

On pourrait parler ici de parallèle, série, séquence, redondance, des concepts de la programmation structurée. On pourrait aussi transposer la théorie des graphes.

3.2 La hiérarchie

Il y a évidemment une indéfinie variété de structures possibles. Sans doute, si le nombre des processeurs et des types de relations est donné, le nombre de structures possibles devrait pouvoir être calculé par la combinatoire. Mais autant qu'on sache c'est sans intérêt.

Certaines structures retiennent particulièrement l'attention. C'est le cas des arborescences et des boucles.

Les arborescences sont très naturelles à notre entendement. Elles sont par exemple à la base de l'organisation traditionnelle des entreprises (ou de la "systématique" des zoologistes et botanistes, qui est en fait une classification, si je ne me trompe. Structure est souvent pris dans le sens de hiérarchie. Ex. Programmation. Permettent la totalisation, avec totalisations partielles (la bonne vieille mécanographie...).

Apparaissent immédiatement deux notions quantitatives :

- le nombre de niveaux,

- l'éventail hiérarchique, nombre de noeuds d'un niveau rattachés à un même noeud de niveau supérieur.

En soi, cette structure n'exclut pas la délégation et la décentralisation. C'est un problème de poids respectif des noeuds.

Par ailleurs :

- chaque noeud n'est rattaché qu'à un seul noeud de niveau supérieur (unité de commandement),

- le nombre d'arcs est égal à celui des noeuds (moins un), cette structure est la plus économique en termes d'interrelations.

Dans une certaine mesure, une structure en matrice peut être considérée comme une hiérarchie. Enfin, le treillis est un cas un peu plus complexe, e les propriétés deviennent sensiblement différentes.

Dans la pratique, les systèmes ne sont jamais complètement hiérarchisés. Mais on s'arrange pour considérer comme parasites, ou secondaires, une partie d'entre les relations, afin de se ramène à une arborescence. Exemples :

- la passerelle de Fayol,

- les différents noeuds d'un même niveau rattachés à un même noeud de niveau supérieur pouvant avoir de fortes interrelations entre eux sans remettre en cause le principe hiérarchique, sous certaines conditions,

- on considèrera encore comme hiérarchisé, bien que ce soit formellement une structure plus complexe, une chaîne de processeurs en séquence dominée par une hiérarchie de processeurs de contrôle.

La hiérarchie n'est pas égalitaire. Il y a un haut et un bas. Ceux du haut sont payés plus cher...

Citons par exemple le collectif Adret : "Si, pour s'assurer les spécialistes qui demeureraient nécessaires, il faut les dispenser entièrement du travail lié, ou bien leur assurer un niveau de vie très supérieur à la moyenne, ou bien encore leur donner nettement plus de pouvoir qu'aux autres, alors le genre de société dont nous parlons ne peut pas fonctionner".

... et ont des responsabilités différentes. Le plus souvent, on met en bas les processeurs "opérationnels" (système opérant) et en remontant la hiérarchie on trouve des processeurs de plus en plus informationnels.

Ces structures ont été étudiées en détail par la théorie de la commande hiérarchisée (Mesarovic, Titli). Citons deux passages caractéristiques de ce dernier (il s'agit de dispositifs automatiques).

- Face à un processus complexe, sur lequel on d/oit réaliser une fonction de commande complexe, une approche de commande à plusieurs niveaux peut être réalisée suivant deux voies simultanément :

- la fonction de commande globale peut être divisée en fonctions de commande plus simples, formant une hiérarchie, ce qui conduit à une décomposition verticale en sous-systèmes de commande,

- le processus peut être décomposé en sous-processus plus simples, commandés par des critères locaux, les actions de commande locales étant coordonnées par les niveaux supérieurs de la hiérarchie.

- Une unité de commande s'intéresse à des aspects d'autant plus généraux du système global qu'elle appartient à un niveau élevé de la hiérarchie des unités de commande. Elle est liée à des dynamiques d'autant plus faibles, et ses périodes d'intervention sont d'autant plus longues que ce niveau est élevé.

La hiérarchisation se rencontre dans toutes sortes de systèmes. Même au sein de l'action personnelle, "être maître de soi" comporte une certaine hiérarchisation des désirs, des options. Jean Fourastié l'exprime bien : "Pour faire prévaloir une décision inspirée par des prévisions à long terme, la pensée claire doit bloquer les décisions, les démarches, les actes commandés par toutes la gamme des "pensées" placées plus près des organes d'action macrophysiques et plus près de l'instantanéité". Mais un psychisme trop hiérarchisé conduirait à une austérité inhumaine, la "polarisation"... un bon vivant n'est pas obsédé par une idée fixe.

Les problèmes de relations-coordination entre niveaux différents d'un même système mériteraient des études approfondies. Exemples : horaire variable, paie, gestion de personnel, triage automatique, gestion des wagons. Voir tableau de classification des systèmes informatiques

3.2.1 Un cas particulier : les "méta-"

L'une des relations-clés par quoi les déterminations se situent les unes les autres est celle qu'exprime le préfixe "méta". Métaphysique, métalangage, métamathématique, métalogique, métathéorie... Elle réfère à un dépassement d'une attitude ou d'une discipline en repartant plus profondément de moi-même. La signification varie cependant selon les différents dérivés. Il faudrait approfondir...

Aux niveaux les plus élémentaires, la question est peut-être moins nette. L'adjonction d'un nouveau bit à un message, par exemple, pourra être dit méta quand il s'agit de l'explicitation d'une détermination qui était et qui sera implicite quand on dira le reste du message. On peut considérer que cela ramène plus ou moins à une domination : le méta domine le reste du message. Par exemple, une première dimension sera plus ou moins implicitement pensée comme horizontale, abscisse. Une deuxième exprimera la hauteur. La troisième sera encore la hauteur, ayant ramené la deuxième dans le plan horizontal. Enfin, le temps jouit d'un statut particulier dans l'espace-temps, et la mort avec sa faux vient balayer ce que nous écrivons dans le sable.

Peut-être pourrait-on ici parler du bit de parité, ce juge de la vérité du message, et placé en position en quelques sorte hiérarchiqement par rapport aux autres bits de l'octet.

3.2.2 Différences de nature

Outre les écarts quantitatifs entre niveaux, outre l'écart structurel apporté par l'agglomération, il faut tenir compte d'un écart de nature : le tout n'est pas la somme des parties.

C'est net en gestion. Les décisions ne se prennent pas sur les totaux bruts des chiffres de détail, même supposés exacts. Ces chiffres ont toute leur importance, mais n'ont de valeur absolue que pour le comptable. Entre eux et le décisionnaire, il y a toujours une "consolidation" où l'intelligence doit compléter le calcul.

Le décideur, en effet, se contentera en général d'approximations, dont il lui revient d'apprécier la finesse. Cela ne retire rien à l'utilité de la comptabilité et de sa structure opératoire "au centime près", essentielle pour sa cohérence propre.

De plus, le décideur interprète. L'efficience comptable n'est pas son problème. Par contre, il doit s'intéresser à la sémantique de l'information apportée. Or la sémantique du niveau global, le jeu des causalités, des prévisions, diffère de l'agglomération des sémantiques élémentaires.

Par exemple, l'évolution du chiffre d'affaires et des statistiques commerciales de la maison doit être appréciée à la lumière de l'évolution globale du marché. Ou encore, le chiffre comptable sera marqué par des évolutions dans la structure de l'entreprise (fusion , filialisation) qu'il faut éliminer pour prévoir l'avenir sur les dynamiques réelles.

Le système hiérarchique permet d'aller très loin. On sait coordonner des centaines de milliers d'hommes. On sait assembler, dans des machines complexes, des milliers de composants qui, avec les progrès de l'intégration électronique, représentent eux-mêmes l'équivalent de milliers sinon de millions de composants élémentaires.

3.3 La boucle

Il n'y a pas vraiment système tant qu'il n'y a pas boucle. Elle est le fondement de l' "auto".

La deuxième structure fondamentale, c'est la boucle. Elle est presqu'aussi économique, en termes de relations par nombre de processeurs, que la hiérarchie (autant d'arc que de sommets).

Elle n'introduit pas d'inégalités entre les processeurs qui en font partie.

Elle introduit les notions de cycle, de centre, de centre de gravité, de diamètre. Elle a ses valeurs propres.

Elle peut avoir un sens de parcours, mais cela ne lui est pas essentiel, à la différence de la hiérarchie.

Elle se prête à être représentée par un point unique, dans le cadre d'un système plus vaste.

Dans une certaine mesure, elle fait distinguer un intérieur et un extérieur. Les communications sont plus rapides par les lignes intérieures (notion de convexité, principes tactiques napoléoniens).

Donc double aspect : ligne fermée, feed-back surface enfermée (cercle)

L'esprit, c'est la boucle de rayon zéro. Autrement, il y a une épaisseur de boucle, un rayon minitel. Renvoie à vitesse de la lumière, théorie de la relativité, etc. En un sens, l'épaisseur de boucle est aussi l'opacité de la conscience à elle-même.

Mais on n'atteint pas le rayon zéro. Il y a toujours une certaine épaisseur de boucle. Même dans le apo/cata de la théologie. Le plus intéressant: la boucle brain/mind de Morin. Et toutes ses boucles en général. Il a proposé une structure intéressante, il faut maintenant y mettre du quantitatif.

Elle est potentiellement perturbante : oscillations et accrochages, hippie management.

Elle est à la base de la cybernétique, avec la fondamentale boucle de rétroaction (synonymes : rétromettance, contre-réaction, feed-back).

Elle est sous-jacente au concept de mémoire.

3.4 Autres structures

Citons

Le clique. Intéressant parce qu'on peut alors mettre les relations "en facteur", faire "un pot commun". Cependant des processeurs reliés en clique ne sont pas à confondre avec un processeur unique : il peut y avoir un certain temps de propagation... à relier intuitivement avec la notion thermodynamique de "température".

La matrice (ou tableau, ou graphe à deux dimensions au sens de la théorie des ensembles). Management, organisation matricielle. Voir l'article de Davis et Lawrence.

Le cristal. Répétition indéfinie, mono, bi ou tri-dimensionnelle d'un processeur identique.

Structures plus molles, organiques, plus ou moins sales et humides : la vie, quoi!

Tableau de Thomson-Truden (LM 140) pour les formes de partage de pouvoir.

Structures de la parenté (Lévi Strauss)

Structures trinitaires (la Sainte Trinité des catholiques)

Echelles de systèmes des divers auteurs

(Le Moigne après Boulding) : Bertalanffy (selon Boulding)

passif statique

actif mouvement horlogerie

régulé auto régulation

informé ouvert

décisionnel organisme de bas niveau

à mémoire animaux

à imagination hommes

auto-décisionnel socio-culturels

auto-finalisé symboliques

Structures de compétition.

Types abstraits de la programmation.

L'objet

Structures issues de la biologie:

- cellule, organisme, réseau (sanguin)

- atome/molécule

Il n'y a pas de limite théorique à l'imagination des créateurs de structures. Mais il y a des limites pratiques. La systémique doit être utilisable. Représentation, elle doit être parlante. Donc les

structures trop complexes ne seront pas utiles. D'où l'intérêt de structures relativemetn simples comme la hiérarchie et la boucle.

Nota: La structure centre-périphérie ne semble pas intéresser la systémique. Elle se représente mal avec les processeur, en tous cas ce n'est pas l'habitude.

3.5 Mesure de la quantité de structure

3.5.1 Problèmes généraux

Toute mesure a un caractère réductionniste, aucunemesure ne satisfera tout le monde.

Les différents nombres mesurant un système donné ne peuvent évidemment pas être indépendants. D'abord il y a des minima et maxima pour un type de système donné.

Plus profondément, on ne donne pas le nom de "système" à un système qui ne possède pas suffisamment d'éléments, sinon le cas échéant pour la beauté formelle de la théorie générale. Mais on a tort, car il s'agit d'une théorie de la représentation.

Un des premiers problèmes clés : relations entre mesures sur les parties et mesures sur le tout. Exemple : en systèmes nucléaires, les masses ne sont pas additives, il y a défaut de masse.

Exemples de minima : poids d'un nouveau né, masses critiques, capital minimal d'une entreprise, température minimale du corps humain

Exemples de maxima : poids d'un homme

Exemple de records : voir Guiness

Exemple de valeurs typiques :

Exemples de valeurs optimales :

3.5.2 Exemples de mesures

Nombre d'éléments, de processeurs, effectifs d'une entreprise, de neurones, de cellules d'une entreprise

Masse, volume (de chaque élément, global), température

Mesures de flux : chiffre d'affaires, vitesses, rates de Forrester

La variété est le nombre d'états que peut prendre un système. C'est une notion statique : nombre de lettres d'un alphabet, de cases pour une roulette de casino. Combinatoire. On prend parfois le logarithme de ce nombre. On pourrait définir une variété dynamique (nombre d'états différents qu'un système peut prendre dans l'unité de temps).

L' entropie exprime la plus ou moins grande équiprobabilité des états. Si la probabilité de chaque état i est pi, l'entropie est

H : pi x log.pi

Cette fonction est négative. Elle s'annule quand le système est complètement déterminé : un état a la probabilité 1, les autres une probabilité nulle. Elle passe par un maximum, en valeur absolue, quand les états sont équiprobables. Dans ce cas, si le nombre des états possibles est 2 puissance n, l'entropie est égale à -n.

En théorie de l'information, on utilisera généralement la néguentropie, afin d'avoir une valeur positive et un maximum quand les états sont équiprobables.

Redondance. S'applique à l'entropie en termes informationnels. Définition : R = (H max - H)/H max. Exprime dans une certaine mesure la perte d'information, ou l'utilité de l'information, son taux de répétition... mais aussi le degré d'organisation du système source ou du système tout court. Un système sans aucune redondance n'existe pas : il est totalement aléatoire. Un système totalement redondant n'existe pas non plus. Relation redondance/transparence ?

Presque magiquement, l'entropie au sens informationnel a rejoint l'entropie des thermodynamiciens. Bolzmann, Szilard. On a ainsi expliqué le paradoxe du démon de Maxwell. Cependant la plupart des auteurs pensent que la similitude des formules ne doit pas masquer la différence profonde des concepts.

L'entropie est-elle additive ? Nombre de raisonnements fondamentaux s'appuient explicitement sur cette addititivé (Prigogine, par exemple, faisant les sommes des différentielles d'entropie d'origine interne et externe ; Atlan, décomposant entre entropie réelle et redondance). Je pense, personnellement, que cette additivité est toute relative.

En particulier, l'entropie d'un système ne me semble pas égale à celle de ses parties. Sur le plan matériel, la constitution d'un système s'accompagne toujours de variations énergétiques (réactions endo ou exothermiques, défaut de masse). Sur le plan de la variété, l'espace des états.

3.5.3 La complexité

Complexité. Le plus intéressant, mais sans doute le paramètre le plus inaccessible.

Par ailleurs, le caractère subjectif de la complexité peut s'interpréter comme une fermeture de l'objet par rapport à l'observateur, c'est à dire finalement comme un type particulier de bouclage, qui peut ainsi se prêter à la mesure, à condition de se débarasser adéquatement des valeurs propres à l'observateur, par exemple par le biais d'un étalon de complexité.

La notion de systèmes chaud ou froid se rattache aussi à cette notion de complication complexité (LM 206).

Autre définition, opposant complexité à complication :

- système compliqué : des processeurs nombreux connectés uniquement par des relations arborescentes,

- système complexe, des processeurs qui, sans être nécessairement très nombreux, sont connectés aussi par des relations de rétroaction.

Une machine triviale (pas complexe du tout) : fait toujours correspondre la même sortie à une même entrée.

Un système général est complexe lorsque la diversité de ses activités fonctionnelles n'implique pas nécessairement une diversité corrélative des processeurs qui le constitue. S'il compte moins de processeurs différents que de fonction, c'est que le réseau connectant ces processeurs est fortement intégré et présente de nombreuses boucles de rétroaction.

Un système général est compliqué, lorsqu'une grande diversité des processeurs qui y interviennent n'implique pas une diversité corrélative des fonctions qu'il exerce : même fortement différencié, son réseau est peu intégré et se présente pour l'essentiel sous forme arborescente.

Proposition Berger.

1. Définition. La complexité d'un système, pour un langage donné, est égale à la longueur du message le plus court nécessaire pour décrire cet objet dans ce langage.

2. Théorème. Si une famille d'objets peut être classée par ordre de complexité pour un langage donné, il est possible de construire un autre langage pour lequel on aura l'ordre inverse.

Exemple intuitif : description d'un damier. Dans un premier langage, on donne la position des carrés différents du carré adjacent. Dans un second, on donne la position des carrés identiques.

3.6 Divers

Notion de réserves. Plus ou moins libres. Plus ou moins explicites. Plus ou moins connues du décideur. Une forme de la redondance. Notion de liquidité : analogie entre réserves de matières liquides (pétrole, eau) et réserves de monnaie (argent liquide). L'information ne pourrait jamais se mettre sous forme liquide, car elle est structurelle.

3.7 La notion de souplesse

3.7.1 Intérêt du concept

Souple s'oppose à raide, à systématique. C'est une valeur tantôt positive, tantôt négative (roseau/lâche).

Idées associées:

- capable de supporter d'importantes déformations sans perdre sa structure essentielle.

- souplesse/rayon de courbure/résolution

3.7.2 Essai de définition formelle et systémique

stabilité, relations avec stabilité structurelle

fonction continue

structures types de la souplesse

processeurs spécifiques (ressort)

caractères généraux (multifils)

remplacer un fil unique raide par plusieurs

organisation: décentralisation

analyse en L, relations avec la complexité

souplesse organique/fonctionnelle

souplesse passive/active

plage de souplesse (éprouvette métallique). puis seuils. voir bassins d'attraction de Thom.

3.7.3 Evolution et possibilités technologiques

mécanique du souple. matériaux et formes soupledur

il y a des matériaux souples dans la nature (jonc, osier, cuir)

système d'information

gestion

choix des plages de souplesse (structure ferme dans

normes Mil)

spécialisation

perte de souplesse à proximité des seuils (voir le transfert d'indifférence). Ni le nouveau né ni le vieillard ne sont souples.

la souplesse exige une certaine marge, une certaine redondance. on se donne des positions de repli.

souplesse et robustesse

3.7.4 Philosophie et tendances

Un système sera souple s'il y a bonne correspondance entre sa structure organique et sa structure fonctionnelle sujette à modifications. mais cette correspondance n'est pas simplement parallélisme, similitude. Il y a des modes de correspondance spécifiques qui assureront la souplesse.

tendance cosmique vers la souplesse

relation avec intelligence, écologie

on emploie parfois "dynamique" en un sens adaptatif (multiplexage, adressage...)

souplesse optimale ?

souplesse par montée de niveaux (de la rigidité à la rigueur). industrialisation du soft.

3.8 Règles d'accord entre structures

- écart suffisant

- éventail hiérarchique

- complétude (pas de patte "en l'air", ou alors il faut expliquer pourquoi, ce qui revient au même - force suffisante des étages inférieurs. le fort porte le faible

- économie de relations

- régularité, mais pas trop de monotonie

Les "valeurs" et notamment le beau, sont l'expression de ces règles, en particulier dans le cas où un des deux structures est l'homme


Chapitre suivant:Principes sur les structures Chapitre précédent: Eléments Retour au sommaire de l'ouvrage