Common nouns | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Index Berger's Works
Proper nouns A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z| HOME DICCAN

INFORMATIQUE ET TELECOMMUNICATIONS,

DEUX MONDES EN EVOLUTION

LA CONVERGENCE

Pierre BERGER

Président du club de l'Hypermonde

Chef de service au Monde Informatique

Quand Jean-Paul Ploton m'a proposé d'introduire vos journés sur le thème de la convergence, j'ai d'abord pensé que la tâche serait facile, puisque le Club de l'hypermonde, que j'ai l'honneur de présider, se fonde précisément sur cette idée. Je cite notre manifeste:

"Les technologies de l'information, informatique, télécommunications et audiovisuel, convergent. Ce mouvement accéléré englobe leurs aspects matériels, logiciels et conceptuels. "

Et puis je me suis inquiété, car les réalités du terrain montrent souvent que tout ne converge pas. Informatique et télécommunications, en particulier, restent pour l'essentiel le fait de sociétés différentes. Bull ne s'est pas foncu dans France Télécom. IBM n'a pas réussi à devenir un opérateur important de télécommunications et, en sens inverse, ATT reste un acteur relativement secondaire sur le marché informatique. D'ailleurs sur nos, bureaux, le téléphone ne s'est toujours pas intégré au micro-ordinateur, même quand il dispose d'un modem ou d'une connexion sur un réseau local. Alors que cette fusion fut une des grandes promesses des fondateurs de la bureautique, en 1977, c'est à dire il y a maintenant 16 ans.

Et pourtant, nous assistons bien à un mouvement aussi profond que régulier. Aussi déterministe que la formation des étoiles et des planètes il y a des milliards d'années, que le passage de la cueillette à l'agriculture, du silex au métal, de la vapeur à l'électricité. Bien qu'il nous manque encore un nouvel Einstein pour écrire les lois de ce que qu'on pourrait appeler l'hyper-relativité.

Il s'agit d'abord d'une concentration matérielle: tous les appareils électroniques se miniaturisent. Et ils se relient les uns aux autres, laissant penser qu'à la limite, il n'y a plus des machines, mais une seule, immense, machine. Dans le même mouvement, les processus, les biens, les échangse, se dématérialisent. Le Conseil économique et social vient de publier un second rapport sur le "poids de l'immatériel". Toffler décrit le phénomène dans son livre "Shift of Power" et vient, tout récemment, d'en montrer les conséquences pour la Défense, dans son ouvrage "Guerre et contre-guerre".

Mais le mot "immatériel" pousse la logique un peu trop loin. Un circuit intégré d'ordinateur, même très petit et complexe, reste matériel. Tous les biens et les échanges immatériels s'appuient sur des dispositifs matériels. Elle devient secondaire, marginale, mais elle continue pourtant de nous rappeler ses lois. Par exemple en télécommunications, quand on communique par satellite, il faut un tiers de seconde pour aller de Toulouse à San Francisco. Parce que la vitesse des faisceaux hertziens, comme celle de la lumière, ne dépasse pas 300 000 kilomètres par seconde. Pour les mêmes raisons, d'ailleurs, les machines ne se fondent pas réellement en une machine unique. Aux mouvements de centralisation succèdent des phases de répartition, de distribution. Au début de la décennie, les débats sur "le grand et le petit chaudron" ont encore illustré cette dialectique.

Il s'agit ensuite d'une formalisation de tous les processus. A partir de 1494, nos pères ont commencé à plier le commerce aux lois de la comptabilité en partie double. Nous avons développé les formalisms mathématiques, jusqu'à l'absurde même au cours des années 60-70, époque des "mathématiques modernes". Et nous mettons tout aujourd'hui sous forme "digitale".

Enfin, ce mouvement conduit nécessairement à l'automatisation des tâches. La productivité mais aussi la maîtrise de la complexité exigent que nous déléguions en permanence une part de nos travaux à la machine. Ce qui nous ramène aux vieilles angoisses de l'apprenti sorcier et à la question du chômage. La machine est-elle là pour nous remplacer ou pour nous aider? Elle ne peut faire l'un sans l'autre, nous conduisant ainsi toujours à ré-inventer le rôle des hommes.

La convergence peut ainsi s'exprimer comme la concentration progressive d'un noyau dur de l'informatique. Au fil des ans, les couches se stabilisent et continuent de se concentrer, de se formaliser, de s'automatiser. Un peu la vie a peu à peu fait émerger des formes stables et toujours plus riches: vertébrés, mammifères, primates humains. Autour du noyau très dense et très complexe de l'ADN.

Mais, comme le montre cette analogie, il ne s'agit pas d'une convergence statique, d'une fossilisation progressive. Ces objets formallisés sont actifs, ils moulinent des opérations et des instructions à des débits toujours croissants. 66 millions par seconde, actuellement, sur les micro-processeurs Pentium.

Et la convergence stimule la diversité. Autour de ces structures universelles, chacun peut construire sa personnalité, son univers. De même que le fait de parler tous le français n'a pas réduit la diversité des habitants de l'Hexagone. Bien au contraire.

CONVERGENCE TECHNOLOGIQUE

A la base, toute la convergence des technologies de l'information, si marquante aujourd'hui, se fonde sur une sorte de miracle: l'existence d'une sorte de quantum informationnel, le bit (binary unit). L'immense variété des phénomènes informationnels ne laissait nullement prévoir qu'ils pourraient tous se plier à cette structure unique, répétée autant de fois que nécessaire. Quelques esprits avancés le pressentirent. Comme les Templiers, selon la légende, ils possédaient une tête d'or qui répondait à toutes les questions par oui et par non. Mais il s'agit d'un mirace comparable à tous ceux qui permettent l'existence du monde et la nôtre pour commencer: il aurait suffi que la Terre soit un plus loin ou un peu plus près du Soleil pour y rendre la vie impossible.

Un quantum informationnel, le bit

Des esprits avancés commencèrent à l'expliciter cette puissance du binaire à propos de la logique (Boole), du calcul (Babbage). Puis le mode binaire, ou digital, s'appropria progressivement les données, le texte, le son, l'image.

Longtemps on accusa l'informatique de manichéïsme, puisqu'elle voulait tout ramener au blanc et au noir. Mais la pratique montre abondamment aujourd'hui qu'avec suffisamment de bits, l'on peut rendre plus de nuances de gris, ou de couleurs, que l'oeil n'en peut percevoir. Et si certains audiophiles reprochent aujourd'hui au disque compact une certaine dureté, elle trouve sa cause dans un taux d'échantillonnage et de finesse binaire encore insuffisant.

Plus important encore, la codification binaire se prête à représenter aussi bien les données que les programmes, les instructions. Ce fut l'un des apports majeurs de Von Neumann, un des fondateurs de l'informatique moderne pendant la dernière guerre mondiale. Chacun de nous en fait l'expérience quotidienne: une même disquette, a fortiori un même CD-Rom peut transporter aussi bien des jeux que des fichiers statistiques. Une évidence, semble-t-il, pourtant fort éloignée de la réalité des machines mécaniques d'hier, où les produits traités, dans leur matérialité, n'avaient rien de commun avec les ordres donnés à la machine, avec leur caractère intellectuel. Pour parle comme les linguistes o les logiciens: en informatique, langage et métalangage se situent sur le même plan.

Depuis le début des années 1990, le concept de "réalité virtuelle" est venu montrer la capacité de représentation universelle de l'informatique. Grâce à des casques spéciaux, l'ordinateur peut nous plonger intégralement, ou presque, dans des univers de synthèse. Espace en relief, sonorisation en trois dimensions, mouvements du corps perçus par des capteurs placés sur la tête, les mains, et différentes parties d'une combinaison spéciale. Pour mieux exprimer la puissance et l'intérêt réel de cet espace, nous l'avons baptisé "hypermonde".

Notons que les autorités linguistiques françaises recommandent de traduire l'anglais "digital" par "numérique". Cela nous semble fâcheux, car basé sur la confusion entre un chiffre (qui traduit l'anglais digit) et un nombre. La représentation d'un caractère ou d'une couleur par un code binaire, ou digital d'ailleurs, n'a rien a voir avec le monde des nombres, caractérisé notamment par des opérations qui n'ont en général aucun sens si on les applique aux codes.

A l'intérieur des machines, qu'il s'agisse d'ordinateurs, de mémoires ou de lignes de télécommunications, toute information figure donc sous forme binaire. Mais, au moment de leur présentation à l'homme, il conviendra en général de les retranscrire sous une forme plus ou moins analogique.

On pourrait transposer à l'écran une représentation purement binaire, avec une suite de rectangles par exemple. Il en faut onze pour représenter les minutes, dix-sept pour avoir les secondes. Inutilisable pour l'homme.

A l'autre extrême, une barre pourrait représenter le pourcentage de la journée déjà passé. Cela pourrait convenir pour certains environnements de travail où la perception du temps doit être immédiate, réflexe, sans nécessité de précision.

Mais en général, les représentations combineront le mode analogique et le mode digital. Nous tendons aujourd'hui à représenter numériquement (base 10) les heures, minutes et secondes. Mais certains préfèrent encore la représentation des horloges de nos pères, avec leurs deux aiguilles et leurs chiffres qui repèrent les heures du matin et de l'après midi, et donnent les minutes en multipliant le chiffre par 5...

Parmi les combinaisons les plus élaborées des deux modes, citons les tableaux de bord des automobiles ou des avions, les salles de contrôle industrielles.

Au sein même des machines, il faut souvent faire des compromis entre différentes manières de combiner les bits, les unes plus analogiques, proches des représentations humaines, les autres plus abstraites. Dans un système d'information géographique, par exemple, on combinera des données de type vectoriel (un segment de droite est représenté par les coordonnées de ses extrémités) et de type "bitmap" (le même segment sera représenté par les coordonnées de chacun de ses points).

Un élément chimique central: le silicium

Le fait que tout puisse se mettre sous forme binaire se traduit directement dans la réalisation matérielle des ordinateurs. Un même "support" matériel convient aux parties les plus importantes de la mémoire (mémoire vive, mémoire centrale) et aux circuits de calcul. Données comme programmes prennent place dans des cellules de mémoire et sont traitées par les circuits de "l'unité arithmétique et logique". Tous ces dispositifs, en pratique, en simplifiant un peu, sous forme de transistors implantés par millions sur une petite surface de silicium, la puce (chip).

Malgré des recherches sur d'autres supports (saphir, gallium), la puce de silicium monopolise pour l'essentiel les traitements digitaux. Pour l'instant aussi, ni les "composants organiques" ni les circuits de calcul optiques n'ont été en mesure de supplanter le silicium.

De même, et c'est aussi surprenant, un type unique de machine informatique l'a-t-il emporté sur tous les autres: la machine de Von Neumann. Jusqu'à présent, toutes les machines "non-von" sont restées au stade des laboratoires. Même les réseaux neuronaux ou la logique floue, quand ils s'avèrent efficace, se réalisent en pratique par "simulation" sur des machines de Von Neumann.

Les seules variantes portent sur des points relativement secondaires. Par exemple la variété du nombre d'instructions élémentaires câblées sur le silicium (machines Risc opposée aux machines traditionnelles) ou l'organisation de machines combinant un grand nombre de processeurs et de mémoires (multi-processeurs, parallélisme massif).

Le "tout digital"

Un miracle que nous existions: il suffirait que la terre soit un peu plus près ou un peu plus loin du soleil! Un autre miracle:

Un quantum informationnel: le bit

la faillite radicale de l'analogique

ne peut que se multiplier

capacité à absorber: logique (Boole), calcul (Babbage), texte, image, son,

réalité virtuelle

Un élément chimique central: le silicium

avant lui, le silex

le circuit intégré (intégration, mot qui va avec cnvergence)

passage à l'optique

la supra-conductivité

Matériel et logiciel

Données dans le logiciel (après Von Neumann)

confirmé par supports (réseau, CD-Rom)

confirmé par objets, agents

Du fait de la croissance générale et de la convergence: énorme masse de processeurs et d'information

Matériellement: la miniaturisation, la loi de Moore.

Absolument indispensable pour progresser

vitesse de la lumière dans les supercalculateurs

le portatif

Exponentielle d'une extraordinaire régularité

va parfois même encore plus vite

on ne voit pas les limites

Le down-sizing

Et pour l'information, continuation

On n'a jamais assez de puissance

spirale infernale

réactivité, temps réel,

Les quatre processeurs

Depuis longtemps, on trois grands types de traitements, selon qu'ils opèrent sur le temps (les mémoires), l'espace (les communications) ou la "forme" (unité centrale). Nous y ajouterons les traitements de "niveau", c'est à dire les périphériques chargés de relier le système informatique, ou le système d'information, avec le monde extérieur, et dans ce monde avec un partenaire essentiel: l'homme.

Chacun des quatre types met en oeuvre des moyens matériels et logiciels. Ces derniers tendent à prendre une importance dominante. Mais les énormes besoins de puissance font que les matériels gardent leur importance. De plus, le faible coût de recopie des progiciels fait toujours baisser leurs prix dans des proportions plus rapides que celle du matérie. Ce dernier représente toujours une part non négligeable des budgets et des contraintes architecturales.

Processeur de temps: la mémoire

A partir du XVIIeme siècle, et pratiquement jusqu'à nos jours, le papier a porté la plus grande part de la mémoire informationnelle de l'humanité. Il commence à laisser la place aux mémoires électroniques, magnétiques et optiques, toutes sous forme digitale, bien entendu. Le "bureau sans papier" n'est pas pour tout de suite. En partie pour des raisons juridiques: le droit de la preuve doit encore faire des progrès pour passer à l'heure électronique. A long terme, il y a lieu de penser que l'électronique apportera des garanties supérieures au papier. Qui reste combustible, inondable, et falsifiable! En particulier les factures, comme chacun sait.

Les mémoires les plus rapides emploient le même silicium que les processeurs. Autour d'elles, les disques "durs" ou "souples" ont preque complètement fait disparaître les bandes magnétiques. Sous forme de CD-Rom, les mémoires optiques relaient les disques pour certaines applications. Leur avenir est brillant à court terme, plus incertain dans une dizaine d'années, car les supports magnétiques se perfectionnent et les réseaux limitent le besoin de transporter et mémoriser l'information sur support matériel.

Matériellement, donc, les mémoires convergent vers un nombre limité de supports, communs à tous les types d'application, de la comptabilité la plus traditionnelle (qui d'ailleurs devient aujourd'hui multimédia) jusqu'au son et à la vidéo.

Du point de vue logiciel, elles s'organisent aussi selon un petit nombre de modèles de base. L'objet standard est ici le fichier, entité bien connue de tous les utilisateurs, mais pas nécessairement facile à définir. On pourrait se contenter de dire: un ensemble de bits représenté par un nom, le cas échéant par une icone, et que l'on peut créér, modifier, recopier ou déplacer d'une mémoire à une autre, au sein d'un même ordinateur, ou entre plusieurs machines plus ou moins distantes. Ou encore le détruire.

A l'intérieur de cette définition, les types se multiplient:

- programmes

- fichiers de données et bases de données,

- texte, son, image.

Un gros fichier que l'on manipule sans se préoccuper de sa structure se désigne souvent sous le nom de "blob" (binary larg object).

On peut considérer un "message" comme un objet de type particulier, défini par son émetteur, son destinataire, et un contenu variable. Il comporte en général une partie textuelle classique, souvent rédigée en style plus ou moins télégraphique. On y adjoint de plus en plus des "documents annexes": images, programmes, etc.

Processeur d'espace: le circuit/le réseau

Intellectuellement au moins, les télécommunications ont de tout temps été rapprochées, puis intégrées à l'informatique. Jules Verne le voit dès 1863, dans son "Paris au XXe siècle", qui vient d'être exhumé. Le télécopieur, expérimenté à l'époque sous le nom de pantélégraphe par Caselli, participe à la vie des affaires aux côtés des machines à calculer. Et, en 1889, il exprime en peu de lignes ce qui commence aujourd'hui seulement à devenir réalité. Le chef d'entreprise "s'assit devant son pianocompteur électrique, et quelques instants plus tard, il avait le bilan de sa journée". Il s'agit d'une entreprise répartie sur un grand nombre de planètes, et communiquant par faisceaux optiques!

Les matériels de télécommunications emploient aujourd'hui exactement les mêmes composants que les ordinateurs. De même que, dans notre corps, les neurones servent aussi bien au calcul qu'à la transmission des influx nerveux.

Processeur de forme: la "logique"

Presqu'aussi surprenante que la digitalisation universelle, nous assistons à la domination absolue d'un seul type de processeur à tout faire, la machine de Von Neumann. Il la conçut au moment de la deuxième guerre mondiale, avec quelques principes de base. Deux sont particulièrelement importants:

- données et programmes suivent les mêmes canaux et se stockent de la même manière;

- la machine procède par lecture d'une suite d'instructions les unes après les autres, sauf quand l'une d'elles lui indique de faire un "saut", et de reprendre la lecture à un autre numéro d'instruction. La méthode permet, en particulier, de réaliser des boucles, de recommencer autant de fois que nécessaire une série donnée d'instructions.

Depuis 50 ans, on a souvent tenté de proposer d'autres modèles de machines, mais elles n'ont jamais eu de succès. Même les "réseaux neuronaux", qui visent à copier le cerveau plutôt que la mécanique des ordinateurs classiques, restent en pratique de simples logiciels qui tournent, eux aussi, sur les machines de Von Neumann.

A ce niveau, on a même échoué dans différentes tentatives de spécialisation. On a tenté de distinguer des machines pour le calcul scientifique, la gestion, le pilotae des processus industriels. Mais finalement, les machines universelles l'emportent toujours. Et les mêmes circuits servent aux chercheurs, aux enfants qui jouent à la maison et aux employés de l'état civil. Un très petit nombre de processeurs-types monopolisent aujourd'hui la planète. Largement en tête viennent les machines Intel ou compatibles.

De même, le logiciel de base, ou système d'exploitation, se concentre sur quelques types, qui se sont généralisés sur les micro-ordinateurs (MS-Dos) et les machines intermédiaires (Unix). L'évolution n'est pas terminée, mais ne peut que rester concentrée sur quelques types. En effet, les entreprises utilisatrices ne peuvent multiplier le nombre des machines qu'elles utilisent.

Processeur de niveau: les interfaces

Autour de ce coeur largement normalisé, les machines se différencient plus nettement dans leurs "périphériques", autrement dit tous les dispositifs matériels et le logiciel associé qui permet à l'ordinateur d'interagir avec le monde extérieur.

Le monde réel étant supposé continu, cette transition comporte toujours, à un moment quelconque, une conversion avec le mode digital, seul connu de l'ordinateur. La transition comporte aussi, en général, une adaptation énergétique. En général une amplification vers l'extérieur, une réductin à qulques volts en allant vers l'ordinateur.

L'évolution des imprimantes atteste de l'évolution vers la dématérisalisatino et la digitalisation. A partir de Gutenberg, le choix de caractères séparés pour l'impression des textes fut un grand pas dans cette voie. Au XIXe siècle, l'imprimerie a marché dans les voies de l'automatisation. A partir des années 70, la photocomposition a définitivement placé l'imprimerie dans le domaine digital.

L'interface homme-machine

un cas essentiel d'interface

le poste de travail

hier le papier, aujourd'hui l'écran, demain les lunettes...

avantages des lunettes:

ergonomie, relief, économie de place, de consommation d'énergie

EIS, DSS,OLTP superviseurs

pupitrage, exploitation

automates contre humains...

transparence/masquage de la complexité

Les "hyper"

Hypertexte, hypermédia, hypermonde

²²²²²²²²²²fe

La sécurité

fiabilité, virus

Convergence et donc croissance numérique

CONVERGENCE DE L'INGENIERIE

Systèmes, normes, architectures

Systèmes

Systèmes d'exploitation

OS, MS/DOS, Unix, OS/2 et Windows

Norme et standards

1793. La Convention, le système métrique

Langages de programmation et autres

Cobol, RPG, C, C++

Edifact, Cals, Midi

Ole2/Som-DSom/Corba

Réseaux

Architectures

Pourquoi pas un grand processeur unique pour toute la planète?

limites de puissance

limites de débit réseau (et coûts)

limites de sécurité/disponibilité

l'infocentre

le parallélisme. promesses et difficultés

Le mode client serveur

décharger le cntral

Les "systèmes ouverts"

la fin des systèmes "propriétaires"

la délocalisation

Graton/Gout

CONVERGENCE INDUSTRIELLE

L'écroulement des coûts

matériels, logiciels, données

un CD/Rom pour 500 disquettes, pour 1000 livres (sans images de qualité)

Stratégie des acteurs

L'industrie a intérêt à la convergence:

- allongemnet des séries

- facilité de commercialisatin (la France aux 350 fromages)

- galaxies. Plus personne peut vivre seul

interdépendances

concurences et synergies

Intel

NEC renonce à ses PC spécifiques, Microsoft

L'Etat, son rôle industriel, son rôle réglementaire

ses besoins fiscaux

CONVERGENCE DES APPLICATIONS

Les utilisateurs ont besoin de la convergence

pour ne pas avoir toujours à réapprendre

pour l'interchangeabilité

pour la productivité et la qualité de service

Du calcul et du télégraphe

au multimédia et à la réalité virtuelle

calcul, comptabilté... progiciel intégré (pour 2000 F)

délocalisation, aménagement du territoire

Soho

repository, DataWarehouse

messagerie X400, X 500 Internet

De l'EDI sectoriel à Edifact et à l'EDI ouvert

les "autoroutes de l'électronique"

Gestion et stratégie

la pyramide managériale, le MIS

le stratégique se rapproche de l'opérationnel

la gestion et le pilotage en sandwich

l'enablemnet du BPR

EIS, SIC

L'importance des "points qui butent"

vitesse de la lumière, Europcar, téléphone/terminaux

tramways de Nantes: des détails qui ont des conséquences architecturales,

voire stratégiques

La convergence des métiers

Si les techniques convergent, les professionnels se confondent-ils? Oui et non. Tout informaticien se heurte peu ou prou à des problèmes de réseaux. D'ailleurs les systèmes ouverts mettent le réseau au coeur de l'architecture.

Et les télécommunicants manient des ordinateurs plus que toute autre chose. Mais les métiers restent différents.

Les télécommunications, autrefois apanage des services généraux, sont maintenant souvent placées sous l'autorité du service informatique. La spécialisation se fait au niveau des techniciens Eventuellement habilités par les founisseurs, comme les "CNE" Certified Novell Engineer".

Du point de vue de l'entreprie, les télécommunications peuvent représenter un budget important, aussi important que celui de l'informatique peut-être. Mais elles restent essentiellement un problème d'intendance. Il faut gérer des débits et des coûts. Surveiller des consommations. Cela ne pose pas des problèmes d'architecture aussi structurants que ceux de l'informatique avec ses quatre types de processeurs.

Plus généralement, les informaticiens et les utilisateurs ne vont-ils pas se confondre? On a souvent présenté l'arrivée de la micro-informatique comme la fin des services centraux et des "grands prêtres en blouse blanche". De plus actuellement, on voit une remise en cause des directions informatiques centrales des grands groupes.

En réalité, la coordination des différents systèmes d'information d'une entreprise reste trop difficile pour se pratiquer sans spécialisation. Elle prend trop de temps pour se faire en complément d'une autre activité. Pour maîtriser une technique toujours évolutive et satisfaire des demandes qui croissent aussi vite, sinon plus, que les possibilités technologiques, il faut des professionnels.

Cependant les informaticiens eux-mêmes s'interrogent parfois sur leur rôle. Ils cherchent leur voie entre deux extrêmes.

D'une part un profil bas. L'informatique est au service des utilisateurs, des directions opérationnelles. Elle doit se contenter de répondre au mieux à leurs demandes, dans les meilleures conditions de qualité et de prix. Cette attitude a plusieurs inconvénients:

- de nouvelles technologies deviennent disponibles immédiatement ou à moyen terme; l'informaticien est bien placé pour les détecter et les évaluer; s'il est trop passif, la ville risque de passer à côté d'opportunités importantes;

- l'efficacité de l'ensemble a besoin de cohérence entre les matériels, les infrastructures réseau les logiciels; de bonnes applications doivent pouvoir s'appuyer sur une architecture solide, qui impose, de temps au temps au moins, des investissements à long terme; parfois sans aucun avantage immédiatement perceptible par les utilisateurs; s'il n'a pas le courage de les obtenir, une mutlitude de systèmes disparates rendront peu à peu la communciation impossible, la maintenance coûteuse et la qualité de service déplorable.

A l'opposé, un informaticien trop ambitieux, surtout s'il a plusieurs années d'expériences en collectivité territoriale, peut avoir l'impression de mieux connaître le travail que les responsables opérationnels eux-mêmes. Il risque alors d'imposer des solutions inadaptées. Et de toutes façons mal acceptées par les utilisateurs, donc mal mises en oeuvre.

Il lui faut donc en permanence chercher un équilibre. En fonction de sa personnalité: plus ou moins technicien, plus ou moins manager, plus ou moins fonceur. Et de la position des autres acteurs, à commencer par celle du maire. Cet équilibre est d'autant plus difficile à trouver que la technique ne se laisse pas aisément maîtriser. L'informaticien, en quelque sorte, n'est même pas sûr de ses arrières!

Homme et machine: convergence ou exclusion?

Depuis qu'il existe des machines, on se demande si elles créent du chômage ou au contraire, une fois passée la période d'adaptation, de nouveaux emplois. Globalement, on ne peut conclure que de manière optimiste, car, du paléolithique au néolithique, de la civilisation classique à l'ère industrielle, la population du monde s'est mutliplié par mille, et le nombre des chômeurs s'y mesure toujours en pourcents. Mais il n'est pas prouvé que le phénomène se reproduira avec la civilisatino informationnelle.

Dans les phases actuelles de la montée des machines en densité, l'homme ne suit plus, ou seulement très lentement. Il se trouve donc ipso facto exclu, comme un corps étranger, de la partie chaude des machines. Ou ne s'y insère plus qu'en se pliant à d'étroites contraintes.

Le taylorisme ne laisse plus qu'une place formalisée dans la châine.

La société informationnelle va-t-elle conduire à un nouveau taylorisme, pire encore que le premier. La montée du workflow peut le laisser craindre. Il s'agit d'utiliser l'informatique pour faire circuler les dossiers admnistratifs. Mis sous forme électronique par scannerisation, les dossiers passent instantanément d'un poste de travail à l'autre et se règlent ainsi plus rapidement. C'est l'équivalent, en plus moderne, de la chaîne industrielle. Cette organisatin s'accompagne, comme dans le taylorisme, d'un découpage plus fin des tâches à accomplir.

De même, le "business process reengineering", seln l'expresssion forgée par Hammer et Champy, réorganise l'entreprise de fond en comble. Il travaille résolument avec des "processus", pour se débarasse de l'organisation ancienne, les informatise au maximum, et se préoccupe ensuite d'y affecter les hommes nécessaires, en accroissant leur efficacité au maximum.

Dans les deux cas, on vise un accroissement sensible de productivité. Donc, à fonctions égales, une sensible réduction des effectifs.

Numériquement, l'homme se trouve donc toujours plus exclus du système automatisé. Et mis au chômage si, dans le même temps, le développement économique ne crée pas de nouvelles activités, de nouveaux emplois.

Deux systèmes plus autonomes

Un bon serviteur qui doit trouver son maître

Les implants. Choquant? Dans cette salle, combien ont des prothèses, des implants, des pacers?

Trouver le rythme, parfois l'orientation, la granularité, subsidiarité

L'économie de marché conduit automatiquement à la poussée en avatn

L'informatique n'est pas la seule à converger

automobile, politique (Pax americana), tout le monde parle anglais

mais des traits tout à fait spécifiques

une nouvelle économie, l'emploi, besoin de recherches

l'hypermonde