L'éclatement de la troisième couche
Note: Ce texte est la première version d'un texte publié, sous une forme légèrement différente, dans l'Argus des Assurances du 2 juin 1989, sous le titre " Informatique dans l'assurance: déjà une histoire ".
L'assurance, c'est la solidarité appuyée sur le calcul. Ils ont grandi du même pas, et les mutations informatiques de la prochaine décennie devraient donner des dimensions toute nouvelles au métier d'assureur.
Sans remonter à la préhistoire, aux Phéniciens et Vénitiens, c'est au XVIIe siècle qu'émergent les racines du calcul comme de l'assurance moderne: en 1642 la Pascaline, en 1686 l'ordonnance de Colbert autorisant la création d'une compagnie d'assurances. Mais c'est trop tôt. Ni la société ni la technique ne sont prêtes. Le vrai départ aura lieu un siècle plus tard, et Thomas de Colmar incarne bien cette union profonde de la technique et de la construction sociale: il est à la fois fondateur du Soleil incendie et inventeur de l'arithmomètre, machine à calculer dont les principes resteront en vigueur jusqu'à l'avènement de l'électronique, un siècle et demi plus tard.
L'électronique... le mot fait un peu vieux aujourd'hui, et pourtant la SIIA fut longtemps la SEA (Semaine Electronique de l'Assurance). C'est que la profession est parmi les premières à tirer parti des nouveaux moyens de calcul. La carte perforée et ses étranges mécaniques apparaissent un peu avant la guerre. On les appelle "machines à statistiques", et leurs bacs de cartes sont une première matérialisation du portefeuille, c'est à dire de la communauté organisée. Non seulement pour la gestion "de masse", mais aussi pour la décision à haut niveau, la tarification. Le groupe Drouot, rendons ici hommage à Georges Tattevin, fait à l'époque figure de proue. En 1939, il disposait d'une interclasseuse, en 1951 il fait l'acquisition de trieuses électroniques, en 1957 il est le premier en France à acheter l'ordinateur de gestion le plus puissant de l'époque, un IBM 705.
A la fin des années 60, le secteur des assurances peut être considéré comme le principal utilisateur d'une informatique qui vient de se donner son nom. Elle devance légèrement la banque, à cette époque d'informatique essentiellement massive, par lots, bien adaptée aux processus communautaires de la solidarité: constitution des portefeuilles, calculs des tarifs au niveau des organismes fédératifs, quittancement, gestion des réserves sinistres.
Pendant un quart de siècle, c'est essentiellement cette assise des grands traitements de base qui va peu à peu se consolider, se perfectionner, encourager sinon justifier la concentration des compagnies. Avec les avantages d'une gestion de plus en plus fine, d'une diversification des couvertures. Le bonus-malus automobile, par exemple, aurait-il été pensable sans puissants moyens de calcul?
Si l'informatique des sites centraux est une représentation du portefeuille, de la communauté des assurés, encore faut-il y accéder: évolutions et mises à jour, consultations, analyse et aide à la décision.
Pendant longtemps, le papier fut le seul moyen de communication accessible aux utilisateurs: bordereaux de saisie à l'entrée, listings en tous genres à la sortie. Les terminaux ne vinrent que lentement. Le passage au dialogue par écran-clavier ne s'est donc fait que progressivement. Même si certains le souhaitaient, la technique n'était pas disponible, ou ne pouvait pas se rentabiliser. Contrairement à ce que l'on dit trop souvent, c'est souvent la technologie qui freine l'humanisation, et non pas l'inertie humaine qui bloque les avancées technologiques. L'assurance en témoigne éloquemment. Dès les années 60 on pensait déjà aux petits écrans et à leur diffusion possible. Qu'il s'agisse de la souscription, du suivi des impayés, du contrôle de garantie voire de la réassurance, l'intérêt de pouvoir accéder en permanence à la situation de chaque police, de chaque sinistre, de chaque assuré, ne fait pas de doute.
Mieux: on en attendait de l'ordinateur le dépassement du vieux dilemme centralisation/décentralisation. Il fallut vite déchanter. C'est à peine, pendant un temps, si l'ordinateur arrivait à faire aussi bien que la carte perforée. Les petits écrans coûtent cher. Par eux-mêmes, mais aussi par les réseaux qui les relient aux sites centraux, et par les ressources centrales qu'ils consomment. Puissance de calcul pour gérer tous ces dialogues simultanés. Puissance de stockage dans des bases de données le plus complètes possibles. Et ce n'est que l'aspect matériel, à quoi s'ajoutent le logiciel système et les applications spécifiques.
Même si les solutions en ligne, avec terminaux, sont plus naturelles que la logique "par lots" de l'informatique à bandes magnétiques, le passage n'a donc pu être que progressif, et les deux logiques, centrale et répartie, se sont multipliées l'une par l'autre dans une complexité des plus opaques.
La solution allait-elle venir des micro-ordinateurs, devenues professionnellement crédibles à la fin des années 70? Beaucoup moins chers grâce à la production de masse, beaucoup plus simples par l'unicité de leur utilisateur, ils sont aussi plus agréables à utiliser que les terminaux, sans parler de l'impression d'autonomie qu'ils donnent à leur bénéficiaire. Pendant plusieurs années, fit rage une guerre de religion entre micro- et méga-informatique, entre petit et grand chaudron, etc.
Mais, dans les applications centrales des compagnies, le rôle de micro-ordinateurs autonomes ne pouvait être que limité, marginal. Gestionnaire de communautés de risques, l'assurance ne se laisse pas découper en systèmes individuels.
La montée des "mini-ordinateurs" et des "grappes bureautiques" s'est cependant traduite par la mise en place d'un certain nombre de systèmes plus ou moins indépendants, avec une dizaine de postes reliés à une machine principale: traitement de texte prolongeant les anciens "pools dactylographiques", systèmes comptables, service du personnel, par exemple. Par nature même, ces sous-systèmes ne peuvent avoir dans l'assurance qu'un rôle relativement marginal.
Mais, dans cette phase d'extension de l'informatique jusqu'aux postes de travail, l'assurance française devait s'accommoder d'une contrainte structurelle sérieuse: l'autonomie des agents généraux, interdisant la généralisation autoritaire de réseaux à la manière des banques, par exemple.
Au fil des ans, pour ne pas dire des décennies, l'informatique a été une pomme de discorde entre agents et compagnies. Celles-ci ont tendance à pousser à la roue de l'automatisation, tant pour des raisons d'économie que d'efficacité. Mais les agents ont à défendre à la fois leur autonomie et leur rentabilité propre. On s'oppose donc à la fois sur un problème de pouvoir (qui a l'information, qui fait quoi et peut décider de quoi) et sur une question d'argent (Qui paye l'investissement et le fonctionnement de l'informatique? Qui profite de ses gains de rentabilité et de ses atouts stratégiques?).
L'évolution technologique fait constamment évoluer les termes du dialogue sans en changer beaucoup la nature. Aux premières heures, il s'agissait de savoir qui remplirait les documents de saisie destinés à l'ordinateur. L'arrivée des terminaux put intéresser quelques grosses agences, plutôt les représentations décentralisées des Compagnies. Avec l'arrivée des micro-ordinateurs, des petits systèmes multipostes, du traitement de texte, l'agent a trouvé une informatique à sa portée. Mais il faut aussi financer le logiciel... et connecter cette informatique autonome sur celle de la Compagnie. A cette poussée d'informatique "sauvage", les Compagnies ont répondu par des plans d'aide, des investissements en logiciel, l'organisation d'achats groupés. Peu à peu, les équipements se mettent en place, mais la situation n'est ni stabilisée ni bien satisfaisante pour l'esprit.
Les mutuelles sans intermédiaires ont eu la vie plus facile et ont pu mettre en place des réseaux de terminaux plus simples, allégeant leurs charges tout en assouplissant les services rendus aux assurés. C'est sans doute une des raisons (parmi d'autres) de leur succès sur les risques grand public.
Enfin, les grands courtiers ont très tôt développé une informatique assez proche des compagnies, avec des machines et des procédures de même type et des relations presque entre pairs.
La solution idéale, c'est la synthèse des deux grandes approches. A la fois l'autonomie et la connexion. Mettre un microprocesseur dans le terminal (qualifié alors d' "intelligent"). Ou relier le micro au central dans une optique "réseau". Mais tout cela n'est ni gratuit, ni même facile. Passées les options primaires, il faut faire des choix, construire une "architecture" adaptée à la stratégie.
Dans l'assurance comme ailleurs, deux grands modèles polarisent le débat, reflétant toujours l'opposition jacobins/girondins, modèle hiérarchisé d'une part, client/serveur e l'autre. Mais les différences sont moins fortes qu'entre micro- et méga. Dans les deux cas, chaque utilisateur dispose 'un poste (ou station) de travail disposant d'une certaine utonome tout en étant relié au site central.
Dans le modèle hiérarchisé, les machines centrales onservent un rôle majeur, tout en déconcentrant une part roissante des ressources matérielles vers les postes de travail. ntre ces deux niveaux, un rôle plus ou moins étoffé est confié à es machines "départementales" (au sens américain du terme, et on au sens de la géographie administrative française). Tout le ravail d'études, de développement de programmes, de surveillance t d'exploitation des machines reste confié à un service informatique central.
La formule "client-serveur" supprime le "site central", 'est à dire la salle machine ou l'immeuble spécifique de 'informatique traditionnelle. L'essentiel de la puissance réside au niveau des postes (ou "stations") de travail puissants t capables d'une large autonomie, mais fortement reliés entre ux par des réseaux de communication étoffés. Un certain nombre de fonctions sont confiées à des "serveurs" mettant à disposition es réseaux des ressources spécifiques. Il peut s'agir de ériphériques coûteux (par exemple les imprimantes laser à grand ébit, les grands calculateurs ou les autocommutateurs pour la communication à grande distance) ou de moyens collectifs par ature, comme les bases de données. Dans ce modèle, la direction énérale n'est pas spécialement privilégiée, sinon par le pouvoir u'elle exerce sur l'ensemble, et sur l'usage de certains erveurs répondant à ses besoins propres: centralisation omptable, outils évolués d'aide à la décision.
Ces deux types d'architecture existent actuellement dans 'assurance française, mais le modèle hiérarchisé est nettement dominant. Peut-on prévoir leur évolution dans les prochaines nnées? Demandons d'abord à la technologie ce qu'elle nous éserve.
Toute la grande informatique traditionnelle est en faite emise en cause par l'évolution actuelle de la technologie. En ratique, les micro-ordinateurs peuvent atteindre, et dès ujourd'hui pour les modèles avancés, une énorme puissance (pour es amateurs de technique: plusieurs dizaines de Mips, quelques iga-octets sur disque, avec des débits canaux appropriés). Il evient donc techniquement possible de leur confier les grandes pplications traditionnelles des grandes machines (dites mainframes"). C'est ce qu'on appelle le "downsizing" (réduction e taille).
On discute encore, mais de moins en moins, de ses ossibilités concrètes. Une part du downsizing actuellement se ait plutôt en direction des "mini-ordinateurs" que des micros, ais à terme la différence s'estompe, et renvoie plutôt à un roblème d'architecture (départemental ou serveur...).
L'architecture client-serveur facilite aussi le recours aux ervices extérieurs: traitements confiés à des sociétés deservice disposant de puissants réseaux (facilities management) ussi bien qu'intégration de progiciels, c'est à dire de logiciels industrialisés pour traiter des applications comme la omptabilité, le personnel et même les fonctions spécifiques à 'assurance.
Mais ne demandons pas à la seule technique de prendre ànotre place les décisions organisationnelles. D'autant que la montée en puissance des stations de travail n'est qu'un aspect de l'informatique des années 90, qui sera vraiment différente à bien d'autres égards de celles des années 80.
Image, couleur, musique... l'informatique de la décennie 90 sera riche et gaie. Par contraste, nos terminaux et micro-ordinateurs actuels paraîtront bien tristes, avec leurs textes abscons et monochromes. Les moyens techniques sont maintenant disponibles: disques optiques pour les stockages de grande capacité, réseaux de communication à large bande, écrans de qualité servis par des circuits adéquats ("coprocesseurs graphiques" notamment). Mais ce nouveau stade de l'informatique est coûteux et ne se diffusera donc que progressivement, cédant sans doute la priorité à la généralisation d'une informatique de base au niveau de tous les postes.
L'urgence de l'image, il est vrai, n'est pas spécialement forte dans l'assurance, avec sa matière quelque peu austère, abstraite, par rapport aux visualisations concrètes appelées plus naturellement pour le pilotage des sites industriels ou les centres de commandement militaire.
De même, la sonorisation des applications ne devrait pas pparaître rapidement. C'est qu'ici le plus facile n'est pas le plus utile. Faire parler l'ordinateur n'est plus un problème aujourd'hui, si l'on n'est pas trop exigeant sur la qualité. Mais à quoi bon? En revanche, qui ne souhaite pouvoir parler à la machine, sans avoir besoin du clavier... Malheureusement la compréhension de la parole restera encore, sans doute pour une bonne décennie, trop imparfaite pour sortir d'applications très limitées. Et peu adaptées à l'assurance.
Et pourtant, l'assurance a déjà commencé à utiliser l'image, tout simplement pour remplacer le papier, doublé dès son arrivée en Compagnie par une image électronique plus facile à manier. Est-ce une bonne solution? Même si on peut en contester la logique d'un tel redoublement, l'UAP qui l'expérimente affiche tout de même une économie de l'ordre de 30%, et ce n'est pas rien.
L'assurance de dommages (vol, incendie) pourrait utilement se doter de fichiers d'images pour l'analyse des risques et le contrôle de garantie: plans des immeubles, photographies des objets, etc.
Et plus simplement, c'est au niveau de chaque poste de travail, de l'affichage sur écran, que la couleur prouvera son efficacité: elle est ergonomique, par ses capacités de mise en valeur de tel ou tel élément clé, la séparation des différents types d'information, etc. A priori, on la considère souvent comme un luxe, mais une fois l'habitude prise, on ne peut plus s'en passer, comme pour la télévision domestique.
D'ailleurs, l'assurance est-elle condamnée à l'austérité? La publicité des compagnies est de plus en plus au second degré, depuis les maladresses familiales rattrappées par le commercial usqu'aux animaux bleus qui se font la course sur certains ffiches du Gan. Et le GMF, dont le nom même ne porte guère à la antaisie, met deux rubriques "plaisir" à son service minitel, ont un jeu et une sélection gastronomiques. Nous sommes loin des unéraires plaques de marbre, aux frontons des immeubles ausmanniens, proclamant "propriété de la ...".
Mais la richesse des interfaces n'est pas réservée au grand ublic. Les assureurs eux-mêmes vont en bénéficier. A commencer ar le haut de la hiérarchie. Les Américains, sous les ppellations accrocheuses d'EIS (Executive Information Systems) u ESS (Executive Support Systems) proposent des "stations de ravail" avec grand écran couleur (et même écran sensitif pour viter au Président de déchoir en mettant les mains au clavier). ne batterie de logiciels permet d'exploiter, très facilement en rincipe, les données de l'entreprise: tableur et outils raphiques jouent les premiers rôles. L'information géographique nformatisée (géomatique...) permet d'analyser sur des cartes énérales ou détaillées par quartier l'implantation des agences, etc.
Si la décision ou la planification doivent être collectives, on passe au "groupware", concept à vrai dire encore un peu jeune et peu représenté par des produits. Mais les conseils d'administration, conseils de direction et groupes de travail de tous niveaux devraient y trouver, d'ici à quelques années, le moyen d'accroître leur efficacité. D'autant que rien n'empêche de coupler ces outils avec les télécommunications, et d'associer l'informatique de groupe à la téléconférence.
Le clou, c'est évidemment le système expert, qui semble très à la mode en ce moment chez les assureurs. Sans faire d'efforts d'enquête particuliers, on peut relever une demi-douzaine de réalisations dans l'assurance, et la SIIA leur fait une belle place.
L'enquête que nous avons spécialement mené dans la profession permet d'en distinguer deux grandes catégories. D'une part des aides à la décision ou à l'action commerciale, assez analogues à ceux développés dans la banque par exemple. Malgré le prestige qui s'y attache, on peut afficher un certain scepticisme sur leur utilisation réelle. Ils demandent en effet un certain effort d'apprentissage. De plus, si leurs utilisateurs n'ont pas en permanence un micro-ordinateur à leur disposition, on peut se demander s'ils prendront la peine de se déplacer alors que le client est déjà dans le bureau et qu'il est plus facile de mener le dialogue à la main.
D'un tout autre genre, les systèmes faits pour pratiquer en série certaines opérations complexes, soit automatiquement, soit en assistance d'un opérateur humain. Nous connaissons deux cas de ce type et leur efficacité est telle... qu'il faut sérieusement penser à une nouvelle affectation pour les spécialistes qui faisaient le travail jusqu'ici.
Il semble finalement que l'assurance, par son caractère fortement répétitif mais aussi par la nature juridique de son activité, puisse être une grande utilisatrice des systèmes experts. Pourquoi alors est-elle si frileuse en ce domaine, alors que les investissements nécessaires sont relativement modestes (quelques centaines de KF pour un système sérieux) par rapport aux budgets informatiques globaux?
L'individu, professionnel ou assuré, devra de plus en plus souvent être muni de moyens électroniques, au moins comme garantie. Garantie pour le réseau qu'il a bien droit aux services qu'il requiert. Garantie pour lui-même que certaines informations lui restent bien personnelles. Le moyen, c'est évidemment la carte, à piste magnétique puis à micro-circuit.
Outre les applications directement liées à la carte bancaire, à commencer par les paiements, un certain nombre d'expériences sont en cours dans l'assurance, comme la carte santé (groupe Victoire). Ou encore la sécurisation du réseau des intermédiaires (General Accident).
Mais la carte a ses limites, et l'ordinateur de poche, ou portable commence à faire partie du bagage de certains assureur, comme outil d'aide à la vente voire à la liquidation de certains dossiers. Suivant les cas, ces machines fonctionnent de manière autonome, avec leurs propres fichiers sur mémoire interne, sur disquette ou sur disque dur, ou au contraire se connectent au réseau et deviennent ainsi des terminaux intelligents.
C'est ici que les perspectives sont les plus riches, et les enjeux les plus stratégiques.
Déjà la télématique, depuis plusieurs années permis d'ouvrir de nouveaux dialogues avec les assurés. De donner une dimension "temps réel" à la communauté des risques. Il s'agit tantôt d'ouvrir un canal de souscription, tantôt d'accélérer le règlement des sinistres. A-t-on dépassé le stade des expériences, plus proches du "coup médiatique" que du véritable service? On pencherait plutôt pour la prudence. Et pour penser que la télématique ne servira vraiment l'assurance que dans le cadre de services plus globaux. Car l'effort d'allumer un minitel et de se faire à des procédures toujours un peu fastidieuses reste un frein majeur, et l'assurance prise pour elle-même a peu de chances d'être une motivation suffisante.
Bien plus importants, et dès le court terme, sont les échanges de données informatisés et les réseaux à valeur ajoutée. Deux concepts différents, complémentaires pour une part, et assez difficiles l'un et l'autre à bien cerner.
Les EDI (Electronic Data Interchange, ou Echanges de données informatisés) sont l'échange de donnés commerciales entre entreprises, directement d'ordinateur à ordinateur. Les avantages immédiats sont la suppression (presque) complète du papier et le gain de temps. Mais on ne tire vraiment profit des EDI qu'au prix d'une réflexion en profondeur sur la stratégie de la firme (quels produits, quels services vend-on, par quels intermédiaires, etc.) et un réorientation appropriée du système d'information. (Le Monde Informatique du 19/12/88 a fait le point en profondeur sur les EDI).
Un RVA (réseau à valeur ajoutée) est une entreprise offrant un service de télécommunications dépassant le simple transport de l'information. Ces prestations supplémentaires constituent la "valeur ajoutée". Un service de messagerie, par exemple, ajoute au transport des fonctions de préparation des messages, de boites aux lettres, d'annuaire des abonnés. Quelques grands RVA sont actifs en France, notamment GSI, Axone, Geisco. Ce dernier par exemple, est à la base du groupement Celias. Sans être indispensables au développement des EDI, les réseaux à valeur ajoutée sont une aide et un stimulant puissant, apportant à la fois des ressources (matériel, logiciel, lignes) et des spécialistes motivés.
Les Anglais ont été les plus rapides pour exploiter ces nouveaux moyens (voir l'article de Florence Duflot dans ce même numéro). On peut tout de même relever quelques initiatives françaises.
Celias, entre agents et courtiers, démarre sur une fonction essentiellement administrative, le quittancement terme.
Entre les partenaires de la réparation automobile, D'Arva, né au printemps 88 dans le secteur mutualiste (son siège social est d'ailleurs à Niort) offre comme première prestation le service "Arcauto", pour le missionnement des experts directement à partir des systèmes informatiques des compagnies et, en sens inverse, l'envoi des rapports d'expertise et des notes d'honoraires. Le monde de la réparation avait déjà vu s'installer, en 1986, le système Sidexa (banque de données et logiciel pour la tarification des réparations à partir des rapports d'experts), qui prendrait maintenant une nouvelle dimension avec le groupement TAE.
Pour la réassurance, Rinet devrait relier les ordinateurs des cédantes et cessionnaires et son démarrage effectif devrait avoir lieu incessamment. Il s'agira essentiellement de transmettre les relevés comptables.
Dans les trois cas, les perspectives à long terme sont larges, mais l'on commence par un point précis permettant la prise de contacts entre partenaires, la familiarisation avec de nouveaux modes de communication... et la rentabilité de ce mode de travail. Une fois le mouvement prouvé en marchant, il faudra grandir. D'une part en élargissant la gamme des prestations: du quittancement à l'ensemble des relations administratives entre courtiers et compagnies, de la comptabilité à la souscription (comme le font les Anglais avec Quotel), etc. D'autre part en obtenant l'adhésion d'un nombre croissant de partenaires.
A terme, on va vers un vaste réseau unifié de toutes les professions de l'assurance. Ne serait-ce que pour éviter la prolifération de terminaux différents et de services disparates. Mais cette convergence ne pourra être que progressive, et donner lieu à d'énergiques affrontements au niveau national et plus encore européen.
De toutes manières, réseau unifié ne veut nullement dire fin de la concurrence. Bien au contraire. L'utilisation commune de certains moyens de communication, l'adhésion à un certain nombre de standards... c'est tout simplement la constitution d'un marché. Hier place de village ou bistrot des Lloyd's, demain réseau planétaire, mais où chacun présente des produits qui doivent marquer leur "différence" tout en respectant les normes.
D'ailleurs, pourquoi se limiiter à l'assurance puisque dès aujourd'hui, on parle de "mariage de réseaux" entre grands de l'assurance et de la banque (Gan/CIC, UAP/NBP), et que certains groupes comme le GMF vont jusqu'à la distribution et la presse. L'Administration elle-même se met aux EDI comme aux RVA. Depuis plusieurs année déjà fonctionne le TDS (transfert des données sociales). Allant plus loin, le projet Tedeco du ministère des Finances vise dans un premier temps les collectivités locales dans un premier temps, mais peut conduire une dématérialisation de tous les échanges de données entre les pouvoirs publics et les entreprises.
Très tôt l'informatique a fait craindre pour l'emploi, notamment dans le secteur assurance. Dès 1965, une compagnie norvégienne annonçait une réduction d'effectifs de 20% pour un taux d'activité accru. En 1976, le rapport Nora-Minc précise: "Dans les assurances, le phénomène est encore plus pressant (que dans les banques). Les économies d'emplois, désormais possibles sur une décennie, sont d'environ 30%".
Or l'hémorragie d'emplois n'a pas eu lieu. Pourquoi? En partie par volonté politique: une grande partie du secteur est soit nationalisé soit "social" et aurait été mal venu d'accroître les inquiétudes du pays. Mais l'évolution ne semble pas avoir été très différente à l'étranger. Les privatisations n'ont pas eu d'effet très sensible non plus. C'est donc que l'assurance a su se trouver de nouveaux types d'activité. Il n'est donc pas déraisonnable d'être optimiste pour l'avenir. Y compris dans l'optique européenne (déjà prises en compte par le rapport Nora).
Quant au personnel des services informatiques, déjà le disque a fait disparaître les escouades d'opérateurs en blouse blanche qui chargeaient les bandes magnétiques. L'exploitation, de plus en plus automatisée, réduit progressivement le rôle du "pupitreur". La programmation, à ce niveau de base, ne devrait plus avoir sa place, sous l'effet conjugué de la stabilité des applications et des nouveaux outils de développement.
Sous l'effet conjugué du downsizing et de la sous-traitance, les gros bataillons informatiques pourraient disparaître. Les entreprises ne conserveraient alors qu'un petit noyau de spécialistes de haut niveau. Leurs fonctions: aider la direction générale à définir sa stratégie en matière de systèmes d'information, déterminer les standards (matériels, logiciels, données) à appliquer dans l'entreprise et chez ses partenaires notamment les agents, gérer les relations avec les fournisseurs de matériels et les prestataires de services.
L'image assez négative des informaticiens, supposés défendre leur pouvoir par l'hermétisme de leur jargon comme par la complexité de leurs "usines à gaz", encouragera plus d'une entreprise à tenter leur liquidation. Et les firmes spécialisées en "facilities management" (expression américaine signifiant la prise en compte complète de l'informatique d'une entreprise par un prestataire de services) tirent parti de la trop fréquente inaptitude des équipes traditionnelles à maîtriser leurs coûts comme leurs délais...
Mais cette évolution n'est pas inéluctable. Même avec une informatique matériellement décentralisée, on peut juger préférable d'avoir de solides équipes centrales pour le développement des applications, l'assistance aux utilisateurs, la sécurité, etc. Quitte à élargir largement leurs fonctions à l'organisation voire à la conception de nouveaux produits, de nouvelles prestations appuyées sur l'informatique et son évolution galopante. Inversement, une architecture très hiérarchisée peut répartir une bonne part de ses équipes au niveau "départemental", déconcentrer les services d'étude et les centres d'exploitation, etc.
L'imagination, plus que jamais au pouvoir: les perspectives du nouvelles du calcul peuvent ouvrir de nouveaux horizons à la solidarité
Ainsi, le harassement des nouveautés technologiques comme la déstabilisation du marché unique peuvent encourager une certaine anxiété. Mais l'analyse à long terme, des origines du calcul et de l'assurance à leurs évolutions en direction du troisième millénaire ne justifient pas le pessimisme. Parions que les gagnants seront les plus souriants. Les solidarités d'hier étaient celles du malheur, face à la mort, à la maladie, à l'incendie. Celles de demain, appuyées sur une informatique toujours plus communicante, conviviale, intelligente, peuvent être celles du risque librement assumé, du projet toujours plus audacieux de l'aventure à l'échelle de la planète,.