Travail pour l'Adira, en 90 je pense
Comment choisir une station, un poste de travail? L'informaticien ou bien a des idées toute faites, ou biens'épuise à parcourir la presse et les salons spécialisés où il setrouve face à des milliers de produits qui changent tous les ans.
Proposons une grille de choix, un peu simplificatrice mais capable de faciliter une première orientation. Nous l'avons construite à un peu par analogie avec le "modèle en couches" OSI, cher aux spécialistes des télécommunications. Nous irons donc du niveau "physique" (ici le matériel de base et la périphérie) jusqu'aux "applications" (ici, les logiciels les plus spécifiques aux différentes catégories d'utilisateurs).
Relevons deux points communs avec le modèle OSI: la définition de "profils fonctionnels", qu'on pourrait appeler "postes types" pour limiter le foisonnement et améliorer l'inter-opérabilité, d'autre part la forme "en diabolo" de la diversification et de la personnalisation des postes et stations.
- d'une part le foisonnement des normes, protocoles et solutions aux différents niveaux conduit les utilisateurs à définir des "profils fonctionnels", c'est à dire des sous-ensembles cohérents comportant l'ensemble des couches et apportant des solutions complètes bien adaptées.
Tantôt on contente de sélectionner un certain nombre de produits "permis", "références". Tantôt l'on définit plus précisément un modèle-type, qui sert de base pour la négociation de contrats-cadres avec les distributeurs. Le contrat peut aller jusqu'à prévoir l'intégration complète, matérielle et logicielle, par le distributeur, qui livrera ainsi des stations de travail "clés en mains".
L'"Oscard" de Rhone-Poulenc en est un exemple type. Pour Jacques Cassin, responsable de la communication à la DOI du groupe, cette solution est avantageuse pour tout le monde. L'utilisateur final n'a pas à se préoccuper de compatibilité entre les différents composants. Le distributeur peut rationaliser sa chaîne de commandes, de préparation et de livraison... et consentir des tarifs plus avantageux un client si bien organisé.
...encadré
Oscard (*): le micro Rhone-Poulenc
Près de 3000 micros sont installés chaque année dans le Groupe. Il fallait adopter un mode de diffusion industriel et c'est chose faite avec l'Oscard.
Préparé chez les fournisseurs selon nos indications, l'Oscard arrive sur nos bureaux prêt à l'emploi: les logiciels sont déjà installés, la carte de communication est en fonction, réglée pour accéder automatiquement à RP-Mail, et l'imprimante est prête. Ainsi "packagé", l'Oscard est opérationnel en quelques minutes.
L'Oscard offre l'interface graphique avec une souris, des icônes et des menus déroulants. L'interface graphique simplifie beaucoup l'utilisation des différents logiciels: la formation est passée de 10 à 3 jours.
Tous les Oscard, qu'ils soient constitués de Macintosh ou de PC, sont compatibles.
Le prix du poste varie de 40 ) 50 KF, selon le type d'imprimante choisi, jet d'encre ou laser.
(*) Oscard: Outil standard pour calculer, analyser et réaliser des documents.
.....fin encadré
Un point exceptionnel dans l'Oscard de Rhone-Poulenc: laisser le choix entre Mac et PC. La plupart des entreprises choisissent l'un ou l'autre. Plus exactement, la majorité des grands comptes prescrivent les PC, PS ou compatibles, et proscrivent les autres plate-formes, Apple en particulier. Mais cela change.
Parmi les profils connus, citons l'OMF (Ordinateur multi-fonctions) du Crédit du Nord, le MOB (Micro-ordinateur du bureau de Poste), le TMF de la BNP, ou encore les postes que diffusera Amadeus "dérivés de la gamme PS/2 d'IBM, fonctionnant sous MS/DOS, Unix et OS/2, ... et adaptés pour exploiter Amadeus Pro, le logiciel de gestion d'agences de voyages développé par Amadeus.
Si l'on va du matériel vers les "applications", c'est dans les couches intermédiaires que la diversité se voit le plus réduite. Cette couche est celle des "plate-formes", un concept un peu vague mais centré sur le système d'exploitation. Certains observateurs prédisent que l'on va vers une plate-forme unique. Disons que l'on se trouve dès aujourd'hui à des standards qui se comptent sur les doigts de la main: MS/DOS, OS/2, Unix. Même au
niveau des grands systèmes, d'ailleurs, le monde des IBM et compatibles conquérant progressivement tout le marché, et les Japonais emboitant le pas, il n'y aurait plus que l'ESA, assurant la convergence de MVS, VM et VSE (et l'AS 400...). A quoi l'on peut rattacher les standards classiques des terminaux passifs (arrivés à maturité mais dont le déclin au profit des micros ne sera que progressif).
Si l'on descend de la plate-forme vers les matériels, on ne diverge d'abord que lentement: deux familles de micoroprocesseurs (Intel, Motorola) et quelques bus (MCA, Eisa). Par contre, la panoplie s'élargit quand on en vient aux chassis, depuis le pocket jusqu'au tower ou rack. Et la variété se multiplie avec la périphérie: écrans, claviers, disques et disquettes, imprimantes et scanners, moyens de communication, "cartes" en tous genres,
Si l'on s'élève vers les applications, on trouve d'abord quelques "environnements" standard, qui tendent d'ailleurs à ressembler de plus en plus au Macintosh (ou, si l'on préfère, à ses ancêtres nés au Parc de Xerox): Finder de Mac, Presentation Manager, NewWave, Windows 3.0, etc.
Au dessus, c'est la panoplie de base des applications "bureautiques", ou "enabling software", avec le traitement de texte, le tableur, les outils graphiques, la messagerie et parfois les bases de données et aussi... les anti-virus. Cet ensemble d'outils, divers et séparés aux origines, sont maintenant de plus en plus étroitement intégrés. C'est particulièrement frappant sur le Macintosh. Par l'intermédiaire du presse-papiers, les objets passent allègrement de MacDraw ou d'Excel à MacPaint (pour travailler au niveau du pixel), à Word (pour intégration dans un rapport).
C'est au dessus encore que l'on diverge vraiment, et que l'on entre dans le monde des logiciels professionnels spécialisés. On trouve ici deux types de familles, que l'on peut qualifier de verticales ou horizontales, selon qu'elles visent des secteurs économiques spécialisés (banque, médecine, BTP, transports, par exemple), ou des métiers présents partout (comptabilité, paye, commercial, finances). C'est à cette dernière catégorie qu'il serait logique de rajouter les outils de développement informatique et le génie logiciel ainsi que les outils de gestion de réseau.
Une part de la diversification se fait en pratique au sein des grands produits logiciels, parfois paramétrables, d'ailleurs. Les fonctions d'un bon traitement de texte, d'un bon tableur, sont par elles-mêmes si étendues que la plupart des utilisateurs n'en connaissent qu'un sous-ensemble. Par exemple, dans un logiciel intégré, certains utilisateurs ne se servent du tableur que pour des fonctions textuelles, car c'est un outil pratique pour générer des tableaux. Alors que d'autres en exploitent surtout les capacités de calcul.
Le summum de la personnalisation, c'est le logiciel spécifique, dont la part se réduit sans cesse. Les progiciels prennent l'essentiel du gâteau. Une part du spécifique est développé par les utilisateurs finaux, par exemple pour la mise en forme de données (fonctions infocentre plus ou moins intégrées à la bureautique de base). Mais il faut aussi des outils de génie logiciel aux développeurs, cordonniers qui ne sont pas toujours les mieux chaussés d'ailleurs.
Reste enfin, pour les informaticiens d'entreprise, à jouer leur rôle d'intégrateurs au sommet de la pyramide des systèmes d'information: administration des données, soutien de l'EIS (Executive Information System) des dirigeants, gestion des performances et planification des capacités, amélioration de la cohérence, maintenance et sécurité générale. Ici encore, disposent-ils d'outils à la hauteur des responsabilités qu'ils doivent assumer?
Nous allons maintenant étudier plus en détail les différentes couches, en nous attachant plutôt aux extrémités larges du diabolo, car son centre fait l'objet d'analyses fréquentes dans les colonnes du Monde Informatique. .
C'est évidemment le premier choix: est-il ou non justifié de mettre un poste de travail informatisé à la disposition de telle personne? Chaque firme se donne une stratégie, en fonction de ses activités comme de sa culture et de ses possibilités financières. Le taux d'équipement est de 100% dans certaines entreprises (par exemple à IDG, éditrice du Monde Informatique). Et même supérieur à 100% car aux postes de travail courants viennent s'ajouter des portatifs et des moyens de formation. Quant une bonne majorité des postes sont équipés, on voit alors les autres personnels se sentir dévalorisés. Il faut avoir un écran-clavier pour être membre de l'entreprise à part entière. Surtout si la messagerie devient active et commence à jouer un rôle réel dans la vie sociale (messages de la direction, annonce de rencontres amicales et sportives, informations du comité d'entreprise, etc.).
En revanche, certaines PME n'ont encore aucun outil informatique, notamment les artisans, les petits exploitants agricoles, etc.
Le taux d'équipement est naturellement plus élevé dans le tertiaire que dans des secteurs "de main d'oeuvre" comme le textile ou le bâtiment. L'Administration est, en moyenne, sensiblement en retard sur le secteur privé. D'une part les budgets sont d'autant plus serrés que la mode est au "moins
d'Etat". D'autre part la budgétisation annuelle rend difficile de raisonner en termes d'investissements, surtout s'il s'agit d'investissements "de productivité", c'est-à-dire en l'occurrence de réduction d'effectifs.
L'apparition des ordinateurs et terminaux portables, portatifs et de poche permet aujourd'hui de fournir un poste de travail aux personnels mobiles (inspecteurs, commerciaux, chauffeurs), même dans des environnements sévères (ateliers d'usine, travail en extérieur et, à la limite, environnements militaires).
La machine doit-elle être plus ou moins "luxueuse". Le temps n'est plus où l'on fabriquait des modèles d'ordinateur en acajou pour bureaux de PDG. Le plastique plus ou moins gris s'est imposé par sa discréation et son efficacité.
En revanche, les chéris du pouvoir peuvent toujours obtenir un meileur écran: couleur et haute définition. Avec le mobilier environnant, c'est à peu près la seule fantaisie possible.
Les très grands écrans conviennent soit à certaines applications graphiques (CAO, DAO, PAO, etc.), soit au travail en petits groupes. C'est le cas de certains EIS. Pour les groupes importants, il faut recourir à un projecteur (nettement plus coûteux), ou au moins à un accessoire pour rétroprojecteur.
Les écrans sensitifs, dans l'état actuel de la technologie, ne sont intéressants que pour des fonctions relativement simples, et quand ni le clavier ni la souris ne sont adaptés. C'est le cas de certains environnements industriels ou des bornes mises à la disposition du public. On en trouve aussi sur certains terminaux portatifs qui ont la vie dure (mise à jour de stocks dans des entrepôts, par exemple).
La vision en relief est maintenant disponible, mais reste très coûteuse si l'on veut une bonne qualité. Et encore faut-il des logiciels d'applicatio qui puissent l'exploiter.
Parmi les écrans plus "exotiques", notons la projection sur le cockpit des pilotes d'avion (HUD, head up display), les "casques" avec petits écrans devant les yeux, plongeant l'utilisateur dans un espace totalemnet virtuel. Les applications sont pour l'instant surtout ludiques ou de recherche. La Défense américaine étudie pour son "Robosoldier" un petit écran présenté dans le bas du champ visuel et qui permettrait d'accéder à l'informatique jusqu'en pleine action sur le terrain.
Quant au commun des cols blancs, il va se contenter longtemps encore de l'écran monochrome en mode caractère. La couleur va se répandre progressivement, car elle semble facteur d'efficacité, même pour des tâches administratives classiques. Mais elle est en général précédées par un passage au mode pixel (picture element) c'est à dire aux écrans type Macintosh-Presentation Manager-Windows 3, qui permettent de jouer sur les icones, le multifenêtrage, etc.
Les écrans vont devoir aussi progresser en qualité pour se prêter à la "gestion électronique de documents", c'est à dire à la gsetion et en particulier à la présentation sur écran d'images scannerisées de documents (depuis les coupures de presse jusqu'aux polices d'assurance).
Aujourd'hui, tous les claviers se ressemblent, et l'on n'en discute plus guère. Une bonne productivité appelle un grand clavier avec ses annexes (fonctions, numérique/curseur). Sur les portatifs, il faut consentir à quelques sacrifices qui obligent à des combinaisons mal pratiques (Alt/Ctrl/...). Sur les "poche"il n'est plus question de travailler à dix doigts.
Dès qu'il y a peu de texte à saisir, et que les logiciels fournissent une visualisaion adaptée, la souris prend le dessus. Et l'on va de plus en plus loin dans le jeu réciproque des clics et des affichages (fenêtres, boutons, palettes...). A la limite, une culture nouvelle est en train de remplacer celle du texte. Cela ne pourra progresser que de pair avec les applicatifs.
Cependant une bonne part du travail est sous-traitée aux logiciels d'interface et de dialogue.
Dans certains cas, la souris cède la place au joystick (pilotages) ou à la boule (graphismes).
Les "grids" ouvrent une voie d'avenir, en transposant électroniquement le jeu du crayon sur le papier. L'avantage est la précision et la récupération d'une longue culture du manustrcit et du dessin. Mais il faut à la machine beaucoup d'intelligence (c'est à dire ici à la fois puissance de traitement et qualité de conception du dialogue) pour bien "comprendre" ce que veut l'utilisateur.
Le cas limite, complémentaire du "casque" vu plus haut, c'est le gant et même la combinaison recouvrant tout le corps, et interprétant tous les mouvements de l'utilisateur dans l'espace virtuel qu'on lui présente. Qu'on la perçoive comme rêve ou comme cauchemar, ce développemen extrême ne sera pas monnaie courante dans les entreprises avant un bon moment.
Quant à remplacer le clavier par la voix, c'est un vieux rêve qui finira peut-être par se concrétiser.
On s'est très tôt intéressé à l'intégration de la voix dans les applications informatiques et bureautiques. Des produits existaient dès le milieu des années 60. Ce fut un des thèmes de prédilection de la bureautique à ses origines (1977). Et pourtant le combiné téléphonique reste toujours bien séparé du poste de travail informatique.
Ce n'est pas que l'élecronique manque. On trouve des cartes pour PC pour moins de 10 OOO F, et jusqu'à 25 000F si l'on veut une reconnaissance de la voix un peu meilleure.
Faute d'une intégration complète, on tente des voies moins ambitieuses, comme la messagerie vocale, la télématique vocale ou le commentaire vocal associé à un document... Rien encore de vraiment convaincant, sinon parfois dans certains environnements très particuliers (industriel, militaire), quand les deux mains sont déjà prises et qu'il faut bien trouver un autre mode de communication avec la machine.
Notons tout de même quelques fonctions informatisées sur les autocommutateurs (répartition des appels au sein d'une équipe d'hôtesses ou de commerciaux). Mais, dans l'ensemble, on voit toujours l'utilisateur coincer le combiné entre le menton et l'épaule et taper comme il peut sur le bon vieux clavier... L'arrivée de Numéris fera-t-elle évoluer les choses?
La disparition du papier dans les bureaux n'est pas pour demain. Et les industries de l'imprimé sont même en croissance. Cependant, certaines formes d'impression et certains types d'imprimés disparaissent, pendant que d'autres se développent. On peut dire, pour l'essentiel, que la paperasse décline au profit de documents plus beaux, plus soignés. A vrai dire,le photocopieur joue ici un rôle au moins aussi important que l'ordinateur.
Déclin de la paperasse? Prenons quelques exemples. Sur les postes de secrétariat, les carbones et pelures ont disparu. Et la qualité d'impression des documents est sans commune mesure avec celle des années 50 ou 60.
De même, dans les bureaux, ont fortement baissé les "paquets de listings", au profit de consultations à l'écran ou de documents A4 proprement reliés.
En revanche le papier reste fort toutes les fois que ses avantages sur l'écran restent incontestables: légèreté et facilité d'emploi, qualité du contraste et de la couleur, facilité des annotations manucrites. De plus, un papier peut se lire sans aucun outil informatique. Enfin, la communication d'un document papier n'oblige pas à se poser des problèmes de standard de communication, de codes de caractère ni de typographie.
D'où le succès de la télécopie, bien qu'elle soit une sorte d'aberration historique: dans un monde où tout devient électronique, pourquoi générer ce papier, au demeurant de mauvaise qualité graphique et de format hors standard, par conséquent catastrophique pour la présentation de n'importe quel dossier! Le télécopieur a encore un bel avenir, cependant, faute de savoir communiquer efficacement des documents graphiques non complètement structurés.
A terme, si l'on imagine que tous les bureaux sont équipés d'une station de travail susceptibles de recevoir des images pixel de documents, selon des normes acceptées comme le Groupe IV, on peut imaginer que le télécopieru disparaîtra et que les transferts d'images de documents s'intègreront complètement à l'électronique.
Pour la station de stravail, on observe donc un certain nombre d'évolutions simultanées:
- les imprimantes se multiplient, et d'autant mieux qu'il en existe des modèles très économiques (moins de 2000 F) pour une qualité graphique raisonnable;
- le jet d'encre et le laser remplacent les machines à impact dès que les budgets le permettent;
- la qualité des présentations s'élève de pair avec le progrès des logiciels bureautiques; comme pour l'écran, on passe du mode caractère au mode pixel, facilité par le wysiwyg.
Le choix est ici affaire de standing et d'image d'entreprise plus que de stricte nécessité fonctionnelle. Attention à ne pas trop attendre de facilités typographiques alléchantes au premier abord (caractères spéciaux, ornés, etc.) mais décevantes en pratique. Plus on est ambitieux en matière de présentation typographique, plus il faut un personnel formé voire vraiment professionnel es arts grahiques.
La couleur, en revanche, ne peut conquérir que des niches assez étroite. Il existe des imprimantes couleur économiques. Mais leur possibilités sont limitées. D'autres ont des performances impressionnantes, mais sont lentes et chères (plusieurs centaines de milliers de F). Et, pour nombre d'applications professionnelles, la oculeur est dangereuse: elle ne passe ni à la photocopie ni à la télécopie.
Mais certaines applications l'exigent ou la rendent fortement couhaitable: cartographie et systèmes d'iformation géographique, activités de communication où le document doit séduire voire emporter la conviction. Ici encore, l'emploi judieux de la couleur exige un minimum de maturité et de formation.
Quant au scanner, il prend peu à peu de l'intérêt puisque l'on commence à gérer de l'information sous forme pixel, des images de documents. Non seulement pour des applications graphiques mais aussi en gestion.
En outre, les logiciels de lecture optique font des progrès et selon certains utilisateurs, en les couplant avec les correcteurs orthographiques, on obtient de bons résultats.
On sort ici du monde des bureaux pour entrer dans celui des laboratoires et des ateliers. La diversité devient extrême, s'étend aux dimensions de tout l'univers scientifique et industriel et requiert des compétences d'ingénieur.
Cependant le "ticket d'entrée" s'est singulièrement abaissée. On trouve pour quelques milliers de francs des cartes additives pour PC avec un logiciel de base pour leur utilisation. Le pilotage de machines simples (ou au moins de fonctions simples) peut donc à faible coût bénéficier des facilités de l'informatique (stockage des données, de procédures standard, surveillances automatisées, etc.).
Ainsi le PC devient-il la plate-forme standard pour les salles de contrôle industriel comme pour les cols blancs. Des versions protégées sont disponibles. Parmi les pionniers, on peut citer les Ciments Français.
A l'autre extrême des puissances, le PC est utilisé avec une périphérie temps réel par certains secteurs artisanaux. Singer vient de sortir une machine à tricoter pilotée par ordinateur, qui sert ici aussi bien à une forme simplifiée de PAO qu'à la ocnduite de la machine.
Les musiciens, enfin, se servent de plus en plus couramment de PC, d'Atari ou de Macintosh aussi bien pour la composition que pour l'exécution ou le pilotage de régies. C'est un domaine qui a su se doter d'une norme efficace de communication, appelée Midi (Musical Instrument Digital Interface)
Le chassis, c'est la base du jeu de Meccano matériel. Il comporte une carrosserie, une "carte mère" et une alimentation électrique. Comme pour les systèmes d'exploitation, il n'y a ici que quelques standards pour les micro-ordinateurs: le bus ISA des PC classiques, le MCA des PS/2, l'Eisa lancé par les autres fournisseurs pour répondre à MCA, le bus du Macintosh. Une plus grande variété règne au niveau des "stations" proprement dites.
La carte mère comporte plus ou moins d'emplacements pour mettre en place des cartes additives dont la variété s'accrôit: co-processeurs et accélérateurs pour augmenter la puissance, cartes mémoire, cartes de communication, cartes Midi pour la musique, drivers des écrans et des disques ou disquettes, imprimantes et péirphériques, cartes d'instrumentation. La "modularité" longtemps espérée est de fait arrivée sur le marché.
Sur les modèles portatifs, il n'y a pas ou peu de place pour ces cartes. Elles sont plus nombreuses, et potentiellement aussi nombreuses qu'on veut à condition de disposer d'une alimentaion suffisantes, sur les modèles de bureu ou "tour".
La mémoire principale du microprocesseur atteint maintenant plusieurs méga-octets sur la plupart des machines achetées par les entreprises. De telles capacités sont devenues nécessaires pour assurer à la fois une bonne ergonomie et une bonne rapidité des travaux et de leurs enchaînements.
Elle peut être complétée par de la mémoire rapide, sur circuits intégrés, aussi rapide que la mémoire principale, mais assez chère. Les fichiers de données et de programmes doivent donc être stockées sur d'autres types de mémoire, offrant une grande capacité pour un prix modique et la persistance des informations quand on arrête la machine.
Les disquettes de 5,25 pouces sont de plus en plus rempalcées par les modèles de 3,5 pouces, avec une capacité classique de 720 K octets. Mais sont-elles nécessaires? Pendant longtemps, elles ont été un composant indispensable du micro-ordinateur: à la fois sa mémoire de masse et son moyen de communication avec l'extérieur, pour charger des programmes et échanger des données.
Mais dans les enteprises ou les micro-ordinaterus sont connectés, il peut être souhaitable de supprimer les disquettes. Elles sont en effet la faille par où peuvent s'introduire des logiciels piratés, des jeux et autres fantaisies que la morale réprouve même si la police les tolère, et surtout des virus. En sens inverse, elles sont un moyen de piratage des logiciels et surtout des fichiers sensibles de l'enteprise, notamment les fichiers de clientèle, qu'un commercial indélicat n'aura aucune difficulté à glisser entre deux dossiers.
Supprimer la disquette, c'est certainement priver l'utilisateur d'une part de ses libertés. Mais une grande part du personnel n'en tire aucun profit, faute de compétences ou de motivation. Dans ce cas, l'unité de disquette ne sert pas à grand chose, sinon au "boot" de lancement qui pourrait aussi bien être lancé à partir du disque dur.
Une solution rationnelle, dans les entrepries ou services équipés de micro-ordinateurs connectés, serait d'installer un lecteur de disquette (éventuellement, un lecteur des différents formats utiles) sur un des postes, par exemple au secrétariat. On conserverait ainsi les avantages de l'ouverture tout en la plaçant sous la sureillance vigilante mais souriante des secrétaires. Ce poste devrait logiquemement être équipé d'un bon détecteur de virus pour toute entrée à parrtir d'une disquette.
Perçu au début un peu comme un luxe sur des micros qui prenaient du poids, le disque dur devient le complément indispensable de la mémoire vive pour le stockage des volumineux systèmes d'exploitation, interfaces utilisateurs et autres logiciels de base aujoud'hui.
20 méga-octets commencent à faire figure de plancher pour les stations des professionnels, y compris les portatifs. La limite supérieure ne cesse de s'élever. 30 ou 40 mégaoctets sont monnaie courante au catalogue des fournisseurs. Mais on s'élève 80 ou 300 mégaoctets commencent à ne plus sembler exceptionnels. Et l'on peut citer une application de la Marine américaine qui travaille sur un Tandon 386 avec 5 giga-octets sur disques.
De telles capacités permettent de conserver "en ligne" un grand nombre de logiciels. Pour peu que l'interface utilisateur soit un tant soit peu intégrée (au moins avec un Autoexec.Bat comportant un menu de branchement), le passage d'un travail à un autre devient toujours plus rapide. Et, pour certaines applications au moins, comme la messagerie,il est fortement souhaitable que l'on puisse y accéder sans arrêter le travail en cours.
De gros fichiers d'application peuvent aussi être stockés sur les micro-ordinateurs. Au niveau du giga-octet, la plupart des bases de données des entreprises peuvent s'installer sur micro-ordinateurs. De là à y transférer les grandes applications traditionnelles des grands systèmes, il y a un pas que les uns franchissent allègrement et que le autres estimetn impossibles au moins pour plusieurs années encore.
La montée de l'image et de la gestion éléctronique de documents, pour ne pas parler de l'image animée, repousseront aussi loin qu'on veut la fringale de mémoire des utilisateurs. Mais il faudra un certain temps pour que l'ensemble du système et les logiciels d'application puissent vraimen exploiter ces capacités.
Dans l'état actuel des choses, comment calibrer la capacité à affecter à un poste déterminé? On peut admettre que tout poste nouveau doit être muni d'un disque dur avec une capacité minimale de 20 méga-octets. Il y a de fortes chances pour que les simplifications d'emploi et les gains de performances par rapport à la disquette se traduisent par de réeles gains d'efficacité (certes toujours difficiles à mesurer).
Il sera de toutes façons aisé de passer par la suite à des capacités plus fortes, les unités ayant les mêmes formats externes et les mêmes types de connecteurs.
Les supports optiques se sont au départ recommandés par leurs importantes capacités. 600 méga-octets par exemple pour un CD-Rom de 12 cm de diamètre, d'un millimètre d'épaisseur et d'un poids inférieur à 50 grammes.
Cependant la capacité des supports magnétiques continue de s'accroître et réduit l'avantage des supports optiques.
Mais l'optique a un avantage appréciable dans certaines applications: l'information une fois stockée ne peut être modifiée. C'est un atout pour la protection des données et pour la preuve juridique et comptable. Le disque "Worm" (Write once, read many) prend ainsi le relai des registres comptables d'hier aux "pages numérotées, paraphées, sans ratune ni surcharge".
D'un point de vue matériel, au niveau de la station, le matériel de communicatin se réduit pratiquemnet à une ou plusieurs cartes d'où partent, souvent malgracieux hélas, les câbles sur paire torsadée, câble coaxial ou fibre optique.
Regrettons que l'on n'ait pas encore trouvé de moyen pratique pour élimiter toute la filasse qui enlaidit l'arrière des postes de travail et les planchers des bureaux. Tout au plus parvient-on à limiter les dégâts avec des câbles ou gaines combinés et des locaux pré-câblés.
Sur les portatifs, on trouve souvent un simple connecteur qui sera exploité avec un mocem externe ou un coupleur acoustique. Relevons aussi quelques cas exceptionnels: des liaisons infrarouges sur certains terminaux portatifs (prise de commande dans les restaurans Pizza Hut), voire une antenne radio sur le projet de Soldier computer américain.
Ce n'est plus tout à fait de l'informatique, et l'on entend moins parler d'ergonomie aujourd'hui qu'hier... mais c'est important tout de même.
En fait, la séparation de l'écran et du clavier, et même du boitier de l'unité centrale, qui peut être place sous le bureau, laissent désormais une assez grande liberté de disposition à l'utilisateur. C'est dont surtout à lui d'assurer son efficacité, son confort et la survie de ses yeux...
C'est à ce niveau que la standardisation (et non pas la normalisation, d'ailleurs) a fait des progrès décisifs depuis MS-DOS. L'on se trouve maintenant ramené à quelques standards de base, même si des batailles cosmiques s'opposent autour d'OS/2 et d'Unix par exemple.
Ces standards ont joué un rôle clé:
- pour réduire les prix de fabrication grâce à l'allongement es séries;
- pour l'interopérabilité des composants matériels et ogiciels;
- pour réduire les coûts de formation et en augmenter l'efficacité, puisque qu'une compétence acquise une fois (tant au plan conceptuel que de la dextérité pratique et manuelle) peut s'appliquer à un très grand nombre de postes de travail.
Les principaux standards concernant les postes et stations de travail peuvent se décomposer en trois catégories:
1. Catégorie de plus en plus dominante, les micro-ordinateurs, avec MS/DOS et le PC, le PS/2 avec OS/2 et le bus MCA, EISA et la continuation de MS/DOS et du standard PC, et le Macintosh.
2. Les stations de travail proprement dites avec Unix. Cette catégorie est en train de fusionner avec les micro-ordinateurs, car les puissances et fonctions se rapprochent. Unix devient un standard aussi pour les micro-ordinateurs. En revanche, les stations de travail non-standard se voient écartés des grands marchés.
3. Les terminaux passifs (ASCII,Ansi, 3270). Bien que moins dans le vent que les micro-ordinateurs et stations, les études de maché leur prévoient encore des chiffres de vente importants, ne déclinant que très progressivement. Le débat est relancé par l'apparition des terminaux X, jouissant d'une interface graphique analogue aux PC haut de gamme. Signalons au pssage le minitel, qui n'est pas vraiment une station de travail, en tous cas permenente.
La montée en puissance permet d'avoir des systèmes d'exploitation multi-tâches et multi-utilisateurs. Si bien que le pose de travail finit par avoir des auxiliaires voire à devenir serveur pour d'autres postes.
Si l'on faisait de l'égalité un idéal, rien n'empêche de rêver à une informatique où tout poste serait à la fois stations-client et serveur, sans qu'il y ait besoin de "mainframes"... mais c'est un débat où l'idéologie et la passion ont tendance à obscurcir les arguments rationnels et techniques.
En toute hypôthèse, il n'est pas possible d'étudier une station de travai professionnelle indépendamment du parc de l'entreprise, du réseau qui relie les postes et de l'organiation générale des équipes et des services. Au niveau des plate-formes, il n'y a pas lieu à personnalisation, bien au contraire. Plus
tout le monde est pareil et plus bien ça marchera. En revanche, il y a lieu de jouer sur la puissance du processeur, parfois pour respecter le sens de la hiérarchie, mais plus normalement pour tenir compte des fonctions. Si l'on a besoin de passer rapidement d'une application à une autre (cas des secrétariats), ou de traiter beaucoup de graphiques ou de gros fichiers, il faut des chevaux sous le capot. Alors que certains cadres de haut niveau n'ont besoin que d'accéder à des fonctions peu gourmandes.
La préoccupation d'une normalisation de la présentation à l'utilisateur est plus récente que celle des systèmes d'exploitation. Dans l'optique informatique traditionnelle, on développait des masqyes d'écran appropriés à chaque application. Au demeurant, la pauvreté des affichages en mode caractère laissait peu d'imagination aux concepteurs.
Avec l'apparition du mode pixel, la richesse graphique de la présentation s'est beaucoup accru. Toutes sortes de dessins sont venus animer ou structurer l'écran présenté: fenêtres bordées d'ascenseurs, icones, textes de diffrentes typographies.
Une des grandes forces du Macintosh a été d'imposer aux concepteurs une grande rigueur dans l'exploitation des graphismes, au profit d'une plus grande facilité d'utilisation. Et finalement, l'ensemble a été plus ou moins copié par tout le monde, et constitue un standard de fait, que rejoignent Presentation Manager et Windows 3 sur PC (ou encore NewWave sur Hewlett packard), et Motif sur les machines Unix.
Des solutions plus complètes, avec des automates (NewWave) ou Freestyle de Wang (Le Monde Informatique du 4/12/90), ont du mal à s'imposer sur le marché. On peut aussi considérer l'Hypercard d'Apple comme un perfectionnement de ce bureau de base.
Sur ce "bureau" viennent se présenter une panoplie d'outils de base, qu'on peut qualifier de "bureautiques", ou d' "enabling software". Ils sont un peu la convergence des premières grandes fonctions implémentées sur les micro-ordinateurs à leurs origines: traitement de texte, tableur, grapheur, peintre, ou encore petite bases de données. Plus quelques gadgets pas forcément inutiles come l'agenda.
Un utilisateur averti navigue rapidement d'un de ces outils à l'autre, soit parce qu'il dispose d'un logiciel intégré (par exemple Framework), soit parce qu'un presse papier ou autre dispositif lui permet un passage facile.
Toujours à ce niveau apparaissent des fonctions de communication comme la messagerie ou l'accès à la télécopie, au télex, à télétel, soit que le poste comporte les cartes correspondante, soit (solution a priori meilleure), qu'il soit connecté sur un réseau qui comporte les serveurs appropriés.
C'est aussi à ce niveau que peuvent se concrétiser certaines fonctions de "groupware", par exemple le partag d'agendas (souvent mal vécu) ou des fonctions élaborées de messagerie (recherche documentaire dans la stock des messages, système d'annotations, etc.).
Enfin la sécurité fait explicitemen son apparirition, ne serait-ce qu'avec les logiciels de protection contre les virus.
La personnalisation du poste va commencer à se faire ici fortement sentir. Un personnel spécialisé ne disposera que des logiciels qui le concernent. Ou de versions plus ou moins sophistiquées d'un même logiciel. Un traitement de texte
Ici le profil en diabolo commence à s'élargir sérieusement. Les catalogues du CXP recensent des milliers de produits. Contentons nous d'énumérer quelques grandes têtes de chapitre.
Certains produits sont spécialisés par secteur économique: notaire, viticulteur, dentiste, exploitant agricole (et l'on peut distinguer selon le type de culture ou d'élevage), chauffagiste... On parle parfois ici de progiciels "verticaux".
D'autres correspondent plutôt à un métier, et se rangent sous tout la série série des sigles en AO: CAO et CFAO, DAO, MAO, PAO, PréAO... On pourrait y rattacher les logiciels de calcul, de gestion de projets, d'aide à la décision (mais le mot et le sigle SIAD sont devenus un peu vagues et, d'une certaine manière, le tableur est le SIAD par excellence). De même, l'atelier de génie logiciel (AGL, pour les initiés) devient essentiellement un logiciel destiné à une profession bien définie, l'analyste/concepteur/programmeur. Et les langages de programmation ne sont plus qu'un outil dans la "toolbox" de ce professionnel qui n'est souvent pas le mieux chaussé des cordonniers.
D'autres enfin répondent plutôt à une grande fonction de l'entreprise (on peut alors parler de progiciels "horizontaux): comptabilité, paye et gestion de personnel, facturation et gestion commerciale, achats, immobilisations, finances. Et le fin du fin, le EIS (Executive Information System) pour les dirigeants.
C'est seulement "au dessus" de ce vaste carquois d'outils plus ou moins spécialisé que vient prendre place ce qui a été longtemps le coeur de l'informtique d'entreprise: le développement de logiciels spécifiques, des grandes "chaînes" de production. Ici, par construction comme par volonté culturelle ("Chez nous, ce n'est pas comme chez les auters") et le plus souvent, bien sûr, par nécessité, plus d'universalité. Sinon que les applications s'appliquent à tous les personnels concernés.
Faisant contrepoint à cette informtique d'entreprise, la micro-informatique s'est caractérisée à ses débuts par une possibilité aussi fascinante pour les non-informaticiens qu'inquiétante pour les professionnels: la possibilité de programmer soi-même. Et l'on a vu des chefs de clinique, des architectes et des cadres admnistratifs commencer à aligner avec passion des lignes de Basic sur leur Apple II.
On s'aperçut assez vite que ce n'était pas une voie raisonnable pour le commun des professionnels de tous métiers. Ils perdirenet assez vite leurs illusions... mais aussi leurs complexes d'infériorité. L'ordinateur perdit à la fois son charme et l'informaticien le mystère où il s'abritait un peu trop facilement pour suivre sa propre pente.
En fait on est parvenu à un meilleur partage des rôles, que le concept de client-serveur caractérise assez bien sur le plan humain comme sur le plan technique.
Chaque utilisateur, à proportion de sa culture, de ses aptitudes pour la technique et aussi de ses goûts, est conduit à une certaine personnalisation de son outil de travail. Mais l'écart est énorme entre l'aide comptable qui reste étroitement guidé par la logique de l'applicatif et l'analyste financier qui jongle sur son tableur avec les données de l'infocentre. Et il restera toujors des ingénieurs et des chercheurs pour qui la programmation fait partie intégrante de la conception.
Réseaux: l'organistion des groupes et des niveaux
Le poste isolé. échanges de disquettes
Le couple cadre/secrétaire
Le petit groupe. grappe et boucle.
La "salle"
Câblage et logiciels réseaux
L'immeuble intelligent
Systèmes globaux d'entreprise
MF/terminal contre client/serveur
Services externes
RVA, serveurs, télétel
La normalisation des communications
EDI, Midi, SQL, Télétel, Postscript
Cals
Données
-------Synopsis pour PHG
Postes de travail et fonctions dans l'entreprise
Projet de repère
Une simple table des caractéristiques d'un poste de travail aujourd'hui occupe plusieurs pages dactylographiées. L'apparente banalisation rime donc avec personnalisation. Celle si découle de la fonction et du métier, aussi bien que des choix techniques, de la stratégie et de la culture de l'entreprise. Pour s'y retrouver entre l'offre foisonnante des fournisseurs et les demandes anarchiques des utilisateurs, nous proposons ici un schéma général de classement appuyé sur des exemples concrets.
1. En avoir ou pas? Les différents stades d'équipement des entreprises (de quelques postes isolés à la généralisation complète).
2. La base matérielle:
- chassis (du pocket au tower), bus et cartes
- moteur (Intel, Motorola, Sparc, propriétaires)
- la hiérarchie des mémoires
- écrans et affichages
- claviers ordinaires ou bizarres
- traitement du papier
- traitement de la voix
- périphérie industrielle et temps réel
- moyens de communication
- mobilier et aides ergonomique (y compris les automates)
Cas extrêmes: le poste très banalisé de la SNCF, leprojet Robosoldier américain, le consultant et son portatif
3. Logiciels: systèmes d'exploitation et plate-formes de base
MS/DOS, OS/2, Mac, Unix...
4. L'interface utilisateur standard
Alignement général sur le Mac. Des cas extrêmes séduisants (Freestyle)...
Les fonctions bureautiques classiques (texte, tableur, etc.) et leur intégration
Fascinations et déceptions de la messagerie et du groupware en général.
5. Logiciels spécifiques: horizontaux et verticaux Horizontaux: compta, paie, génie logiciel, CAO, PAO, PréAO, EIS, SIG
Verticaux: architectes, collectivités territoriales
Importance de l'intégration de toutes les applications et du passage rapide de l'une à l'auteur. Cas extrêmes: un petit Autoexec.Bat sur le PC, tout sous Hypercard.
6. Organisation des équipes et des réseaux
Du poste isolé au réseau hétérogène (de JP Brulé à l'Etas)
Le cadre et sa secrétaire...
Grappes, réseaux locaux, systèmes globaux
Normalisation des échanges (EDI, Postcript, Midi, SQL, Cals)
7. Stratégies et méthodes
Analyse de l'existant ou prospective long terme?
Grandes marques ou taiwanais?
Downsizing ou FM?
Intégration at home ou chez le distributeur?
Maintenance tierce
Rôle des équipes informatiques
---------
1. En avoir ou pas?
Différents stades:
- quelques postes
- particulièrement rentables
- particulièrement motivés
- un parc en libre service
- des populations techniquement définies
- le personnel de réservation
- les secrétaires
- les ingénieurs
- les pilotes de certains équipements
- tout le monde
à partir d'un certain taux, ceux qui n'en ont pas se
considèrent comme défavorisés.
2. La base matérielle
Le chassis
Tower, desktop, laptop, pocket/helmet
Bus et cartes
Le moteur
Famille Intel, Famille Motorola, Sparc et propriétaires
Jeu d'instructions
Fréquence
La mémoire
"électronique", floppy, dur, optique
réduction du rôle de la disquette
sauvegardes internes/externes
streamer, DAT, Worm, CDROM
L'écran, ou moniteur
taille, couleur
cas extrêmes: contrôle aérien, CAO, traitement d'image
le casque
Barco et tablettes pour rétroprojecteur
Le clavier/souris/tablette/joystick/boule
Les imprimantes
le papier, les papiers spéciaux
Le scanner
Périphéries spécifiques
appareillage de mesure, banc d'essai
terminaux de points de vente
automates bancaires
équipements industriels
capteurs, automates programmables, robots
musique
traceur à plume, électrostatique, photocomposeuse
domotique
péages
lecteurs de badges
synoptiques industriels
vision, caméras, appareils de photo à disquettes
vocal: micros et
mainframes, supercalculateurs et autres "serveurs",
autocommutateurs
Moyens de communication
modems
cartes fax, minitel, etc
hubs et autres connecteurs réseaux locaux, etc.
Mobilier et compléments ergonomiques
Table, éclairage, sécurités
Climatisation
Livres et rayonnages
3. Système d'exploitation et plate-forme de base
Le triomphe des standards
pour réduire les prix de fabrication
pour l'interopérabilité
pour réduire les coûts de formation
Terminal classique, terminal X
(pour mémoire: le minitel)
MS/DOS, PC.
MCA/EISA
OS/2
Macintosh. Finder, multifinder
Unix et mini-ordinateurs
Multi-tâches, multi-utilisateur
4. L'interface utilisateur standard
Normalement ne devrait plus voir le système
d'exploitation
- facilité simplicité
- sécurité
Macintosh. Hypercard
PM/Windows 3
Motif
CUA
Intégrés classiques
Freestyle (LMI 4/12/90, modérément accueilli par le marché)
Les fonctions "bureautiques" en cours de fusion (enabling software)
traitement de texte
tableur
grapheur
peintre
base de données
agenda
horloge
communication
messagerie, pilotage Fax, Télex, etc.
groupware
La sécurité
5. Logiciels spécifiques et verticaux
Hier c'est la machine, le matériel, qui spécifiait le poste: tourneur, fraiseur, camionneur. Aujourd'hui, c'est plus la fonction, le rôle dans l'équipe: dirigeant, secrétaire
5.1. Progiciels spécifiques horizontaux (ts secteurs)
Statgraphics
5.2. Progiciels spécifiques verticaux (par secteur)
5.3. Spécifique spécifique
Profils types:
dirigeant
secrétaire
ingénieur
pilote temps réel
véhicule
fixe (cas particulier: pupitreur)
journaliste
(nota: beaucoup moins cher que sur gros)
comptabilité (850 F autocompta 3+, multisociétés)
facturation
paie
stocks
immobilisations
CAO
architecture
calcul thermique
PAO, PréAO
génie logiciel, outils de développement
(le problème du développement, de la persistance)
langages
classiques
objets, hypertextes
générateurs de SEx
L4G
"environnements"
outils méthodologiques
EIS
SIG
collectivités territoriales, associations
systèmes experts (pas générateurs)
didacticiels
6-1. Les données
6. Organisation des équipes et des réseaux
Le poste isolé. échanges de disquettes
Le couple cadre/secrétaire
Le petit groupe. grappe et boucle.
La "salle"
Câblage et logiciels réseaux
L'immeuble intelligent
Systèmes globaux d'entreprise
MF/terminal contre client/serveur
Services externes
RVA, serveurs, télétel
La normalisation des communications
EDI, Midi, SQL, Télétel, Postscript
Cals
7. Organisation et stratégie
PIS contre CIS
Le PIS
productivité implique
convivialité, facilité, puissance
intégration/multifenêtres
transparence
notion de cohérence de l'espace mental
techniques de gestion du temps
interrompre les cycles
les petites pertes de temps
Se mettre dans la peau de l'utilisateur. Assez anormal
pour l'informaticien. Attitude de conseil indispensable...
Taylorisme/convivialité
La "station standard d'entreprise"
Oscard, OMF
Les équipes informatiques
l'informatique centrale
le support/bureautique
aides externes
constructeur
distributeur
SSII, consultants
maintenance tierce
audit
formation, animation
Méthodologie?
en pratique, choix de plate-forme est stratégique, lié à culture d'entreprise. Objets stables, puis classes
définition de profils
plus ou moins directif
downsizing, sous-traitance et FM (paie...)
Grandes marques et taiwanais
Les partenaires: EDI, ex. en PAO, dans un groupe, etc.
Tendance profonde, ce que l'individu peut porter, transporter, avoir sur son bureau, possède personnellement
...
idée pour chaque produit type, à une époque donnée
- le produit typique de la catégorie,
- les records et performances extrêmes
(donner les performances, les paramètres annexes intéressants (consommation électrique, encombrement, bruit), et
LES PRIX
NOTES pour dossier "poste de travail du futur", LMI 7/93
Critères: notamment pour un portatif
vitesse/puissance*
capacité mémoire vive/de masse/ floppy
ports
clavier, écran (couleur, finesse, rétroéclairé)
poids, durée d'autonomie, fonction Resume/Suspend
résistance au chocs
type d'applications
prix
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Un outil miniature, mobile, portable, autonome, multimédia
communication sans fil
volets techno/stratégies marchés/humain
Tout est numérique, compatible, réseau total (eaux, EDF, communication)
E=MC2
distance enctre composants, unités
limites à la téléprésence
proximité des noyaux atomique
limites même à l'infini, a fortiori d'ici à 2005
Moore/Intel
Baisse des volumes, des prix
montée des objets
bit/logique
caractère/nombre/calcul
texte/langage
icone/
objet
objet animé/population d'objets (Huberman, vie artificielle, calcul massif MIMD). L'homme se retruve un peu extérieur à ce monde cohérent des machines. Quant il entre en dialogue avec son ordinateur, c'est tout un univers qu'il éveille (avec d'ailleurs tout un temps de montée en charge)
coexistence du codé/nondé (l'ordinateur aussi est un cerveau à deux hémisphères)
L'architecture technique
- structure du (des) chips (Intel 7086)
- bus matériel
- BIOS, système d'exploitatin
Périphériques
scanner, caméra
nécessité de plusieurs écrans
limites lées aux caractéristiqus du corps humain
La disparition du papier
lente. tant qu'il est là, contraintes
Les nouvelles métaphores
de Mac/Windows à Dashboard. du bureau à la voiture
Windows demain sera périmé
mais Dashboard correspond-il aux espaces à traiter
idéographie dynamique (Lévy)
comment présenter une personne à une autre, un groupe à lui-même et à ses membres
les métaphores en 3D (murs en perspective, sapin...)
Steve Jobs: je veux faire un ordinateur tellement simple à utiliser que le téléphone classique paraîtra compliqué
Les automates
chaque objet sait comment il doit se présenter. Xaar
autonomie virus
sécurité/prévenance
objet, on parle aec tout
Mix réel/symbolique lunettse à tarnsparance variable
marquage
extérieur/zones intermédaiires/ moi (l'autoexec- le cadre, dans l'interstice)
Ruyer. La conscience comme surface sans bords
Oehmichen
La reconnaissance/L'intelligence
espoirs et très lente progresssion de tout ce qui est langage
le fault tolerant/préventance
corrections à l'entrée, monkey testing
Objectifis:
maximiser les sorties/minimiser les entrées
(EditPRD JYinteldoc
Normalisation/Personnalisation
couches Bios/partitions/autexec/Intall
L'intégration
son coût, qui la fait
Prix
rapporté au coût d'un salarié
rapporté au budget d'un ménage
Le travail
du primaire au secondaire, au tertiaire... au pilotage temps réel
militaire/flic
la mère de famille, l'infirmière
la fin du back-office
logique Windows/swap Vs. Logique Macdo
SIP/SIO
deux systèmes de valeurs.
SIO. la table ronde DIO
individualisme-plaisir/travail-réalita
massification personnalisée
tout à la masse/chacun a ce dont il rêve
prospectus jeu IBM en janvier?
Les différents types de poste
AGL. manipulation de l'abstrait
le "scientifique"
le pilote
la borne
Saint Ignace, composer le paysage
Mouvements complémentaires
- sur-médiatisation/industrialisation. Caquiot/Max
- dé-médiatiosatiL/industiralistion. Maintenance à distance