Passé et avenir du micro-ordinateur[1]

Introduction

Le PC a démarré au début des années 80 comme un produit « révolutionnaire » visant à soustraire l’informatique au contrôle capricieux des directions informatiques pour la placer entre les mains de l’utilisateur.

Aujourd’hui, le PC en réseau est devenu la machine communicante ; sur cette fondation s’élève l’architecture qui interconnecte les entreprises, leurs clients, finalement tout le monde.

L’évolution a été brutale. Des entreprises, des marchés ont fleuri et disparu. Espoirs et craintes, avarice et générosité, innovation et plagiat se sont répandus tandis que les nouvelles technologies, au départ préoccupation de quelques-uns seulement, devenaient une force culturelle essentielle.

Ken Olsen (Digital) avait, comme quelques autres experts, nié l’importance de la révolution apportée par le PC. L’achat de Digital par Compaq a été la sanction de cette erreur.

Microsoft était au début des années 80 minuscule devant IBM ; puis le rapport de force s’est inversé et pour la première fois IBM s’est trouvé dominé ; ensuite, Microsoft lui-même est devenu semblable à IBM : il cherche à accroître sans cesse sa part de marché, et il est poursuivi pour monopole par le département de la justice.

Lotus, le plus gros développeur de logiciels pour PC en 1984, a été éjecté de la compétition par Microsoft et a fini par être acheté par IBM qui n’avait pas réussi à développer un système équivalent à Lotus Notes.

Malgré le bruit que faisait Unix sur le marché voici 15 ans, personne n’aurait pu prévoir qu’un obscur ingénieur finlandais comme Linus Torvalds pouvait lancer mouvement « open source » qui fait figure de nouveau paradigme dans le commerce du logiciel[2] et constitue le premier véritable défi envers le monopole du système d’exploitation par Microsoft.

Rétrospectivement, on aurait pu prévoir la crise de l’an 2000. Mais 15 ans avant, personne ne la prévoyait. Personne n’a prévu l’émergence des ERP et le succès de SAP ?

Où en serons nous dans 15 ans ? Voilà ce qui est prévisible :

La baisse du prix des PC va continuer ; les PC seront distribués gratuitement, les recettes proviendront de l’accès à l’Internet et des serveurs Web. Les données récoltées en observant les habitudes des consommateurs sur le Web seront une monnaie d’échange et fourniront le lubrifiant du commerce sur le net.

Les logiciels seront gratuits ou presque. Le mouvement « open source » va profondément modifier Microsoft qui perdra le monopole du système d’exploitation, mais peut encore connaître le succès sur de nouveaux marchés comme le multimédia interactif.

Le problème de la sécurité pour les utilisateurs va devenir essentiel. Le vol, voire le terrorisme sur l’Internet seront de vrais problèmes.

Mais ce qui est plus intéressant, c’est ce qui est imprévisible, ou du moins difficile à prévoir.

Les 15 personnes qui ont eu le plus d’influence dans les NTIC

En 1984 le PC AT d’IBM était insurpassé. Depuis, des produits et technologies ont complètement changé notre utilisation du PC : il est passé du rôle de machine à écrire à celui d’un outil indispensable à notre vie quotidienne.

Cette transformation, nous la devons à quelques pionniers :

Andy Grove a dirigé la création du microprocesseur,

Bill Gates a mis au point les systèmes d’exploitation des PC,

Michael Dell a révolutionné la distribution des PC,

Ray Noorda a permis le succès du RLPC avec NetWare,

Mitch Kapor a lancé le tableur avec Lotus 1-2-3,

Linus Torvalds a lancé le mouvement « open source » avec Linux.

Tim Berners-Lee a transformé pour toujours l’utilisation des PC en créant le Web,

Stephen Case a ouvert aux masses l’accès de l’Internet avec AOL.

Voici le point de vue de certains d’entre eux sur les évolutions prévisibles :

Tim Berners-Lee, directeur du World Wide Web Consortium, chercheur au « MIT Laboratory for Computer Science ».

D’ici 2014, le Web sera devenu un Web de données entre toutes les bases de données, un Web sémantique sur lequel les programmes seront capables de surfer automatiquement.

Un algorithme intelligent sera capable d’utiliser les informations, tirer des conclusions, faire des affaires et, peut-être, faire de l’argent. La combinaison du Web sémantique et de la signature permettra un « Web fiduciaire[3] » répondant honnêtement à la confiance humaine dans les documents signés. Nous pourrons former des groupes et faire du commerce en toute confiance, avec des agents logiciels qui parcourront le réseau et feront le travail ennuyeux à notre place.

Rod Canion, cofondateur de Compaq, président d’Insource

En 2014, les NTIC seront la norme. Tout sera NTIC, ce ne sera plus une industrie particulière. La baisse du prix et de la taille des PC crée des possibilités dans tous les aspects de notre société, santé, loisirs, éducation etc.

Stephen Case , cofondateur et président d’America Online  

Ce que nous faisons sera devenu en 2014 part intégrante de la vie quotidienne. On ne considèrera plus cela comme des NTIC, mais comme quelque chose de normal. « New media » sera devenu le média, « e-commerce » sera devenu le commerce, « New Economy » sera devenu l’économie. La question clé est d’intégrer ce nouveau média dans la société de façon responsable. Il faudra davantage de coopération entre entreprises, gouvernements et individus. Nous avons besoin de construire un cadre pour assurer que les enfants sont protégés, la confidentialité garantie, les lois respectées, la parole protégée, le commerce sûr, et que les possibilités resteront aussi larges que l’on peut le penser.

Vinton Cerf, co-inventeur de TCP/IP, vice président de MCI WorldCom

En 2014, les NTIC seront bioélectroniques. Les prothèses bioélectroniques vont proliférer (implants auditifs, outils de contrôle musculaire). L’Internet sera partout, la plupart des outils seront en ligne tout le temps, par fil ou sans fil.

Le logiciel sera la source essentielle de nouveaux produits et services. Nous serons encore occupés à nous battre pour rendre le développement plus efficace et pour gérer la complexité croissante de l’interaction entre des millions ou milliards d’outils équipés de logiciels et reliés par réseau.

John Chambers, président de Cisco

Les économistes sont en train de comprendre que le moteur le plus puissant de la croissance est l’utilisation des NTIC dans tous les secteurs : entreprise, fournisseurs de services, PME, et aussi à la maison. Les NTIC continueront à être le facteur déterminant de la force économique des entreprises. L’Internet va continuer à évoluer, à changer tous les aspects de nos vies d’une manière inimaginable aujourd’hui.

Jim Clark, cofondateur et président de Netscape, président de Healtheon

En 2014 un seul système de communication traitera la voix, la vidéo et les données. Ce sera une expansion de l’Internet avec compatibilité ascendante. La technologie va transformer beaucoup d’activités, et laisser derrière ceux qui l’auront ignorée. Le pouvoir financier ainsi créé surpassera celui créé par la révolution industrielle, la Silicon Valley et San Francisco dépasseront New York en puissance financière.

Les entreprises les plus importantes

Voici les 16 entreprises les plus importantes pour les NTIC :

3COM Santa Clara, Calif.

Créée en 1979 par Robert Metcalfe, co-inventeur d’Ethernet.

3Com est avec plus de 180 brevets synonyme d’Ethernet. Ses innovations concernent tous les points importants :

traitement parallèle pour accroître le débit,

Fast Ethernet NICs et cartes pour PC,

technologie PACE pour le multimédia sur Ethernet,

connecteur Xjack qui relie un RLPC, un modem ou  une carte PC à une ligne téléphonique ou à un réseau câblé,

V.90 à 56 kbit/s qui permet des transferts à haut débit sur les réseaux téléphoniques,

répéteurs pour sécuriser les hubs Ethernet sur RLPC.

ADOBE San Jose, Calif.

Créée en 1982 par John Warnock et Charles Geschke

Adobe a créé la technologie d’impression PostScript, qui a permis aux utilisateurs de Macintosh et de PC d’imprimer exactement ce qu’ils voulaient (couleur, dessins, images et textes).

Adobe a acheté en 1994 Aldus, éditeur du logiciel PageMaker qui avait révolutionné l’édition sur PC dans les années 80.

Adobe est leader des logiciels d’impression et d’image. C’est une des plus grandes entreprises du logiciel avec un chiffre d’affaires annuel approchant le milliard de $.

APPLE Cupertino, Calif.

Créée en 1977 par Steve Jobs et Steve Wozniak

Apple a lancé la révolution de l’informatique personnelle dans les années 70 avec le Apple II, et réinventé l’ordinateur personnel dans les années 80 avec le Macintosh.

Apple a connu un ralentissement au milieu des années 90, mais redémarre avec l’iMac.

CISCO San Jose, Calif.

Créée en 1984 par Sandy Lerner et Len Bosack

Cisco est connue pour ses routeurs. Elle a lancé son premier routeur AGS en 1986 avec quatre salariés. Puis elle a développé des commutateurs et serveurs pour accès distant - matériel nécessaire pour les réseaux d’entreprise comme pour l’Internet. Elle a produit son cent millième routeur en 1993, et la même année elle a fait son premier achat avec Crescendo pour 89 millions de $. Avant 1996, Cisco a acheté huit entreprises, et elle en a ajouté depuis plus de 20. Sa stratégie d’acquisition des technologies qu’elle ne peut développer elle-même a réussi. En 1994, Cisco a fait plus d’un milliard de $ de chiffre d’affaires. En 1997, elle est devenu le partenaire du projet Internet2.

COMPAQ Houston

Créée en 1982 par Rod Canion, Bill Murto et Jim Harris

Compaq insiste sur la compatibilité et la qualité (d’où son nom). Elle a lancé en 1982 le premier ordinateur « portable » autour d’un processeur Intel 8088. Il pesait 15 kg, autant qu’une machine à coudre.

Quatre ans plus tard, en septembre 1986, Compaq lança l’industrie du clone PC avec le premier PC sur  Intel 386. En 1989, avec les Compaq LTE et LTE/286, le portable sur batterie devint un ordinateur complet avec disque dur et lecteur de disquette. Dans les années 90, Compaq revit sa structure de prix, commença à se placer sur le marché de la vente directe et diversifia ses activités avec entre autres l’achat de Digital.

COMPUSERVE Columbus, Ohio

Créée en 1969

Compuserve a été l’un des premiers fournisseurs de services en ligne. Avec la création de services de « bulletin board », Compuserve explora le marché du support technique en ligne – une préfiguration de l’Internet d’aujourd’hui. Compuserve est disponible dans 185 pays et a plus de deux millions de clients, ce qui n’est pas mal pour une entreprise qui a commencé par fournir du temps partagé.

America Online a acheté CompuServe au début de 1998. Le mois dernier, Compuserve et MCI WorldCom ont lancé MCI WorldCom Internet, un service pour consommateurs sur l’Internet utilisant le réseau MCI WorldCom's UUNet.

DELL Round Rock, Texas

Créée en 1984 par Michael Dell

Dell a créé en 1984 PC's Limited, petite entreprise qui devint plus tard Dell Computer. Elle a été la première à accepter des commandes par téléphone et à fournir un support technique sur site. La compagnie a décollé, ainsi que le concept.

Les entreprises aiment à acheter des PC personnalisés et préconfigurés. Après quelques cahots, y compris une incursion dans le commerce de détail, Dell est revenu à la formule du succès. Dans les années 90, Dell a ressenti la concurrence d’autres entreprises qui se mettaient à la vente directe, notamment Compaq, son voisin du Texas.

HAYES Norcross, Ga.

Créée en 1978 par Dennis Hayes, inventeur du modem

Hayes a lancé l’industrie de la communication appel par appel avec le modem et le jeu de commandes Hayes, premier exemple d’interopérabilité en informatique. D’autres fournisseurs de modems adoptèrent rapidement les commandes Hayes, et en firent un standard.

Access Beyond, entreprise de serveurs de  30 millions de $, fusionna en décembre 1997 avec Hayes Microcomputer Products pour créer Hayes Corp. La fusion fut un échec. Peu après son 20ème anniversaire, Hayes fit faillite. Elle a fermé ses portes le mois dernier – la fin d’une époque.

HEWLETT-PACKARD Palo Alto, Calif.

Créée en 1939 par Bill Hewlett et Dave Packard

HP a lancé son premier PC, le HP-85, en 1980. En 1984, l’entreprise lança l’impression à jet d’encre avec HP ThinkJet. La même année, HP lança son produit le plus fameux : l’imprimante LaserJet. 15 ans après, divers modèles de LaserJet sont utilisés dans les entreprises du monde entier. HP en a vendu plus de 20 millions.

En 1986, HP entreprit son développement le plus coûteux : une famille d’ordinateurs fondés sur l’architecture RISC. L’affaire coûta plus de 250 millions de $ sur cinq ans. En 1991, HP lança son premier Palmtop, le HP 95LX. Aujourd’hui la plus grande part du chiffre d’affaires de HP vient des ordinateurs – du Palmtop au supercalculateur – ainsi que des périphériques et des services.

HP s’introduit aussi sur le marché du commerce électronique. En 1997, il a acquis le concepteur de solutions de commerce électronique VeriFone.

IBM Armonk, N.Y.

Créée en 1911. En 1981, IBM a lancé le PC IBM, qui a coïncidé avec le recrutement de John Opel comme CEO.

L’IBM PC AT fut lancé en 1984. Le réseau Token Ring, lancé un an plus tard, était le favori pour relier PC et imprimantes dans un immeuble.

Cependant IBM a souffert à la fin des années 80 et au début des années 90. Il a été pris par surprise par les changements provoqués par la révolution du PC (échec de sa ligne de produit PS/2 fondée sur le Micro Channel et de l’OS/2), et par le glissement vers le modèle client serveur.

En 1992, IBM lança son premier portable populaire, le ThinkPad. Cependant en 1993 les pertes d’IBM ont atteint le record de 8 milliards de $. Lou Gerstner prit la tête de l’entreprise en avril de cette année-là. Deux ans plus tard, IBM avait un nouveau plan stratégique orienté vers les réseaux ; il prit le contrôle de Lotus et de Tivoli.

INTEL Santa Clara, Calif.

Créée en 1968 par Robert Noyce, Gordon Moore et Andy Grove

Intel démarra en fabriquant des mémoires sur puces, puis grâce à Federico Faggin et son équipe d’ingénieurs il créa la première puce programmable.

Intel lança le premier microprocesseur dans le début des années 70. Ce fut l’étincelle qui lança la révolution informatique. La création du microprocesseur est une des inventions principales de la technologie américaine. IBM utilisa le microprocesseur d’Intel en 1981 pour son premier PC. Intel a dépassé la « loi de Moore », du nom de l’un de ses cofondateurs, qui prévoit que le nombre de transistor que l’on peut placer sur une puce doublerait tous les deux ans. La première puce d’Intel, la 4004, avait 2300 transistors. Le Pentium Pro en a 5,5 millions. Plus de 80 % des PC utilisent la puce Intel.

LOTUS (filiale d’IBM) Cambridge, Mass.

Créée en 1982 par Mitch Kapor et Jonathan Sachs

Lors de l’année de sa création, Lotus annonça son premier produit au Comdex d’automne et le lança en janvier 1983. Le tableur Lotus 1-2-3 fut un des logiciels qui ont éperonné la révolution du PC. En 1986, Jim Manzi fut nommé DG et Mitch Kapor démissionna de son poste de président.

En 1989, Lotus lança une nouvelle activité en annonçant Lotus Notes, un « logiciel de groupware pour la communication de groupe ». Il fut au début difficile d’en faire comprendre le concept et les apports. En 1995, IBM réussit une OPA hostile sur Lotus pour 3,5 milliards de $.

MICROSOFT Redmond, Wash.

Créée en 1975 par Bill Gates et Paul Allen et inscrite en 1981

En 1981, Microsoft lança MS-DOS 1.0, utilisé sur le premier PC d’IBM. En 1985, Microsoft lança Windows – une interface graphique qui changeait la façon dont les utilisateurs de PC interagissaient avec leur système.

OS/2 fut lancé en avril 1987. Ce nouveau système d’exploitation avait été produit à partir de l’accord de développement de 1985 avec IBM. La même année, Microsoft lança Windows 2.0 et Excel. En 1988, Microsoft et Ashton-Tate annoncèrent le logiciel SQL Server pour les serveurs de SGBDR sur RLPC.

Microsoft devint en 1990 la première entreprise de logiciel pour PC à dépasser le milliard de $ de chiffre d’affaires annuel. Pour toucher le marché des ménages, Microsoft fit en 1992 une campagne de publicité télévisée ; il lança la même année Windows 3.1. En avril 1993, il existait 25 millions d’utilisateurs de Windows, et la même année Windows NT fut lancé. Deux ans plus tard,  ce fut Windows 95.

NETSCAPE Mountain View, Calif.

Créée en 1994 par Jim Clark et Marc Andreessen

Netscape aura cinq ans en 1999. Elle a surfé sur la vague de l’Internet. Marc Andreessen a créé le prototype du browser Mosaic pour l’Internet avec une équipe d’étudiants et de cadres de l’université de l’Illinois à Champaign. Le premier browser utilisant des images pour la navigation sur l’Internet était gratuit et fut bien reçu. Mosaic eut 2 millions d’utilisateurs dans le monde en un peu plus d’un an.

Une version bêta du navigateur Netscape fut livrée en octobre 1994, et les premiers produits furent livrés deux mois après. Netscape et Sun annoncèrent JavaScript un an après. En juin 1996, Netscape déclara plus de 38 millions d’utilisateurs de Navigator.

Mais le vent tourna après que Microsoft se fut lancé dans une compétition féroce pour le marché des browsers. AOL a acheté Netscape.

NOVELL Provo, Utah

Créée en 1983 par Ray Noorda

Novell a fait du RLPC une réalité. Les premières versions de son OS réseau NetWare permettaient de stocker des fichiers partagés et fournissaient l’accès à des imprimantes en réseau sur des serveurs à bas coût, pour un coût par utilisateur compétitif. Novell négligea toutefois de se soucier de la commodité d’utilisation de NetWare et répondit lentement à la demande de réseaux TCP/IP. Elle perdit donc des marchés en faveur de Windows NT.

Malgré ces difficultés et des rumeurs de rachat, Novell a survécu. NetWare a une base mondiale installée de plus de 81 millions d’utilisateurs et 4 millions de serveurs. NetWare 5.0 a été livré en septembre 1998. Sous la direction du CEO Eric Schmidt, Novell entend devenir leader du marché du logiciel de réseau Internet / Intranet.

SUN Palo Alto, Calif.

Créée en 1982 par Andreas Bechtolsheim, Bill Joy, Vinod Kholsa et Scott McNealy

Le premier système Sun, le Sun-1 sous Unix, fut lancé en 1982. En 1988, Sun a atteint 1 milliard de $ de chiffre d’affaires et livré son 100 000ème système. Le gros du chiffre d’affaires de Sun vient de ses ventes de matériel. Sun a également pénétré le marché du logiciel : il a lancé Solaris 2 –première version en boîte de SunOS – sous Unix SVR4, et présenté Solaris pour la plate-forme Intel X86 en 1991.

L’événement le plus important se produisit en 1995 lorsque Sun lança Java, premier logiciel universel conçu pour des applications Internet et Intranet destinées à tourner sur n’importe quel ordinateur, quels que soient le système d’exploitation ou le processeur. Java inaugura la bataille épique entre Microsoft et Sun, et lança un nouveau type d’informatique centré sur l’Internet.

Technologies importantes

Processeur 386

Le PC que nous connaissons aujourd’hui, avec son prix en chute libre et son aptitude à traiter des systèmes d’exploitation et des applications 32 bits, a démarré avec le lancement du 386 par Intel en 1985. Les ingénieurs d’Intel introduisirent dans son architecture trois améliorations clés :

gestion de la mémoire,

extensions à 32 bits

un 8086 virtuel.

Ceci permit aux développeurs de surmonter les barrières de mémoire et performance des précédentes puces d’Intel et de développer des systèmes 32 bits multitâches, tout en maintenant la compatibilité avec le DOS. Le 8086 virtuel décida du sort des systèmes d’exploitation pour PC en permettant au 386 de traiter en multitâche plusieurs sessions DOS à 16 bits et en donnant aux utilisateurs une raison décisive de préférer Microsoft Windows 3.x à OS/2 1.x.

CD-ROM

La taille des CD-Rom a épargné aux responsables informatiques les heures de travail fastidieux consacrées à charger les applications disquette après disquette. Bien que la technologie laser du CD-Rom ait dû attendre plusieurs années avant d’être acceptée, il existe maintenant d’innombrables applications (encyclopédies, jeux et autres programmes multimédia) disponibles sur ce support.

Initialement conçu pour porter 74 minutes de son de haute qualité, il peut maintenant contenir jusqu’à 650 Moctets de données. Les lecteurs de CD-ROM sont aujourd’hui plus rapides et moins cher que jamais, et ils sont en train de remplacer les disquettes. Cependant le CD-ROM commence à être concurrencé par les DVD-ROM et les disques optiques capables de contenir 4.7Goctets de données.

Cryptage

Sans les algorithmes de cryptage, le commerce électronique n’aurait pas pu devenir le socle de la prospérité de l’Internet. Le cryptage est crucial pour identifier les parties impliquées dans une transaction et sécuriser les transactions. « Pretty Good Privacy », créé par Philip Zimmermann, a été le point de départ avec son architecture ouverte et son package accessible de techniques mathématiques robustes. Les autres leaders dans ce domaine sont RSA Data Security, qui teste les limites des techniques de cryptage, et Certicom, avec des innovations comme la courbe de protection elliptique (économe en largeur de bande) qui fait partie de l’offre PalmNet de 3Com.

Groupware

Les années 60 et 70 sont l’âge de la messagerie. Les racines du groupware se trouvaient dans les systèmes de messagerie (« store and forward »[4]) et de conférence sur mainframe et mini, particulièrement dans les universités et la recherche.

Les années 80 et 90 sont celles du groupware. La mise en réseau des PC et la normalisation des protocoles répandent la communication dans l’entreprise et entre entreprises. cc:Mail de Lotus et MHS (Message Handling Service) de Novell aident à répandre la messagerie, alors que Lotus Notes fournit des outils de programmation personnalisée et le lien avec les applications externes. 

Les années 90 et 00 sont celles du temps réel :  le groupware a intégré les communications synchrones (conversation, visioconférence, partage d’applications), supprimé les barrières de temps et d’espace et permis d’importants changements dans l’organisation du travail et la vie quotidienne.

Jeu de commandes Hayes

Avant les sites web, il existait des Bulletin boards accessibles uniquement par modems, eux-mêmes contrôlés par le jeu de commandes Hayes. Ce jeu de commandes très technique est le premier exemple d’interopérabilité entre ordinateurs, et il forme le backbone permettant aujourd’hui l’accès au web depuis le domicile.

Même si Hayes a fermé en février 1999, les administrateurs de réseaux vont utiliser « ATDT » (« attention, dial, tone ») dans presque tous les scripts de dial-up pendant des années encore. Plus de 125 millions de modems Hayes sont installés en Amérique du Nord. Quoique le standard V90 ait supprimé les incompatibilités entre modems à 56 kbit/s, il faudra longtemps pour que les administrateurs de réseaux parviennent à la même interopérabilité avec les modems ADSL (« asymmetric digital subscriber line ») et les modems sur réseaux câblés.

ISA

ISA, le bus choisi pour remplacer le vénérable bus AT d’IBM, a été défini non par IBM mais par le « gang des neuf »  conduit par Compaq. Il a marqué le début de l’ère où les termes « PC » et « IBM » ont cessé d’être synonymes.

RLPC et Ethernet

Plus que tout autre produit, NetWare 2.11, Ethernet 10BaseT et 10Base2 ont apporté aux entreprises le partage des données et de la puissance de traitement. NetWare a transformé le micro-ordinateur en une machine analogue à un mainframe, et Ethernet permit de relier les ordinateurs entre eux.

Sans la synergie de ces technologies, l’explosion de l’Internet n’aurait pas pu se produire et le réseau d’ordinateurs serait resté coûteux. Elles sont évolutives : Ethernet devient sans cesse plus rapide et s’étend aux nouveaux médias, et les LAN s’interconnectent de plus en plus largement.

Macintosh

En 1984, Apple a lancé son Macintosh et changé pour toujours la façon dont les gens interagissent avec les ordinateurs en introduisant trois avancées technologiques majeures (utilisées d’abord dans la ligne de produits Lisa d’Apple) : une interface graphique ; une souris ; des disquettes 3.5 pouces à haute capacité et très solides.

La conception du Mac doit beaucoup aux idées du centre de recherche de Xerox à Palo Alto, mais Apple les retravailla et les rendit utilisables pour un ordinateur produit en masse.

En refusant d’adapter le MacOS à d’autres processeurs que la famille 68000 ou d’en vendre la licence à d’autres entreprises, Apple contraignit les fabricants de clones à chercher un autre système d’exploitation. Microsoft s’engouffra dans la brèche et, comme Apple perdait du temps en explorant trop de sentiers différents, Windows finit par devenir le système d’exploitation préféré des entreprises et des utilisateurs finals.

Toutefois, la migration d’Apple vers la puissante puce du Power-PC sur RISC d’IBM, puis la sortie de la ligne de produits iMac, continuent de tenir Apple à flot dans une mer de PC Windows.

Logiciel libre

Frustrée par le marché des logiciels en boîtes coûteux et qui ne tiennent pas les promesses annoncées, la communauté des informaticiens commença dans le milieu des années 90 à expérimenter le modèle du « logiciel libre » qui permet de toucher aux parties intimes du système. Alors que Microsoft essayait de définir sa stratégie concernant le Web et que Solaris se révélait trop cher, les entreprises commencèrent à utiliser des serveurs Web Apache développés sous Linux. Comme les logiciels sont de plus en plus compliqués, le logiciel libre devient le modèle de développement le plus efficace car il permet aux exploitants de travailler comme une communauté de développeurs utilisant une machine qu’ils contrôlent.

RAD

Durant les 15 dernières années, on a produit de nouveaux outils de développement avec environnement graphique pour produire l’interface utilisateur ainsi que des outils de test et de modification du logiciel. Au début, la RAD (« rapid application development ») n’a fait que resserrer le processus d’ « édition – compilation – débogage » qui fut longtemps l’essentiel de la programmation. Dans le milieu des années 80, des produits comme Turbo Pascal de Borland ont accéléré le développement d’applications pour PC DOS.

Cependant c’est Visual Basic de Microsoft, lancé en 1991, qui a défini le standard auquel tout nouvel outil doit se conformer (au moins pour la commodité du développeur, si ce n’est en performance ou robustesse des applications elles-mêmes). Avec la diffusion de composants logiciels divers, Visual Basic a accéléré une transition que des langages plus élégants n’avaient fait que promettre, pavant la voie pour des classes Java réutilisables ou d’autres outils nés depuis.

RISC

La technologie RISC (« Reduced Instruction Set Computer »), introduite par IBM sur les PC RT en 1986, a permis aux puces d’atteindre les sommets de la performance informatique. Elle était faite pour réaliser plus vite les opérations les plus habituelles et faciliter l’utilisation du microprocesseur grâce à des interactions mémoire plus prévisibles. Mais ceux qui proposaient le RISC ont sous-estimé la vitesse de progression de l’architecture X.86 d’Intel, ainsi que sa base installé en logiciels, outils et compétences.

Alpha de DEC, SPARC de Sun et PowerPC de Motorola ont tenté de prendre l’avantage sur Intel sur le plan de la pure vitesse de traitement, puis Intel introduisit les techniques RISC dans le cœur de sa ligne X86. Les puces Pentium, Advanced Micro Devices et d’autres appliquent les principes RISC pour l’optimisation interne tout en restant compatibles avec les versions anciennes. Les utilisateurs y ont gagné.

SCSI

Au début des années 80, la plupart des gens ne se souciaient pas de l’interopérabilité de leurs disques durs. Mais Al Shugart compris qu’il fallait un accès standard aux périphériques si l’on voulait que le PC soit largement accepté par le marché.

En 1986, le SCSI offrit un accès octet par octet aux données, ainsi qu’un adressage logique, supprimant le besoin d’un accès en série, lourd et inefficace, pour des données à adressage physique. Toutefois, c’est lorsque le « Common Command » fut ajouté un an après au SCSI qu’il devint la base du langage de communication avec les périphériques, pavant la voie pour d’importantes innovations comme RAID.

VGA

On avait déjà fait de la couleur sur PC avant, mais l’inclusion du VGA dans la ligne PS/2 par IBM en 1987 fut l’événement important. On sautait de 16 à 256 couleurs avec une résolution de 320 pixels par 200. On pouvait aussi faire du 16 couleurs avec une résolution de 640 pixels par 480. Cela favorisa le lancement des GUI, de l’édition et des jeux d’arcade sur PC. Même aujourd’hui, VGA est la base de tout adaptateur vidéo sur le marché.

 VGA fut une des dernières grandes contributions d’IBM à la conception du matériel pour PC. L’innovation fut ensuite le fait de ses concurrents.

Le Web

1990-1993: création. Quand Tim Berners-Lee appliqua l’hypertexte à l’Internet et forgea le terme « World Wide Web », il envisageait un moyen d’introduire une collaboration facile dans les projets. En fait il a signé une des grandes inventions de notre époque, en transformant l’Internet universitaire en un média qui changeait la distribution de l’information.

1994-1995: âge du Web: dans les neuf années après le développement du premier browser et du premier serveur au CERN,  le Web a acquis l’ubiquité. L’information et la publication furent les premières forces qui l’ont tiré, accélérées à la fin de 1993 par Mosaic et son utilisation graphique.

1996-1998: âge du commerce : le milieu des affaires perçoit le potentiel du Web et cherche à en tirer parti. L’accroissement de la sécurité a réduit les réticences des clients envers l’achat sur le réseau, tandis que des techniques comme XML facilitent l’utilisation du Web pour les affaires.

Windows

Windows est un exemple de la méthode pragmatique qui a conduit Microsoft au succès. D’abord pale imitation de l’interface graphique du Macintosh, Windows était plein de bogues et handicapé par le DOS sous-jacent. Toutefois Microsoft a montré de nouveau que l’attention à la compatibilité ascendante, à des besoins peu intellectuels mais tirés par la productivité, au support aux développeurs et à l’OEM sont plus importants que des qualités techniques pour le succès d’un système d’exploitation.

Il en résulta une adoption massive de Windows sur les PC. Microsoft appliqua en 1993 la même formule pour faire adopter Windows NT par les serveurs et stations de travail, mettant Novell et Unix sur la défensive.

Paris gagnants

Six projets risqués qui ont réussi :

Federal Express

En 1984, FedEx a lancé « Supertracker », fondé sur le système de « tracking » des paquets bâti sur mainframe et baptisé « Customers, Operations, Services, Master On-line System ». Ce système permettait aux coursiers sur le terrain d’utiliser des outils communicants manuels et un réseau radio numérique pour entrer le statut et la position des paquets (40 000 outils aujourd’hui, 6 millions d’enregistrements quotidiens).

Les clients pouvaient connaître par appel téléphonique la localisation de leurs paquets et la date de livraison attendue. FedEx fit de la publicité pour ce système et gagna des parts de marché contre UPS.

Le groupware

En 1989, les responsables du système d’information à Price Waterhouse ont fait un choix audacieux : ils ont supprimé la messagerie électronique qu’ils venaient d’installer sur 10 000 postes et l’ont remplacée par un produit nouveau, que personne ne comprenait bien, et qu’ils déployaient en outre sous OS/2 !

Price Waterhouse a ainsi été la première grande entreprise à déployer Lotus Notes au niveau mondial. Cela lui a permis de gérer ses projets globalement.

Le groupware a décollé, notamment dans les entreprises de service. Coopers & Lybrand – qui a fusionné avec Price Waterhouse en 1998 – a installé Notes en 1993, et cet acquis a facilité la fusion entre les deux entreprises.

Aujourd’hui, la compagnie résultant de la fusion a plus de 100 000 utilisateurs de Notes. Toutefois elle a migré d’OS/2 vers Windows au milieu des années 90.

L’interface graphique

En 1990, au milieu d’une grave crise conjoncturelle dans le transport aérien, United Airlines a jugé rentable de remplacer ses terminaux « bêtes » par des PC dotés d’une interface graphique (GUI).

Trouvant Windows trop instable, United a développé sa propre interface graphique. Le système, installé sur des PC 80206, permit de diminuer le délai de traitement d’une réservation de 10 %, de réduire de 25 % la durée de la formation, et d’économiser 9 millions de $ dès la première année.

Datawarehouse

Dans le milieu des années 80 Wal-Mart voulait s’étendre au delà de son marché du Middle West. Mais comment gérer plusieurs magasins en tenant compte des particularités de chaque marché local ?

Les managers de Wal-Mart eurent l’idée de collecter les données sur les ventes et de les utiliser pour répondre rapidement à des changements dans la tendance de la demande ou dans les stocks.

Il en résulta un des plus grands succès du datawarehouse. Le système grimpa rapidement à 700 Go. Il permit au détaillant de partager avec ses fournisseurs l’information sur la demande et de leur faire gérer ses stocks. Wal-Mart améliora sa performance et surpassa les géants Sears et Roebuck and Co.

Entre temps le datawarehouse, exploité sur du matériel NCR Teradata, a cru jusqu’à 24 Teraoctets.

Livres et nouvelles technologies

En 1995, les géants comme Barnes & Noble et Crown Books se faisaient concurrence en développant leurs réseaux de librairies.  Jeffrey Bezos, informaticien chez Bankers Trust à Chicago, se lança sur l’Internet. Il a créé Amazon.com, devenu la première réussite du commerce électronique au moins si l’on considère le cours de son action (car pour le profit c’est autre chose…).

Malgré les inquiétudes concernant la sécurité sur le réseau, Amazon a démontré que l’on peut faire du commerce électronique. Elle offre maintenant 4,7 millions de titres en ligne, des CD, des livres audio, des DVD et des jeux pour ordinateur.

4,5 millions de personnes de 160 pays ont acheté des produits chez Amazon. Crown est sorti du marché, Barnes & Noble se sont mis au commerce électronique.

Vendre des PC en ligne

Dell a prouvé qu’il est rentable d’intégrer le commerce électronique avec le traitement d’une chaîne d’approvisionnement.

Lancé au début de 1997, le site de Dell donne aux clients des dates de livraison exactes en contrôlant les stocks de pièces détachées lors de la passation de la commande. Dell partage en temps réel avec ses fournisseurs les informations sur la demande, ce qui permet de diminuer les coûts d’immobilisation et d’améliorer le service au client.

Les ventes ont monté jusqu’à 10 millions de $ par jour.

Grandes dates de la vie des produits

1984

Le tableur pour PC Lotus 1-2-3 incite les entreprises à acheter beaucoup de PC.

Macintosh émerge comme une alternative au PC MS-DOS.

1985

Le PC AT remporte un grand succès.

Ce fut une année de lancements significatifs. IBM annonça en octobre son RLPC Token Ring : 260 PC pouvaient être reliés par une paire torsadée. Token Ring fut adopté presque instantanément comme un standard. Dans le même mois, Intel annonça son processeur 386 à 16 MHz, qui améliorait de façon significative la puissance du PC. Microsoft livra Windows 1.0 en novembre, apportant le GUI aux utilisateurs.

1986

C’est l’année de la base de données sur PC avec dBASE.

Excel émerge.

Digital Equipment connaît sa meilleurs année et devient une menace pour IBM, mais ce sont les derniers feux du mini ordinateur.

Compaq introduisit le premier PC 386, battant IBM aux points et lançant le marché des clones PC. Le nombre d’ordinateurs aux Etats-Unis dépassa 30 millions, et l’utilisation de la messagerie s’accrut. MCI Mail et Compuserve, par exemple, offrirent des liens entre leurs messageries respectives ; ce fut la première interconnexion - certes limitée - entre fournisseurs concurrents de messagerie.

1987

Les 386 commencent à détrôner les PC AT.

IBM lança sa série PS/2 ; elle ne connut pas le succès, mais cependant l’inclusion de l’écran VGA marqua la première intégration du graphique sur une interface PC. IBM lança aussi OS/2. Cédant à la demande des utilisateurs, Lotus ôta de son tableur 1-2-3 la protection contre les copies.

1988

Unix gagne en notoriété et érode la confiance dans les mini ordinateurs et les mainframes.

Apple poursuivit Microsoft et HP en justice à propos de la présentation de l’interface PC. Sur le front du matériel, Compaq prit la tête d’un consortium de fournisseurs, connus comme « le gang des neuf », et créa le standard EISA pour contrer le Micro Channel du PS/2 d’IBM. Quelques semaines après l’annonce de l’EISA, IBM ressuscita son bus AT avec le modèle PS/2 30-286. Il révéla aussi son offre de mini AS/400.

1989

Ethernet 10BaseT démarre. C’est l’année des RLPC. Les hubs et adaptateurs de SynOptics et 3Com sont partout. Cela prépare la voie des applications client / serveur des années 90.

En avril, Intel annonça le processeur 486. Autres annonces importantes : OfficeVision d’IBM, sa première suite d’applications Systems Application Architecture ; Lotus 1-2-3 Version 3.0; le portable Macintosh d’Apple ; et les premiers systèmes utilisant le bus EISA. Compaq entra sur la scène du portable avec son LTE/286 alimenté par batterie. A la fin de l’année, il y avait 100 000 ordinateurs sur l’Internet, et le nombre d’ordinateurs dans le monde dépassait 100 millions.

1990

C’est l’année des WAN qui interconnectent les RLPC de l’entreprise, l’année des routeurs.

Au début d’avril, Lotus et Novell annoncèrent une fusion qui échoua un mois plus tard. Pendant que Lotus se réorganisait, Microsoft dépensa 10 millions de $ pour lancer Windows 3.0. En septembre, IBM et Microsoft redéfinirent leur partenariat : IBM prit la responsabilité d’OS/1.x et 2.x, et Microsoft eut l’OS/2 portable, DOS et Windows. Motorola lança son processeur 68040 et Apple lança ses Macs bas de gamme : le Classic, le LC et le IIsi.

1991

Windows est partout, en position de monopole. OS/2 disparaît de la scène.

1991 fut l’année de naissance du WWW : Tim Berners-Lee, au CERN, monta le premier serveur Web. Les dépenses des entreprises en informatique dépassèrent les dépenses en équipement industriel, agricole et en construction.

1992

C’est l’année des applications sur RLPC. NetWare est partout, et tout le monde s’intéresse au groupware avec Lotus Notes. L’outsourcing émerge, avec le gros contrat passé par Kodak.

IBM et Microsoft mirent officiellement un terme à leur accord de coopération. Pour la première fois, les comptes annuels d’IBM firent apparaître une perte de 564 millions de $. Le départ de Ken Olsen marqua le début d’une ère nouvelle pour Digital. Intel annonça son « clock doubler » et lança le processeur 486DX2. IBM annonça le premier de sa série de notebooks : le ThinkPad. Le nombre d’ordinateurs sur l’Internet atteignit 1 million.

1993

Début du large déploiement du Pentium.

Les comptes d’IBM firent apparaître la pire année de son histoire, avec une perte de 4,97 milliards de dollars pour un chiffre d’affaires de 64,5 milliards. Lou Gerstner prit les rênes d’IBM en remplaçant John Akers : Gerstner était le premier « outsider » qui prenne le poste de CEO. Apple perdit son procès contre Microsoft et HP. 1993 fut l’année de plusieurs annonces technologiques importantes : Intel lança le processeur 60 MHz Pentium, Apple sortit le Newton, Novell annonça NetWare 4.0, Lotus Notes 3.0 démarra, et Microsoft révéla Windows NT.

1994

L’architecture client / serveur prend pied sur le marché.

Intel mit un terme à son cauchemar de relations publiques en lançant une politique délibérée de remplacement de la puce Pentium. Les utilisateurs ne furent pas contents lorsque Microsoft annonça que Windows 95 ne serait pas livré avant août 1995, contraignant ainsi beaucoup à revoir leurs plans de migration vers le Windows 32 bits. La frénésie des fusions et acquisitions continua, Novell achetant WordPerfect pour 1,14 milliard de $, et Aldus et Adobe fusionnant pour 525 millions de $. Apple entra sur le marché de la vente en ligne avec eWorld, et Netscape, le chéri de Wall Street, fit ses débuts.

1995

Les Notebooks deviennent une alternative au desktop avec les portables Pentium. Il en résulte un développement du télétravail.

 IBM fit une offre de 3,5 milliards de $ pour acheter Lotus. En août, Microsoft livra Windows 95 et Intel lança le Pentium Pro à 150-200 MHz. Compuserve, AOL et Prodigy commencèrent à offrir des accès au Web, et Netscape lança la troisième plus importante augmentation de capital sur le Nasdaq. A la fin de l’année, 9 millions d’ordinateurs étaient connectés au Web.

1996

Le monopole confirme son emprise : Windows 95 s’empare du PC. NT gagne du terrain contre NetWare comme plate-forme pour serveur.

En 1996, le Web dynamisa le secteur. Les Network Computers dépassèrent le stade du pur concept pour se concrétiser par de vrais annonces de produits. Les Intranet d’entreprise devinrent une réalité, et Java fit les premières pages des journaux. Les entreprises commencèrent à développer des sites Web, et www.com devint un terme courant. Microsoft adopta finalement le Web. En juillet, 12 800 000 ordinateurs étaient connectés à l’Internet.

1997

C’est l’année de l’Intranet : la grande majorité des entreprises l’utilisent. Le commerce électronique émerge. Les suites ERP sont partout.

La frénésie du Web continua de plus belle. Le fait que l’Internet était ouvert aux entreprises n’était pas un secret. La navigation devint plus facile avec des browsers et des outils de recherche améliorés. La puissance de traitement s’accrut lorsqu’Intel annonça le Pentium 200 MHz avec la technologie MMX.

1998

L’an 2000 effraie tout le monde. Le manque de personnel en informatique devient aigu. L’outsourcing et les services s’épanouissent.

 « En avant vers le Web ! » : la page de titre du 26 janvier représente bien l’année. Plusieurs événements importants non reliés au Web se produisirent néanmoins, comme l’achat de Digital par Compaq, mais le grand thème fut toutefois le commerce sur l’Internet. Pendant que la bataille entre Microsoft et le ministère de la justice commneçait à devenir sérieuse, le vrai business se faisait sur le Web.

Technologies à surveiller

Vous en avez entendu parler, car les concepts ne sont pas nécessairement nouveaux - mais il faut leur être attentif : elles sont prêtes à décoller et vont avoir bientôt un impact sur vos organisations.

Internet2

Des universités qui s’associent pour créer un backbone non commercial à haut débit : c’est déjà arrivé avec l’Internet, et c’est en train d’arriver de nouveau avec Internet2, initiative lancée par 34 universités en 1996 qui réunit maintenant plus de 140 universités et 45 entreprises. Le nouvel Internet servira de banc de test à des technologies avancées comme QOS (qualité de service), la vidéo numérique, la multidiffusion et le stockage distribué.

Plusieurs de ces technologies migreront vers l’Internet, offrant aux utilisateurs une largeur de bande et une performance accrues en même temps que des applications multimédia coopératives.

Le but est de garder la séparation des deux réseaux pour maintenir vivant l’esprit de recherche et les usages non commerciaux dans le futur.

Les câbles sont remplacés par l’éther

Les réseaux sans fil vont restructurer l’industrie informatique plus que tout autre développement. Nous ne serons plus reliés par des fils à nos bureaux, nos immeubles ou même nos maisons.

La technologie radio large bande devient assez standardisée pour percer dans les transmissions de données. Les techniques de compression de données peuvent être utilisées pour communiquer des quantités croissantes de données sur une largeur de bande limitée.

Du côté des RLPC, le standard 802.11 va finalement conduire à la diffusion des adaptateurs sans fil. Pour les communications distantes, la technologie PCS (« Personal Communications Service ») va inclure progressivement de plus en plus de services de données.

Alors que la révolution des réseaux des années 90 a largement utilisé les câbles, les premières années du prochain millénaire vont voir le remplacement des câbles par l’éther. Si on pouvait seulement trouver le moyen de transmettre l’énergie par l’éther…

Backbones rapides

Les améliorations continues de la technologie des backbones garantissent que les prédictions de crash de l’Internet par surcharge de trafic ne se réaliseront pas.

Fast Ethernet, les commutateurs de niveau trois et maintenant Gigabit Ethernet ; attendez vous à d’autres percées dans la transmission de paquets et le routage. Gigabit Ethernet migrera de la fibre optique vers le cuivre, comme l’a fait Fast Ethernet. Terabit Ethernet est proche.

Les commutateurs de niveau 3 sont dans l’enfance mais finiront par devenir la technologie de base des routeurs sur l’Internet.

Fusion de la voix et des données

Avec la numérisation du signal, « la voix, c’est des données ». En traitant la voix comme une forme de données, les directions informatiques et télécoms seront capable de fusionner leurs deux réseaux. La convergence de la voix et des données ne va pas changer la façon dont nous parlons, mais va changer beaucoup d’autres choses. Les services de réseau intelligent ne se limiteront pas à l’identification d’appel : ils vont évoluer vers des applications entrelacées avec des systèmes informatiques utilisant la voix comme un médium pour accéder au système. Les pages Web auront des boutons « cliquer pour appeler », et le terme « messagerie vocale » va prendre un sens nouveau.

Satellites

L’espace près de la terre est plein de constellations artificielles : les réseaux de satellites.

A la différence d’autres infrastructures, les satellites peuvent communiquer à distance sans exposer un matériel coûteux aux fantaisies des politiciens ou des vandales. Des câbles de cuivre peuvent être volés, des gouvernements capricieux peuvent saisir les générations anciennes de stations terrestres. Mais un téléphone portable par satellite est sûr, et les satellites sont hors de portée de quiconque.

Le GPS (« Global Positioning System ») permet une gestion intelligente du transport, de la production et d’autres opérations dans lesquelles des décisions doivent être prises selon la localisation des installations. Liés aux satellites météorologiques, les véhicules équipés de GPS peuvent accroître l’efficacité des activités économiques. En outre, lorsque l’accès aux données et la communication sont possibles entre tous les points du monde, cette efficacité concerne la population du monde entier.

La puissance du DSP

Aucun outil ne donne plus de chances de modifier la façon dont nous utilisons les ordinateurs que le DSP (« digital-signal processor »).

Quelques applications apparemment simples, comme la reconnaissance vocale et le traitement d’images, demandent une masse énorme de calcul. Mais le DSP ne va pas jouer un rôle de pivot seulement dans les ordinateurs. Les méthodes d’accès aux réseaux large bande (DSL (« digital subscriber line ») et modem sur réseau câblé aux réseaux sans fil) ont besoin du DSP.

Trouver des « crackers » pour la sécurité

Willie Sutton disait qu’il attaquait les banques « parce que c’est là que l’argent se trouve ». Comme l’essentiel des actifs négociables se transforme en flux de données, les endroits où se trouvent les données commerciales deviendront la cible des terroristes et des gangsters. La sécurité des ordinateurs est l’activité qui va connaître la plus forte croissance dans la prochaine décade.

Les directeurs informatiques de la prochaine génération devront limiter les risques en protégeant leurs entreprises contre des attaques astucieuses.

Or les informaticiens connaissent l’art de faire marcher les choses, mais n’ont généralement pas la tournure d’esprit nécessaire pour anticiper la façon dont un système peut être conduit à mal se comporter. Les spécialistes de la sécurité doivent penser comme des « crackers », non comme des opérateurs, et les bons spécialistes pourront se faire payer leur prix.

« Knowledge management »

La montée de l’Internet, des Intranet et des ERP (« enterprise resource planning ») a inondé les utilisateurs de plus d’informations qu’ils ne peuvent en digérer.

Pour éviter que les utilisateurs soient submergés, les responsables informatiques vont chercher des solutions de « knowledge management ». Elles seront cruciales pour la conduite de l’entreprise, même si cela demande une évolution culturelle.

Plusieurs entreprises ont créé un nouveau poste -- « chief knowledge officer » -- pour superviser cette tâche.

XML démarre où HTML s’arrête

Le Web donne accès à un monde de données, mais beaucoup d’utilisateurs trouvent cet accès mal documenté. Avec XML (« Extensible Markup Language ») le Web a enfin une notation standard décrivant le sens des données.

HTML peut présenter un tableau, mais non les relations entre éléments du tableau. XML permet aux auteurs de pages Web de créer et utiliser leur propre vocabulaire pour donner plus de profondeur aux données. Les pages seront capables de filtrer et présenter les données avec des moyens plus puissants que l’outil de recherche textuel qui rend les moteurs de recherche si frustrants.

Des notations de haut niveau sont en cours de construction sur les fondations XML. « Resource Definition Format », pour décrire un site Web ; « Precision Graphics Markup Language » et « Synchronized Multimedia Integration Language » sont parmi les outils des futurs auteurs de pages.

Linux prendra sa part des systèmes d’exploitation

Linux ne prendra peut-être pas beaucoup de part de marché à Microsoft, mais tous les vendeurs de base de données reconnaissent dans Linux une plate-forme possible. Beaucoup de vendeurs d’applications guignent le marché des PC Linux. Les directeurs informatiques prennent confiance dans les compétences des développeurs Linux et dans des distributeurs comme Red Hat pour offrir une réactivité que Microsoft ne peut pas - ou ne veut pas - fournir.

Les directions informatiques seront tentées de construire des systèmes sur une plate-forme largement partagée, mais qu’ils peuvent tailler en fonction de leurs besoin avec l’aide d’experts qui répondent au téléphone depuis leur domicile.

Se coordonner avec des méta-annuaires

Les méta-annuaires permettent de lier et coordonner plusieurs annuaires.

Jusqu’à présent, seuls quelques petits fournisseurs ont produit des méta-annuaires, et les utilisateurs ne souhaitent pas investir dans les plates-formes existantes dans l’espoir d’une meilleure rentabilité grâce à la standardisation sur une seule plate-forme.

Netscape exploite cette tendance en publiant son Meta Directory 1.0, qui utilise la technologie d’Isocor pour relier Microsoft Exchange et Lotus Notes, les ERP de SAP et PeopleSoft, et les bases de données d’Oracle, Sybase et Informix.

DSL prêt à l’emploi

DSL va bientôt devenir un moyen privilégié pour connecter les entreprises à l’Internet.

Les technologies DSL - DSL à haut débit, DSL à haute densité, DSL symétrique et DSL RNIS - répondent aux besoins d’accès à haut débit dans les domiciles et les bureaux parce qu’elles utilisent les lignes téléphoniques existantes, à la différence des modems sur câble qui utilisent le câble coaxial de la télévision.

Les fournisseurs offrent des équipements et les grands exploitants télécoms sont sur le coup, rejoints par de petits acteurs qui se spécialisent en DSL.

Les micropaiements font les grandes recettes

Personne aujourd’hui ne penserait à acheter sur l’Internet quelque chose qui coûte 1 F ou moins. Les micropaiements, qui permettent de facturer commodément des biens qui coûtent quelques francs, vont changer tout ça.

Avec une bonne plate-forme de micropaiement, des modèles d’entreprise nouveaux vont se créer, en permettant à des éditeurs de faire payer 1 F pour voir un article en ligne. La vente de plusieurs nouveaux produits deviendra ainsi possible sur l’Internet.

Nouvelles formes de coopération

Au delà de la messagerie et de la visioconférence, les outils coopératifs vont combiner données historiques, analyses prévisionnelles et discussions en temps réel pour créer un processus de décision plus rapide et mieux informé.

La croissance de la largeur de bande des réseaux sera multipliée, en effet, par des algorithmes de compression sophistiqués. Des outils d’analyse des contenus permettront de trouver plus facilement les expertises nécessaires.

Prendre le « clustering » au sérieux

« Clustering », longtemps le Graal des technologies de serveur, notion courante dans le monde des mainframes et des minis, remporte maintenant des succès dans le marché des PC.

Les vendeurs de systèmes d’exploitation comme Sun, Microsoft et Novell ont travaillé à associer les machines, mais n’ont pas été beaucoup plus loin que des clusters à deux machines fournissant un simple back up sur la deuxième machine si la première tombe en panne.

A partir de 1998, les fournisseurs de systèmes d’exploitation ont cherché à fournir des machines plus « scalables », et les développeurs d’application ont commencé à considérer les plates-formes de clusters.

Tendances du futur

Voici quelques tendances autour desquelles l’informatique peut se redéfinir.

Des outils vraiment mobiles

Des outils de stockage de masse miniaturisés, des microprocesseurs efficaces et des réseaux sans fil feront de l  ‘ordinateur mobile le composant de base des futurs systèmes d’information personnels.

La portabilité ira plus loin que l’interaction limitée entre le clavier, la souris et le stylet : le micro et la caméra libéreront la main de la saisie, la synthèse vocale libérera l’œil de la lecture. Le PDA ne sera pas seulement un agenda et un bloc-notes, mais un support de notre mémoire donnant accès sur simple appel à un stock de connaissances.

En 15 ans, le poids des machines portables s’est réduit d’un facteur 10, alors que leurs mémoires étaient multipliées par 100 ou par 1000. Avec la baisse continue du coût du matériel, nous pouvons prévoir des applications fiables et transparentes, sans la complexité de Windows ou les limitations des PDA actuels. Ceci permettra de nouvelles applications portables.

Pénurie de main d’œuvre en informatique

La pénurie de main d’œuvre est un défi pour les professionnels de l’informatique. D’un côté, le manque d’expertise dans des domaines comme les logiciels ERP, le commerce électronique et l’an 2000 a accéléré la carrière des professionnels possédant les connaissances nécessaires. En même temps la pénurie atteint les proportions d’une crise avec peu de signe d’amélioration.

Les responsables informatiques doivent avoir des démarches d’embauche proactives. Ils doivent explorer de nouveaux outils comme les sites d’embauche sur le Web, les logiciels de gestion de compétences et les moteurs de recherche.

Toutefois ces pratiques ne suffiront pas à garantir la stabilité d’un service informatique. Les CIO d’aujourd’hui sont en compétition avec les entreprises de consulting et les SSII qui s’efforcent de leur enlever les meilleurs ingénieurs. Ils vont donc devoir maîtriser les méthodes de gestion d’équipe pour s’assurer de la satisfaction et de la fidélité de leurs collaborateurs.

Explosion de la sécurité

L’explosion des technologies de sécurité va changer la façon dont nous percevons les traitements et les accès aux données.

Avec les VPN, les firewalls, les politiques de sécurité administrées centralement, les extranets, les intranets et surtout l’Internet, la façon dont salariés et clients accèdent aux données de l’entreprise change.

Pour pouvoir mettre les données de l’entreprise à la disposition des fournisseurs, des clients et des partenaires, l’informatique doit maîtriser les outils et méthodes de sécurité ; elle doit pouvoir également mettre en œuvre des outils d’administration permettant de suivre souplement les changements de personnes et autres évolutions.

Folie des fusions et acquisitions

Alors que les portails du Web se précipitent pour s’acheter ou se vendre mutuellement, les fusions et acquisitions dans le commerce électronique ne font que débuter.

Poussées par de nouveaux acteurs qui cherchent à se tailler un territoire sur ce domaine en expansion, fusions, acquisitions et entrées en bourse n’ont pas encore atteint leur plein potentiel. Les fortes valorisations boursières y sont pour quelque chose ; mais une fois la bulle crevée, les Amazon et Yahoo pourraient être de bonnes occasions pour des entreprises désireuses d’entrer dans le jeu.

L’achat d’AltaVista par Compaq, à travers Digital, et de Shopping.com, pourrait être la part émergée de l’iceberg. Bientôt IBM et Sun se mettront à acheter eux aussi.

De grandes compagnies des médias souhaitent entrer sur le marché. En témoignent la joint venture entre Walt Disney et Infoseek, l’achat de Netscape par AOL et l’accord entre NBC et CNET. Lycos, qui dit vouloir rester indépendant, et Microsoft sont sur le point de conclure[5].

Le choix des clients

Une fois un paradigme établi, il reste stable jusqu’à ce qu’une alternative présente un coût moindre et une distribution plus large, même si sa qualité n’est pas meilleure. Quand les temps sont mûrs pour le nouveau paradigme, on dit qu’il y a un « point d’inflexion stratégique ».

Cette expression a été vulgarisée dans le livre d’Andrew Grove, précédent patron d’Intel « Seuls les paranoïaques survivent ». C’est ainsi que le PC, ses systèmes d’exploitation et ses applications ont remplacé les mini et les mainframes.

Pendant l’ère du PC, le paradigme du système d’exploitation à bas coût largement diffusé - le paradigme de Microsoft - a dominé. Il pourrait maintenant être détrôné par le paradigme de l’  « open source », par Linux.

Ce second paradigme implique que le logiciel devient un bien pratiquement gratuit et que chacun participe à sa construction. En un sens, chacun participe déjà à la construction des produits de Microsoft, mais ils ne sont pas gratuits.

C’est le logiciel « open source », non le ministère de la justice, qui pourrait être la plus grande menace pour l’hégémonie de Microsoft.

Un corollaire de la révolution « open source », c’est que les grandes entreprises ne vont plus tolérer la succession de versions différentes. Les utilisateurs comprennent qu’ils jouent gratuitement le rôle de testeur de logiciels. Et même avec des centaines de milliers de bêta testeurs, les produits de Microsoft sortent avec des bugs.

Louer les applications

Les suites classiques pour PC vont disparaître, car de plus en plus l’entreprise loue les applications sur l’Internet plutôt que de les acheter.

Les utilisateurs vont se limiter aux applications nécessaires à des employés spécifiques pour des travaux spécifiques. Si les besoins changent, les logiciels utilisés par une nouvelle génération de loueurs évolueront.

Règles du commerce électronique

Le Web est une place de marché. Même si l’EDI a servi pendant des années, l’ubiquité, la facilité d’utilisation et le bas coût du Web en font le meilleur choix.

Les employés qui traitent du papier tomberont dans l’oubli, car leurs fonctions seront automatisés et les clients voudront pouvoir parler à une personne.

Les extranets permettront aux entreprises de parler à leurs fournisseurs et leurs clients. Les divers secteurs vont s’équiper d’extranets pour accroître leur efficacité à l’exemple, pour les pièces détachées, du « Automotive Network Exchange » en construction automobile et de RosettaNet pour les industries électroniques.

Il y aura des conséquences inattendues, parfois négatives. Le Cybercrime va croître. Le pouvoir judiciaire fera de son mieux pour empêcher les délits mais il sera gêné par un appareil juridique obsolète. Le gouvernement répondra par des lois sur le commerce électronique dont on discutera encore dans 15 ans.

7/7 et 24/24

7/7, 24/24 deviendra la règle et non l’exception pour les centres de données. Pourquoi parler de « centre de données », s’il ne garantit pas la pleine disponibilité des données ?

Le commerce électronique y pousse, car des clients du monde entier doivent pouvoir faire des transactions selon leurs horaires locaux. Ce sera possible parce que le coût du stockage décroît, la largeur de bande devient disponible et les back up en cluster se développent.

Mais l’ordinateur ne suffit pas : il faut que les opérateurs soient au travail ou en astreinte pour que le système marche et pour pouvoir répondre aux questions des clients. « L’informatique est en panne » : les compagnies où cette phrase s’entend encore ne survivront pas longtemps.

Mini-Microsofts

Microsoft va sans doute finalement éclater. Cela accroîtra à la fois la concurrence et la capitalisation boursière de Microsoft.

Microsoft semble vouloir éviter cet éclatement par dessus tout, mais c’est en fait ce qu’il souhaite en secret.

La concurrence entre les « Baby Bills » (systèmes d’exploitations, applications, contenu et nouveaux media) aidera les utilisateurs car ils auront plus de choix que jamais. Et ces nouvelles entreprises réussiront bien, car elles pourront faire de nouveaux produits une fois libérées de la stratégie qui les lie de façon rigide à Windows.

Le PC devient un outil

L’époque du PC coûteux et compliqué se termine ; il devient un outil.

Style et couleur seront des facteurs marketing importants ; les machines deviendront plus génériques. Les prix pour un système d’entreprise complet dépasseront rarement 1000 $. Les appartements auront des réseaux reliant ces outils à d’autres.

Les écrans plats, autrefois un luxe, deviendront communs. Microsoft va se dépêcher d’appliquer la technologie Windows CE à des outils comme les lecteurs de DVD.

En parallèle, les Palmtops vont accroître leur puissance et leurs applications. Jini va jouer son rôle de technologie réseau pour tous les outils, d’abord sur les RLPC, puis sur les WAN.

Vers les VPN

Les directions informatiques qui souhaitent implanter des VPN comptent sur des promesses de simplification et de réduction des coûts.

Avec les VPN, les utilisateurs peuvent appeler un fournisseur d’accès local, avoir accès à l’Internet et ensuite au réseau d’entreprise. En cas des problème, ils appellent le fournisseur d’accès.

Au delà de cette application, les VPN promettent d’accroître l’efficacité des relations avec les clients, fournisseurs et partenaires. Aujourd’hui seules des directions informatiques importantes peuvent assurer des interconnexions de réseaux privés entre plusieurs entreprises pour partager des informations sensibles ou s’envoyer des factures en utilisant l’EDI. L’EDI fera place à des extranets fondés sur les VPN ouvrant aux clients l’accès à des données sensibles ou aux tarifs tout en protégeant ces données des concurrents, l’Internet étant utilisé pour assurer les connexions.

Cependant les réseaux privés appel par appel et les réseaux fondés sur l’EDI persisteront, le temps de voir si les VPN tiennent ou non leurs promesses.

Java

Le lancement de Java 2.0 change l’image de Java comme langage et comme plate-forme.

Java 2.0 revient en force dans l’informatique d’entreprise. Il permet de mettre en œuvre e potentiel de Java en matière de sécurité, tandis que l’accès de Java aux objets distribués via Corba, ainsi qu’aux bases de données SQL, en font le langage de choix pour tout système informatique.

Java 1.x avait fait une impression mitigée à cause de ses limitations en matière d’interface utilisateur. Java 2.0 traite ce besoin avec les Java Foundation Classes, la bibliothèque de composants Swing et d’autres améliorations portant notamment sur l’impression.

Les premières versions de Java ne permettaient pas les performances souhaitées par certains développeurs. Java 2.0 permet la compilation en temps réel et utilise la mémoire mieux que ne le faisait Java 1.x.



[1] Cette a tiré parti des documents diffusés par PCWeek le 1er mars 1999 à l’occasion de son 15ème anniversaire.

[2] En fait il s’agit plutôt d’un retour à la philosophie des « hackers » des années 60, cf. Steven Levy « Hackers » Delta 1994

[3] « fiducia » = confiance

[4] à distinguer de « store and retrieve ».

[5] cette analyse date de mars 1999.