Vous êtes sur la page 1sur 378

Gérard Dréan

L'industrie informatique Structure, économie, perspectives

(Masson, 1996)

i

Table
Table ..............................................................................................................ii Introduction ....................................................................................................v Quelques réalités des entreprises...............................................................vi Mythes et idées reçues.............................................................................viii Un modèle de l’industrie...........................................................................ix A la recherche des lois de fonctionnement................................................xi Structure de l’ouvrage.............................................................................xiii Première partie Les faits.................................................................................................................xvi Chapitre Naissance de l'industrie (1951-1968)..................................................................xviii Les débuts (1951-1963).........................................................................xviii Le 360 et la fragmentation du matériel (1964)......................................xxiii Résumé.................................................................................................xxvii Chapitre Les crises d’adolescence (1968-1980).................................................................xxx Le temps des procès (1968 - 1982).........................................................xxx L'« unbundling » (1969-1972) et la fragmentation des services.........xxxiv Remous dans le bas de gamme................................................................xlii FS ou la fin d'une illusion (1971 - 1975)................................................xlvi Vers la maturité (1976 à nos jours).......................................................xlviii Chapitre Une autre informatique apparaît (1975-1993)..........................................................l Les débuts de la micro-informatique (1975-1981)......................................l Le PC, un monde enfin ouvert....................................................................li Le monde Unix........................................................................................lvii Le panorama en 1993................................................................................lx Chapitre La structure de l'industrie......................................................................................lxii Typologie des acteurs.............................................................................lxiii Correspondance entre secteur et marché...............................................lxvii Structure de dépenses et modèles d’entreprise.....................................lxxiii Synthèse................................................................................................lxxvi Conclusions.........................................................................................lxxvii Chapitre Structure et performances..................................................................................lxxix Les taux de croissance...........................................................................lxxx Profitabilités comparées.......................................................................lxxxi Facteurs de profitabilité...........................................................................xci Conclusions...........................................................................................xciii 1

2

3

4

5

Deuxième partie Les matériels et les mécanismes économiques.....................................................xcv

ii

Chapitre Les mécanismes économiques..........................................................................xcviii Quelques notions d’économie industrielle.............................................xcix La concurrence et les structures industrielles.........................................cvii Les secteurs de l’industrie informatique.................................................cxii Chapitre Les composants, un secteur concentré..............................................................cxxiii Historique............................................................................................cxxiii Le segment et le secteur........................................................................cxxv Les problèmes techniques....................................................................cxxvi Economie de la production..................................................................cxxix Concurrence, prix et parts de marché................................................cxxxiv Perspectives...........................................................................................cxlv Chapitre Les matériels, un secteur dispersé..........................................................................cli Historique.................................................................................................cli Technologie et économie........................................................................cliii Segmentation et options stratégiques.......................................................clv Les caractéristiques du secteur.............................................................clviii La miniaturisation et ses limites.............................................................clix Evolution des structures industrielles......................................................clx Un secteur en pleine santé....................................................................clxiii Chapitre La différenciation des entreprises........................................................................clxv La personnalité des entreprises.............................................................clxvi L’approche relativiste de l’organisation................................................clxxi Personnalités et structure.....................................................................clxxx Personnalités par secteur...................................................................clxxxiv

6

7

8

9

Troisième partie L’immatériel.......................................................................................................cxcii Chapitre Le labyrinthe du logiciel et des services............................................................cxciv Services et produits...............................................................................cxcv Les diverses formes de logiciel...............................................................ccv Conclusions..........................................................................................ccxiv Chapitre L'industrie du progiciel......................................................................................ccxvi historique et situation..........................................................................ccxvii Caractéristiques du secteur....................................................................ccxx Les formes de progiciel......................................................................ccxxiii Le développement des progiciels......................................................ccxxvii Economie de la production et structure sectorielle...........................ccxxxii Les acteurs du progiciel...................................................................ccxxxix Résumé et perspectives.......................................................................ccxliii 10

11

iii

Chapitre Les systèmes d’exploitation et la standardisation.............................................ccxlv Fonctions et structure des systèmes d’exploitation.............................ccxlvi Standardisation, innovation et concurrence............................................ccli L’évolution des systèmes et la place d’Unix........................................cclvii Perspectives........................................................................................cclxiii Conclusions..........................................................................................cclxx Chapitre L’univers des services.......................................................................................cclxxi Services en informatique et services informatisés............................cclxxiii Les services de substitution et l’histoire du Service Bureau.............cclxxvi Les services de support ..................................................................cclxxxiii Le panorama des années 90.................................................................ccxcii Conclusions........................................................................................ccxcix

12

13

Quatrième partie Vers un nouvel ordre industriel............................................................................ccci Chapitre L’informatique éclatée.......................................................................................ccciv Intégration et dés-intégration des entreprises........................................cccv Dés-intégration et homogénéisation de l’industrie...............................cccix Conclusion........................................................................................cccxxiv Chapitre Les mécanismes intégrateurs........................................................................cccxxvii Les systèmes et le problème de l’intégration.................................cccxxviii Partenariats et alliances................................................................cccxxxviii Vers une recomposition ?...................................................................cccxlv Conclusions..........................................................................................ccclii Chapitre Les frontières de l'informatique........................................................................cccliv Les télécommunications....................................................................ccclxiv L’évolution à long terme...................................................................ccclxxi Annexe Tableaux des chapitres 4 et 5.......................................................................ccclxxvii Catégories par spécialisation..........................................................ccclxxvii Parts de marché...............................................................................ccclxxxi Analyse par segment de marché.....................................................ccclxxxii Structure de dépenses..................................................................ccclxxxviii Croissance du chiffre d’affaires ..........................................................cccxc Profitabilité par catégorie..................................................................cccxcii Bibliographie.......................................................................................cccxcvii 14

15

16

A

iv

Introduction
Les origines de ce livre. Mythes et idées reçues. Un modèle de l’industrie. A la recherche des lois de fonctionnement. Structure de l’ouvrage. Prolongements possibles.

Ce livre s’adresse à tous ceux qui ont le besoin ou le désir de comprendre le fonctionnement de l’industrie informatique, qu’ils en soient eux-mêmes acteurs ou qu’ils en utilisent les productions, ou qu’ils s’interrogent sur les impacts de cette industrie sur la Société et sur la vie quotidienne. Je souhaite qu’il soit lu également par ceux qui s’intéressent au fonctionnement des structures industrielles en général, en espérant qu’ils pourront trouver dans mon approche et dans mes thèses des pistes utilisables pour analyser d’autres pans de l’activité économique. Le sujet central de ce livre est l’analyse des forces et des mécanismes qui gouvernent en profondeur l’évolution de l’industrie informatique, afin de proposer une grille de lecture des événements qui en font l’actualité ainsi qu’une perspective raisonnée de son devenir. Son but est de montrer l’ordre caché derrière l’apparent désordre actuel. A la lumière de quelques phénomènes technologiques et économiques fondamentaux, il cherche à éclairer les mutations en cours et à venir de cette industrie, l’évolution prévisible de ses produits et ses interactions avec le reste de l’économie. Cet ouvrage n’est pas un nouveau livre sur les produits et les techniques informatiques. Mais en analysant les stratégies des offreurs et la dynamique à laquelle ils obéissent, il éclaire les motivations qui les poussent à transformer le potentiel technologique en une offre de produits spécifique. A travers les contraintes qu’elle impose aux acteurs et les opportunités qu’elle leur présente, la structure industrielle détermine l’offre informatique. Les produits et services disponibles sur le marché peuvent être analysés comme les instruments visibles de la concurrence entre firmes productrices. Ils reflètent autant les motivations et les préférences de celles-ci que l’action réputée impersonnelle de l’évolution technologique ou de la demande du marché. De la même façon, cet ouvrage n’aborde pas les questions liées à la mise en œuvre et aux applications de l’informatique, ni à son influence sur l’économie ou la culture en général. Mais par extension, en aidant à prévoir l’évolution des produits et des services informatiques, il peut contribuer à éclairer l’évolution de leurs utilisations et plus généralement de leur impact sur les autres industries et l’ensemble de notre cadre de vie. Cet ouvrage se distingue également des ouvrages d'économie au sens habituel. On n’y cherche pas à établir dans la rigueur scientifique de nouvelles lois susceptibles d'application générale, mais on se contente d'utiliser de façon pragmatique les outils proposés par d'autres pour comprendre la réalité d’un sous-ensemble particulier de l'économie. Son originalité est peut-être d’utiliser de façon coordonnée des disciplines généralement considérées comme disjointes.

v

Comparé à d’autres ouvrages d’économie industrielle, l’objet de celui-ci – une industrie particulière – est assez précis pour que les considérations théoriques y restent toujours confrontées à l’expérience du dirigeant d’entreprises. Il est en même temps assez large pour ne pas être une monographie purement factuelle et comporter l’amorce de développements théoriques. Il n’est pas interdit de penser que la même démarche et les mêmes concepts pourraient se révéler utiles à la compréhension d’autres industries complexes, voire être le point de départ de contributions plus générales à l’étude des structures industrielles.

Quelques réalités des entreprises
Comme pour tous les livres, le point de départ de celui-ci est mon expérience personnelle, et plus précisément trois convictions acquises dans ma vie professionnelle. La première est que les firmes sont différentes les unes des autres non seulement par leurs productions et leurs résultats, mais aussi par leurs motivations, leur façon de fonctionner et les possibilités d’action qui leur sont ouvertes. Deuxièmement, la conviction que n’importe quelle firme ne peut pas réussir dans n’importe quel projet. Enfin, le constat que les deux vérités ci-dessus sont méconnues de l’immense majorité des observateurs et des commentateurs, alors qu’elles contribuent fortement à expliquer la réalité industrielle. En 1981, je quittais IBM, encore au sommet de sa puissance, pour prendre des fonctions de direction dans une importante société de services en informatique. Je m’attendais à devoir m’adapter à des habitudes différentes, mais j’allais être surpris par la magnitude et la durée du choc culturel. Je quittais un monde structuré par un système de gestion extrêmement perfectionné et une culture d’entreprise fédératrice, où les décisions étaient collectivement réfléchies au point de s’imposer d’elles-mêmes à chacun, et où les conflits étaient explicités et transcendés pour le plus grand profit de l’entreprise. J’entrais dans un monde de décisions rapides, reposant plus sur l’intuition des dirigeants que sur un quelconque travail d’état-major, car le peu d’état-major existant était accaparé par les tâches de gestion quotidienne, et indisponible et mal préparé pour une réflexion prospective. Au lieu d’un concert où chacun jouait avec confiance sa partie spécifique, mais où la cohérence de l’ensemble n’apparaissait qu’à des niveaux très élevés, je découvrais des entreprises où la responsabilité de profit était déléguée et revendiquée jusqu’au plus bas de l’organisation. Dans cette structure, les décisions stratégiques comme les décisions opérationnelles étaient largement décentralisées, et le système de gestion relativement simple et peu formalisé. Des unités différentes adoptaient ainsi des comportements et des méthodes hétérogènes, entraînant des conflits entre groupes de cultures différentes, et des divergences entre dirigeants quant à la stratégie, à l’organisation et aux systèmes de gestion. Il n’a fallu qu’un peu de temps et d’humilité pour comprendre que ces différences ne sont pas des déviations fortuites qui demandent une remise en ordre rapide, mais reflètent des différences fondamentales entre des activités de nature différentes. Aussi, tenter de les éliminer en imposant un même ensemble de valeurs et de méthodes, par exemple celles qui ont fait le succès du leader de l’industrie, aurait été non seulement

vi

impossible, mais vraisemblablement néfaste. Réussir dans des formes de prestations différentes exige des organisations, des cultures, des styles de management, des systèmes de gestion différents. Ces conflits allaient se révéler critiques quelques années plus tard au moment de mettre en œuvre des réorientations stratégiques rendues nécessaires par l’évolution du marché. Cette expérience confirmait ce que j’avais déjà ressenti quelques années plus tôt à l’occasion de la séparation tarifaire du logiciel et des services. En abordant ces marchés avec sa culture et son organisation traditionnelles, IBM allait droit à l’échec alors qu’elle ne faisait que continuer à appliquer les méthodes qui avaient jusque là fait son succès. Des prestations suffisamment différentes pour exiger des principes d’organisation et de gestion différents ont beaucoup de mal à coexister dans une même entreprise. Plus tard encore, je devais retrouver des problèmes voisins dans des négociations portant sur l’ouverture de certains services de télécommunications. A l’époque, France Télécom et quelques farouches nationalistes prêtaient à IBM l’intention de dominer les réseaux mondiaux et prônaient en l’espèce une position très restrictive, en l’occurrence contraire aux intérêts des Sociétés de Service que je représentais. Or on pouvait tout aussi bien penser, comme c’était mon opinion, que l’intérêt d’IBM n’était pas d’entrer en concurrence avec les grands opérateurs, et qu’elle n’en avait d’ailleurs pas non plus la capacité. Ou bien ses dirigeants en étaient conscients et elle se tiendrait pour l’essentiel en dehors du marché des services de télécommunications, ou elle céderait aux avocats de l’entrée sur ce marché et finirait par échouer en ayant perdu beaucoup d’argent et d’énergie. Dans un cas comme dans l’autre, il était inutile de prendre des mesures restrictives. Faute de comprendre les différences entre les secteurs d’activité, chacun prêtait à l’autre des motivations et des intentions qui pouvaient lui être étrangères, voire aberrantes. On projette volontiers sur les autres ses propres motivations, de même qu’on croit volontiers qu’une firme qui a réussi dans un domaine pourra ipso facto réussir dans n’importe quel autre. En réalité, les règles du jeu et les facteurs de succès sont si différents selon les secteurs d’activité que les entreprises doivent adopter des comportements très différents pour y réussir. En résumé, l’informatique est une industrie hétérogène au sein de laquelle coexistent des firmes de natures différentes, qui obéissent à des systèmes de forces économiques et concurrentielles différents. C’est une erreur fondamentale de considérer l'informatique comme un secteur homogène où les mêmes critères de succès seraient valables pour tous les acteurs. Nul ne songerait à étudier l'industrie des transports en général, sans distinguer le chauffeur de taxi de la Régie Renault ou d'Air France, en prêtant à tous les acteurs les mêmes problèmes, les mêmes objectifs et les mêmes critères de réussite. De la même façon, il est impossible de tenir un discours pertinent sur l’industrie informatique sans en comprendre la diversité et la structuration.

vii

Mythes et idées reçues
L’hétérogénéité de l’industrie a pour conséquence une incompréhension réciproque qui s’étend naturellement aux observateurs extérieurs. La presse commet souvent des analyses et des prédictions erronées qui n’en sont pas moins reprises et répétées pour alimenter une littérature d’« industrie-fiction » souvent assez fantaisiste. A la racine commune de ces erreurs de jugement et de pronostic, on trouve une méconnaissance des motivations des entreprises, et des contraintes que les lois de l’économie et de la concurrence imposent à leurs actions. Jadis, l'informatique était une industrie modèle par sa croissance, sa profitabilité, son dynamisme commercial, ses pratiques de management, etc. Mais une société appelée IBM la dominait de toute la hauteur de sa part de marché, qui oscillait suivant les années, les méthodes d'évaluation et les arrière-pensées des commentateurs, entre 65 et 80%. Cette domination, jointe à l'envahissement progressif de la société par l'informatique, alimentait inquiétudes et pronostics. Il était admis qu'IBM dominerait le monde si rien n'était entrepris pour l'en empêcher, et que seuls les Etats avaient ce pouvoir. Selon les augures, IBM exploiterait les technologies de la téléinformatique pour couvrir la planète d'un réseau qui se substituerait à la fois aux centres informatiques des entreprises et aux grands opérateurs de télécommunications, établissant ainsi sa domination mondiale. Cette vision accréditait l'idée d'un « combat des chefs » inéluctable entre IBM et ATT, et justifiait l'engagement des Etats et des entreprises de télécommunications dans une véritable croisade. La littérature d’industrie-fiction se nourrissait alors du mythe de « Big Brother ». On sait ce qu'il est advenu de la domination d'IBM et des services de « distribution d'énergie informatique ». La montée des mini-ordinateurs puis des microordinateurs a permis aux utilisateurs de s'équiper de moyens propres au lieu de recourir à des moyens partagés, et a entraîné la disparition du marché de la « distribution d'énergie informatique » entre 1975 et 1983. IBM a enregistré des pertes impressionnantes en 1991, 1992 et 1993, ne cesse de réduire ses effectifs et ne représente plus qu'environ 30% du marché de l'informatique. Le grand combat entre IBM et ATT n'a pas eu lieu et plus personne ne l'attend. Aujourd'hui l'informatique est en crise. Les sociétés jadis les plus prospères connaissent des années noires tandis que de nouveaux venus comme Intel ou Microsoft affichent une santé insolente. A un monde de concurrence sans équivoque a succédé un enchevêtrement d'alliances, où coexistent entre les mêmes entreprises des rapports de coopération et des rapports de compétition, et où on ne sait plus clairement qui est allié et qui est concurrent. L'innovation et la création des standards ont échappé aux grands fournisseurs de matériels, qui semblent livrer des combats d'arrière garde plutôt que contribuer aux progrès de l'informatique. L’industrie-fiction ne produit plus que des scénarios-catastrophe. Pourtant les mythes ont la vie dure. Alors même que le marché du traitement partagé avait disparu sans espoir de retour, nombreux étaient vers la fin des années 80

viii

ceux qui, avec l'enthousiasme des néophytes, en prédisaient la naissance sous les espèces des « Services à Valeur Ajoutée ». Ce mythe se prolonge encore de nos jours par l'annonce de la fusion imminente de l'informatique et des télécommunications, alors que la téléinformatique existe depuis plus de 35 ans et que les télécommunications prennent chaque année un peu plus de retard sur les performances des systèmes informatiques. Les idées actuellement les plus à la mode ne sont objectivement guère plus fondées que les mythes des années 80. On pleure sur la mauvaise santé de l'industrie informatique en oubliant qu'elle donne naissance à une avalanche de produits de plus en plus performants à des prix sans cesse plus bas, ce qui est le meilleur signe d'une vitalité exemplaire. On annonce que le marché du matériel est en chute libre, alors qu'il représente près des deux tiers du marché total et affiche toujours une croissance suffisante pour attirer de nouveaux offreurs. On dit « pour gagner de l'argent, il faut sous-traiter la fabrication », mais à qui si toutes les entreprises adoptent la même stratégie ? On prédit que les constructeurs ne trouveront leur salut que dans les services car « seuls les services sont profitables ». Outre que cette dernière affirmation est objectivement fausse, à quels matériels s'appliqueraient alors ces services ? Dans leurs tentatives de réponse, la plupart des commentateurs continuent à s’appuyer exclusivement sur des considérations technologiques, et se contentent de lieux communs, d'idées reçues et de schémas simplistes quant aux mécanismes économiques et à la dynamique des entreprises. Or pour qu’un événement se produise, il ne suffit pas qu’il soit rendu possible par la technologie ; encore faut-il qu’une entreprise y voie son intérêt et ait la capacité de le faire survenir. L’évolution de l’industrie n’est pas un processus impersonnel, mais résulte des efforts déployés par les fournisseurs pour exploiter le potentiel technologique au service de leurs objectifs économiques.

Un modèle de l’industrie
L’ambition du présent ouvrage est donc de contribuer à une meilleure compréhension de l'industrie informatique en l’examinant à la lumière des lois qui gouvernent toutes les entreprises. De nombreux observateurs et commentateurs tentent d’arriver à ce résultat en extrapolant les grandes tendances qu’ils peuvent déceler à partir d’une vue d’ensemble de l’industrie. Des prédictions antérieures reposant sur cette approche ont été souvent démenties, et je pense donc nécessaire d’aller au contraire creuser sous la surface pour comprendre les forces motrices de l’industrie et pour démonter ses mécanismes internes. Ce faisant, il est essentiel de reconnaître l’hétérogénéité et la complexité de cette industrie. Elle secrète toute une gamme de produits et de services de différentes natures, et laisse place à une grande variété de fournisseurs qui en offrent des sélections et des combinaisons différentes. A chacun de ces produits ou services correspond un certain processus de production qui en détermine l’économie particulière. Inversement, chaque produit ou service est offert par un certain nombre de firmes différentes, qui entrent en lutte dans une arène concurrentielle formée par le marché de ce bien. Dans chacun des secteurs ainsi définis, la structure du marché et l’économie de la production se

ix

combinent pour définir une forme particulière du jeu concurrentiel et donc des règles du jeu et des conditions de succès. L’industrie se segmente ainsi en secteurs obéissant à des logiques économiques et concurrentielles différentes, qui conduisent à des structures différentes, en particulier en termes de parts de marché et de profitabilité. Ces différences appellent à leur tour différents types de stratégie et de comportement concurrentiel selon les règles du jeu de chaque secteur. La nature particulière des produits d’une firme non seulement gouverne la forme de son appareil de production, mais détermine en profondeur l’organisation et la culture de l’entreprise, qui constituent en quelque sorte sa personnalité. Il existe une correspondance étroite entre la nature de la production d’une entreprise et un certain nombre de ses caractéristiques fondamentales, de même que l’anatomie, la physiologie et même la psychologie d’un sportif correspondent à la discipline qu’il pratique. Un haltérophile n’est pas constitué comme un coureur de marathon, et un champion du marathon à toutes chances de ne pas briller au lever de poids, voire de régresser au marathon dès qu'il commencera à s'entraîner aux poids et haltères. Les armes et les stratégies gagnantes dans une arène ne sont pas forcément gagnantes dans les autres et peuvent même y être des handicaps. De la même façon, les mêmes recettes de fonctionnement qui font le succès de tel constructeur de matériels peuvent conduire à l’échec telle société de services, et réciproquement. Les entreprises concernées ne sont pas toujours conscientes de cette relation étroite entre leurs prestations et leur personnalité, mais la concurrence est là pour sanctionner celles qui méconnaissent cette réalité. Dans chaque secteur, les firmes qui réussissent sont celles dont la structure et la culture sont le mieux adaptées aux besoins spécifiques du secteur. Un secteur d’industrie est caractérisé non seulement par la nature de ses produits, mais aussi par un certain type d’entreprise et une certaine forme des règles du jeu concurrentiel. Pour chaque firme, la possibilité de réussir dans un secteur nouveau est conditionnée par sa structure et sa culture existantes. Toute tentative d'aborder un domaine de production trop éloigné de la personnalité actuelle se soldera la plupart du temps à la fois par un échec dans le nouveau domaine et une régression dans le domaine traditionnel. Les spécialisations acquises tendent ainsi à se perpétuer, et avec elles la structuration de l'industrie en secteurs, qui sont autant d'arènes différentes où des acteurs différents jouent à des jeux différents avec des armes et des stratégies différentes. En même temps, les produits et les services des différents secteurs doivent tôt ou tard être assemblés en systèmes, que ce soit à l’étape industrielle suivante ou chez l’utilisateur. Tous les secteurs interagissent entre eux, et leurs frontières sont en permanence remises en question. Bien que la plupart des acteurs de l’informatique n’opèrent que dans un nombre restreint de secteurs, certains sont présents dans un grand nombre d’entre eux, par choix stratégique ou par tradition historique. Il importe d'examiner comment ce qui se passe dans une arène influence ce qui se passe dans les autres, comment un acteur doit s'organiser pour jouer dans plusieurs arènes et quelles sont ses chances de réussite.

x

L’observation de l’industrie à partir de l’intérieur conduit ainsi à en proposer un modèle pragmatique qui ressemble par bien des côtés à celui de l’évolution naturelle en biologie. Des entreprises différentes les unes des autres, et offrant des paniers de prestations différents, sont en concurrence sur le marché. Pour réussir, elles adoptent des comportements qui se traduisent en particulier par leurs offres, et qui sont déterminés par des facteurs spécifiques à chaque firme (sa personnalité). Le marché réagit à ces comportements, et ces réactions déterminent l’évolution des firmes, leur place dans l’industrie et leur comportement ultérieur.

A la recherche des lois de fonctionnement
A ce stade pragmatique de ma réflexion, il était nécessaire de me tourner vers la théorie afin de valider le modèle ci-dessus et de l’enrichir en précisant les lois de fonctionnement des marchés, les mécanismes de structuration de l’industrie, de prise de décision dans l’entreprise, les règles d’organisation interne, etc. Cette analyse devrait former une base solide pour comprendre le comportement des acteurs industriels, tel que le dictent leurs rôles, leurs intérêts et leurs contraintes, et enfin proposer une vision raisonnée et cohérente de l’industrie et de l’offre informatiques ainsi que de leur évolution. Précisons que ce travail n’avait aucune ambition théorique. Partant d’une industrie à propos de laquelle je constate des incompréhensions et des interrogations, il s’agit simplement de démonter et d’expliquer ses mécanismes à l’aide des outils théoriques disponibles. Mon objectif n’est pas d’établir des lois économiques nouvelles, mais de rechercher dans les théories existantes les éléments qui permettent d’expliquer ce que je constate dans la réalité. Trois considérations principales ont guidé mon exploration de la littérature. D’abord le sujet central de ce livre, c’est à dire le comportement des entreprises. Ce comportement a deux faces : en amont, il résulte de décisions internes à l’entreprise, dont l’étude renvoie à la théorie des organisations et de la décision ; en aval, il déclenche des interactions avec le marché, dont l’étude relève de la micro-économie. Autrement dit, les bases théoriques auxquelles le présent ouvrage fait appel sont à cheval sur l’économie et la théorie des organisations. Mis à part les grands concepts et les mécanismes économiques fondamentaux, l’économie classique et néoclassique est ici de peu d’utilité puisque ses paradigmes de base que sont la concurrence « pure et parfaite » et l’équilibre général ignorent en fait les notions d’entreprise, de différenciation des produits et de concurrence. Ce n’est guère qu’à partir de 1975 que la discipline appelée « économie industrielle » s’est donné pour tâche l’étude du système productif et des stratégies de ses composantes. A ce jour, ce domaine a donné lieu à un très grand nombre d’études partielles portant sur tel ou tel point particulier, mais à peu de véritables synthèses qui puissent constituer une théorie générale des structures industrielles. Encore ces quelques ouvrages synthétiques reconnaissent-ils des lacunes, dont certaines concernent des phénomènes très visibles dans l’industrie informatique.

xi

De son côté, la littérature sur les organisations et la décision s’arrête le plus souvent à la frontière de l’entreprise et n’aborde que rarement les influences réciproques entre les choix internes et le fonctionnement du marché. D’une façon générale, la séparation de ces deux disciplines est une faiblesse essentielle au regard de l’objet de cet ouvrage. L’économie schématise trop la firme, et l’organisation tient trop peu compte de l’environnement. Un deuxième critère d’orientation dans l’exploration de la littérature tient à mon observation fondamentale que les entreprises sont différentes les unes des autres et obéissent à des modèles de comportement différenciés. Pour expliquer ces différences, il n’y a évidemment que peu à attendre des théories qui reposent précisément sur le postulat inverse. Or une part importante de l’économie industrielle considère les entreprises comme des « boîtes noires » conformes à un modèle de comportement simplifié identique pour toutes, par exemple la maximisation du profit. De même, la plupart des ouvrages sur l’organisation considèrent plus ou moins implicitement que les règles d’organisation ne dépendent pas de l’activité de la firme. Il a fallu attendre les théories « relativistes » introduites vers 1950 et synthétisées pour la première fois par Lawrence et Lorsch (1968) pour reconnaître que « le type d’organisation requis varie suivant la nature des biens ou services fournis, les moyens mis en œuvre et l’environnement économique à un moment donné ». Le troisième critère de choix tient à mon expérience personnelle, qui est celle d’un d’acteur et non d’un théoricien. Parmi les développements théoriques qui sont censés décrire les décisions de l’entreprise, que ce soit avec l’œil de l’économiste ou avec celui de l’organisateur, un très grand nombre ne ressemblent ni de près ni de loin à la façon dont les décisions sont réellement prises. En particulier, dans le monde réel, je n’ai jamais vu utiliser le raisonnement et la formalisation mathématiques dans des décisions de gestion. Je ne crois pas raisonnable de croire que les responsables d’entreprise procéderaient inconsciemment à des raisonnements de nature mathématique, comme les planètes décrivent des trajectoires elliptiques sans savoir ce qu’est une ellipse. J’incline au contraire à penser que toute description des choix en entreprise qui exige ce type de formalisme a toutes chances d’être très éloignée de la réalité. Certains peuvent trouver commode de représenter sous forme mathématique des comportements où celles-ci n’interviennent pas, mais cette commodité ne vaut que pour une petite communauté d’économistes et certainement pas pour la majorité du public visé par le présent ouvrage. De plus, la formalisation mathématique n’est en général possible qu’au prix d’hypothèses qui introduisent des écarts entre la réalité et sa représentation. Pire encore à mes yeux, on pare ainsi des apparences de la rigueur et de l’exactitude un domaine où règnent en réalité l’incertitude, l’approximation, l’intuition et les réactions viscérales. Recourir au formalisme mathématique pour décrire le comportement des décideurs dans une entreprise est au mieux inutile, au pire trompeur. J’ai donc pris le parti d’utiliser la densité de mathématiques dans un développement comme indicateur (négatif...) de sa pertinence par rapport au présent ouvrage, et de considérer comme rédhibitoire la présence de tout autre symbole que les quatre opérations de l’arithmétique. Bien entendu, je me suis appliqué la même discipline, qui vaut au présent ouvrage d’être totalement vierge de formules mathématiques.

xii

Au total, ces filtres successifs ont laissé passer étonnamment peu d’apports théoriques applicables à mon propos, et ont bien entendu favorisé des ouvrages plutôt récents, pragmatiques et présentés sous forme littéraire. C’est ainsi que tout en tirant parti de certains apports de la théorie économique, j’ai été amené à m’appuyer fortement sur les travaux de Porter sur les stratégies concurrentielles. De même, mon analyse du comportement des entreprises doit beaucoup aux travaux de Lawrence et Lorsch sur l’organisation, et aux thèses « comportementalistes » illustrées par March et Simon. Malheureusement, mon exploration de la littérature théorique ne m’a pas toujours permis de découvrir une explication satisfaisante de tous les phénomènes constatés dans le réel. Il m’a fallu alors dépasser quelque peu mon objectif initial et prendre le risque de suggérer des approches théoriques appropriées.

Structure de l’ouvrage
Ce livre est structuré en quatre parties. Dans la première, nous prendrons soin de procéder à une reconnaissance préalable du terrain que nous voulons couvrir, en consacrant les trois premiers chapitres à l'évolution passée de la structure et des pratiques de l'industrie informatique. Nous y verrons comment le marché s'est segmenté et comment se sont constituées et ont évolué les règles des différents jeux. Puis nous examinerons dans le Chapitre 4 la structure réelle de l'industrie au début des années 90, et dans le Chapitre 5 les performances récentes des entreprises. Ces constats, comme toutes les analyses qui suivent, considèrent l’industrie informatique à l’échelle planétaire en ignorant délibérément les éventuelles différences nationales ou régionales. L’immense majorité des entreprises qui la composent opèrent en effet au plan international, et les frontières des états ne définissent pas vraiment des marchés distincts. De la même façon, les politiques industrielles nationales menées par certains états sont considérées ici comme des épiphénomènes qui ne doivent pas distraire des mécanismes fondamentaux. L’industrie informatique apparaît comme peuplée d’une part de quelques entreprises généralistes offrant une vaste gamme des produits et services, et d’autre part d’une multitude de spécialistes. Nous commencerons par analyser le fonctionnement de ces derniers, en les rangeant par commodité dans quatre catégories : les composants, les matériels, les progiciels et les services. La seconde partie mène en parallèle la présentation des concepts et des outils principaux d’analyse de l’industrie avec l’analyse des secteurs correspondant aux matériels. S’appuyer sur les cas concrets des deux premiers secteurs pour introduire les notions fondamentales de cet ouvrage permet de limiter les rappels théoriques préalables qui pourraient être fastidieux. Le Chapitre 6, de nature économique, rappelle les principaux mécanismes de la concurrence et de la formation des structures sectorielles, en les appliquant aux quatre domaines principaux définis ci-dessus. Le secteur des composants (Chapitre 7) nous

xiii

fournira l’exemple d’un secteur concentré et l’occasion de décrire les mécanismes d’une concurrence de type monopoliste, qui conduit à un partage du marché à parts fortement inégales entre un petit nombre d’offreurs. Celui des matériels (Chapitre 8) nous fournira l’exemple de secteurs dispersés où règne une concurrence à base de niches et de stratégies diversifiées, conduisant à la coexistence d’un grand nombre d’offreurs de taille comparable. En même temps que ces notions de base, nous aborderons la dynamique et les perspectives spécifiques de chacun de ces secteurs. Le Chapitre 9 complète cette analyse en montrant comment les différences entre les formes de production et les dynamiques concurrentielles impliquent des organisations, des systèmes de management et des cultures différentes, c’est à dire une différenciation des personnalités d’entreprise selon le secteur. Dans la troisième partie, les concepts de concentration et de dispersion, ainsi que de différenciation des entreprises, sont appliqués à l’analyse du progiciel et des services. Il sera d’abord nécessaire de préciser ce que recouvrent exactement les termes « logiciel » et « services » souvent abusivement associés au sein d’un pseudo-secteur « immatériel ». Nous verrons au Chapitre 10 que le logiciel englobe une large gamme d’activités allant des produits logiciels aux services de développement à façon, et que l’économie de la production de progiciel est en tout point plus proche de celle des produits industriels que des services. Assimiler les progiciels et les services au sein d'un même secteur n'a pas plus de sens que n'en aurait l’étude d’un secteur « carburants et taxis ». L'industrie du progiciel fera l’objet du Chapitre 11. Nous utiliserons les notions de concentration et de dispersion introduites dans les chapitres 6 à 9 pour montrer que cette industrie s’analyse en fait comme un complexe de sous-secteurs de type plus ou moins fortement concentré, individuellement soumis à leur propre dynamique concurrentielle, mais en interaction avec les autres sous-secteurs. Nous traiterons à part dans le Chapitre 12 le cas particulièrement important des systèmes d’exploitation, à propos duquel nous parlerons de la problématique de la standardisation et de la place du système Unix. Dans le Chapitre 13, nous verrons comment les services, généralement traités comme un secteur homogène, forment en réalité un ensemble de secteurs diversifiés où jouent des logiques économiques variées. Les règles du jeu de ces secteurs impliquent des comportements différents selon les prestations, et obligent les offreurs à s’adapter en permanence à une demande mouvante alors que les spécificités culturelles sont dans ce domaine particulièrement critiques. La dernière partie de l’ouvrage prolonge les conclusions des chapitres précédents pour proposer une vue globale de l’industrie. Le Chapitre 14 synthétise les tendances identifiées dans les quatre domaines analysés précédemment, et décrit leurs effets au niveau de l’industrie tout entière. On y décrit les forces qui poussent à l’éclatement de l’industrie informatique en secteurs spécialisés, avec d’une part les promesses de l’extension de la structure du monde PC à toute l’informatique, et d’autre part les problèmes difficiles que cet éclatement pose aux firmes généralistes.

xiv

Le Chapitre 15 s’intéresse aux forces qui peuvent pousser à une recomposition. Il évoque les problèmes que pose aux utilisateurs l’éclatement de l’industrie informatique, comment les Directeurs Informatiques peuvent réagir et l’offre s’organiser pour traiter ces problèmes. Les services d’intégration apparaissent alors comme particulièrement critiques, ce qui nous conduira à examiner la thèse selon laquelle les produits disparaîtraient derrière les services. Nous verrons aussi comment les acteurs pallient leur spécialisation en tissant des alliances plus ou moins formelles. Nous évaluerons la signification industrielle de ces alliances et leur influence probable sur la structure industrielle. Enfin, nous esquisserons dans le Chapitre 16 un scénario d’évolution globale de l’industrie informatique, en examinant en particulier les interférences entre l’informatique et les autres industries, au premier rang desquelles les télécommunications. Comment chacun des secteurs est-il affecté par son rapprochement avec des secteurs jusque-là étrangers à l'informatique ? Quelle est la place de l’industrie informatique dans les industries de l’information ? Comment la structure des autres industries est-elle affectée par l’invasion des technologies informatiques ? Peut-on tirer de la théorie économique des perspectives à plus long terme pour l’industrie informatique ?

En refermant cet ouvrage, souhaitons que le lecteur ait acquis une meilleure compréhension des mécanismes cachés qui régissent l’évolution de l’industrie informatique, et qu’il puisse ainsi mieux décoder une avalanche de nouvelles et d’événements quelquefois difficiles à interpréter. Que cette compréhension l’aide non seulement à satisfaire une légitime curiosité personnelle, mais aussi à mieux assumer ses responsabilités professionnelles, qu’elles soient celles d’un Directeur Informatique ou d’un utilisateur, d’un dirigeant de l’un des multiples acteurs de cette industrie, d’un commentateur, d’un enseignant ou d’un leader d’opinion, voire d’un responsable politique.

xv

Première partie Les faits
Assurons-nous bien du fait avant de nous inquiéter de la cause. Fontenelle

Les états futurs de l’industrie informatique résulteront du jeu des forces naturelles à partir de son état actuel, qui s’explique lui-même par le jeu passé de ces mêmes forces. Un examen historique de l’évolution des différentes prestations qui composent l’informatique, des modalités de leur fourniture par les divers acteurs de l’industrie, des positions et des stratégies des différents fournisseurs, nous permettra d’identifier les grands courants qui traversent l’industrie. A l’inverse de bien des ouvrages qui commencent par énoncer et développer des théories pour chercher ensuite des cas où elles s’appliquent, nous pourrons ainsi cerner les faits avant de rechercher les théories qui les expliquent. Il s’agit en somme de bien examiner la surface avant de commencer à creuser. Le découpage que nous retiendrons pour les quarante et quelque années d’histoire de l’industrie informatique, en trois chapitres couvrant respectivement sa naissance (1951-1968), les crises d’adolescence (1968-1980) et l’apparition d’une autre informatique (1975-1993), est lié au sujet central de cet ouvrage, qui est la structure même de l’industrie. En effet, les années 1969 à 1975 ont vu une série d’événements mettre en cause cette structure, et leurs prolongements se sont répercutés jusque vers le début des années 80. Ensuite, à la fin cette période naissait la micro-informatique, qui se distingue de l’informatique traditionnelle au moins autant par sa structure industrielle originale que par ses technologies. Dans ce survol historique, il sera beaucoup question d'IBM. Il serait anormal qu’il en fût autrement, puisque cette société représentait à elle seule, au moins jusqu’en 1985, environ les deux tiers de l’industrie informatique tout entière. Mais sa domination ne s’est pas seulement traduite par sa part de marché. Dans toute cette période, ses actions ont affecté l'ensemble du secteur, et les actions des autres acteurs ont été dans une large mesure décidées par rapport à IBM. En ce sens, IBM a été plus qu'un concurrent, un élément essentiel de l'environnement des autres acteurs. Il se trouve également qu'IBM a traditionnellement été un acteur très rationnel qui consacre beaucoup d'efforts à une réflexion stratégique organisée de façon méthodique.

xvi

Cette réflexion n'est pas menée exclusivement par quelques services spécialisés, mais implique l'ensemble du management ainsi que des groupes d'experts opérationnels. De ce fait, elle s'appuie non seulement sur des études approfondies, mais aussi sur la grande variété de tendances et d'opinions présentes en permanence dans la compagnie, qui constitue par sa taille même une forme de microcosme. Contrairement à une image réductrice, IBM a toujours été un vivier de réformes et de réformateurs que le management a su entretenir plus ou moins consciemment, et s'est toujours montrée capable de donner leur chance aux francs-tireurs et de prendre l'initiative de changements majeurs. Même si, comme nous le verrons, certaines décisions n'ont eu pour objet que de résoudre des problèmes internes, la place dominante d'IBM a fait retentir ces décisions sur tous les secteurs homologues de l'industrie. L'annonce du 360 en 1964, la séparation des tarifs (unbundling) en 1969/70, l'annonce du PC en 1981 ou, a contrario, l'abandon du projet FS en 1975 ont ainsi pris le caractère d'actes fondateurs pour l'ensemble de l'industrie. C'est autour de ces événements que je structurerai le rapide historique qui suit.

xvii

Chapitre 1 Naissance de l'industrie (1951-1968)
La mécanographie accouche de l’informatique. Logiciels et services « gratuits ». Tarifs, profits, progrès et foisonnement. Le 360, ancêtre des systèmes « ouverts ». Frontières technologiques et intégration. Standards et fragmentation du matériel. Boîtes ou systèmes ? Un secteur concentré.

Les débuts (1951-1963)

1

En tant qu'industrie, l’informatique est née en 1951 avec la mise sur le marché de l'UNIVAC 1 par la Société Remington Rand. Avant cette date, Il existait d’une part une industrie des machines mécanographiques, et d’autre part des expériences de réalisation de calculateurs à programme enregistré, qui allaient donner naissance aux ordinateurs mais ne faisaient pas l’objet d’une activité industrielle à proprement parler. Les matériels mécanographiques reposant sur l'utilisation de cartes perforées et comprenaient différentes machines spécialisées, essentiellement mécaniques bien que certaines aient fait appel à des dispositifs électroniques dès 1946. Ces matériels étaient commercialisés par quelques constructeurs dont IBM, Remington Rand, Burroughs, NCR aux USA, Bull ou ICT en Europe. Pendant et après la deuxième guerre mondiale, plusieurs calculateurs expérimentaux furent construits par des Universités ou des centres de recherche. C'est ainsi qu'apparut le concept de programme enregistré, et que la technologie électronique devint le fondement de l'informatique. Si l'on admet que la caractéristique distinctive d'un ordinateur, par rapport aux simples calculateurs, est d’être commandé par un programme enregistré en mémoire, la première réalisation d'un véritable ordinateur date de 1948, avec le SSEC construit par IBM. Il n'est pas surprenant que les Sociétés IBM et Remington Rand, qui participaient à ces travaux précurseurs, aient été les premières à percevoir le potentiel commercial de cette nouvelle technologie. Remington Rand mit sur le marché l’ordinateur UNIVAC dès 1951. IBM suivit, après bien des hésitations, avec le 701 en 1952, le 702 et le 650 en 1953 . Ces deux Sociétés furent vite imitées par les autres constructeurs de matériels
2

1 Pour une bonne couverture de la période qui va des origines à l'année 1963, voir le livre de René Moreau « Ainsi naquit l'informatique » (Dunod - 1981)

Pour un historique détaillé du développement des premiers ordinateurs IBM, voir l'excellent ouvrage de Charles Bashe, Lyle Johnson, John Palmer et Emerson Pugh, « IBM's Early Computers » (The MIT Press, 1986). Cet ouvrage présente de façon fascinante l'ensemble des choix technologiques et commerciaux, ainsi que les conflits d'opinion et les rivalités de personnes et d'organisations, qui ont soustendu les développements de produits et les changements d'organisation IBM depuis ses premiers pas dans le calcul automatique jusqu'en 1962.

2

xviii

à cartes perforées, et bientôt tous les constructeurs de matériels mécanographiques (Burroughs et NCR aux USA, BULL en France et ICT au Royaume-Uni) eurent un département ordinateurs. Très rapidement, ces firmes furent rejointes par des grandes Sociétés d'électricité ou d'électronique comme General Electric, RCA, Honeywell, Westinghouse, Bendix, … Plus tard apparurent des firmes nouvelles qui débutaient dans les ordinateurs en se spécialisant sur des marchés particuliers, comme Control Data en 1957 ou Digital Equipment en 1962. L’informatique est donc au départ une activité secondaire des firmes mécanographiques et des grandes firmes d’électronique. Les pratiques commerciales qui accompagnent la mise sur le marché des premiers ordinateurs sont naturellement celles de la mécanographie : le constructeur fournit le matériel, et il appartient à l'utilisateur d'en assurer la mise en œuvre, avec une aide plus ou moins soutenue du constructeur. L’exploitation des matériels mécanographiques était manuelle et reposait sur la mise en œuvre de procédures spécifiques à chaque application. La définition de ces procédures était de la responsabilité des utilisateurs, mais faisait généralement l'objet d'une assistance importante fournie gratuitement par le constructeur. Cette approche se transpose aux ordinateurs, mais pour ces derniers l’assistance des constructeurs est d’autant plus importante que la technique en est nouvelle. Pour faire face à cette demande croissante et diversifiée, IBM structure ses activités d'assistance aux clients en créant l’organisation technico-commerciale en 1962. Par contre, l'offre de logiciels est initialement rudimentaire. Les tout premiers ordinateurs d’IBM et de Remington Rand sont fournis « nus ». Conformément à la tradition scientifique qui a présidé à leur développement, ce sont les utilisateurs euxmêmes qui développent les logiciels nécessaires et les échangent entre eux, depuis les assembleurs et les routines mathématiques jusqu'aux codes les plus complexes. Le seul apport original d'IBM avant 1960 est le langage FORTRAN et les compilateurs associés, qui accompagnent les ordinateurs scientifiques dès 1957. Le besoin de logiciels généraux se faisant jour progressivement, IBM formalise son organisation et ses méthodes de développement de programmes en 1961 (Bald Peak Conference), en y appliquant des disciplines de gestion dérivées de celles en usage pour les matériels. A partir des années 1961-1962, chaque annonce de nouveau matériel inclura celle d'un système d'exploitation plus ou moins perfectionné, mais en tout état de cause spécifique à ce matériel et à son domaine d’applications prévu. Mais l'offre commerciale et contractuelle continue à reposer exclusivement sur les matériels. Seul le matériel et son entretien font l'objet d'une facturation, les logiciels, la formation et l'assistance à la mise en œuvre étant fournis « gratuitement ». En réalité, le coût global de ces services est bien évidemment pris en compte dans la tarification du matériel. C’est à l'échelon commercial local que se négocie avec chaque client la fourniture de ces services, puisque rien ne spécifie quels logiciels (gratuits) chaque client est en droit de commander, ni quelle nature et quel volume d'assistance technique (gratuite) il est fondé à recevoir. Dans la période 1956-1964, l'informatique connaît un développement spectaculaire même si elle ne s’implante que dans un nombre restreint de grands organismes. Des pionniers expérimentent de nouveaux domaines et de nouvelles formes

xix

d'utilisation comme la téléinformatique, le traitement d'informations non numériques, la conduite de processus ou diverses formes d'intelligence artificielle. Dans tous ces domaines, les premières réalisations opérationnelles voient le jour vers 1960 sous des formes souvent ambitieuses. Il est à peine exagéré de dire que tous les domaines d'applications et toutes les formes d'utilisation de l'informatique connues aujourd'hui ont été expérimentés dès cette époque. A cette floraison d'applications répond un progrès technologique très rapide, qui se traduit par un foisonnement de matériels mis sur le marché à un rythme soutenu. A cette époque, chaque matériel est généralement remplacé par un successeur plus performant moins de deux ans après sa mise sur le marché. Comme cette période est celle de la découverte de l'informatique, chacun des matériels successifs incorpore des concepts nouveaux et des fonctions nouvelles qui le rendent différent de ses prédécesseurs. La conception globale de chaque ordinateur reflète les limitations technologiques du moment, si bien que chaque avancée dans un domaine central comme les technologies des circuits ou des mémoires, ou dans un domaine périphérique comme les bandes magnétiques, est l'occasion de s'affranchir d'une limitation globale, et se traduit souvent par l'introduction d'un nouvel ordinateur présentant des incompatibilités avec ses prédécesseurs. Conformément aux habitudes prises en mécanographie, ces matériels sont proposés principalement en location, ce qui correspond à l'intérêt des utilisateurs compte tenu de l'évolution extrêmement rapide. Le matériel reste ainsi le plus souvent la propriété du constructeur, son entretien revenant donc à ce dernier et étant couvert par la redevance de location. Ce mode de facturation, et l'importance de l'assistance technique fournie aux clients, permettent aux constructeurs de se présenter d'abord comme des fournisseurs de services. Le slogan des constructeurs « nous vendons des services et non des matériels » remonte aux années 1950 et n'a été inventé ni en 1970 avec l'introduction des services facturables, ni en 1992 avec la création de divisions de conseil et d'assistance.

La logique concurrentielle
L'industrie informatique naissante est ainsi constituée d'acteurs généralistes dont chacun offre une architecture d'ordinateurs propre, voire plusieurs pour les plus grands, fournit la totalité des éléments nécessaires à chaque client et en assure l'intégration. La gratuité des logiciels et des services fournis par les constructeurs ne laisse pas de place à des offreurs indépendants, si ce n'est de façon marginale pour des logiciels ou des services suffisamment différenciés. La diversité et la rapide évolution des matériels donnent de toute façon aux constructeurs un avantage déterminant dans la fourniture de tous les services liés aux matériels, qu'il s'agisse de maintenance, de formation ou d'assistance technique. L'existence d'un tarif d'entretien séparé n'est qu'une disposition administrative destinée aux rares clients acheteurs de matériels et ne donne pas

xx

naissance à une offre de maintenance tierce. De plus, la prédominance de la location exclut l'existence de services indépendants d'entretien et celle de services financiers comme le crédit-bail. Inversement, cette formule expose en permanence le fournisseur au risque de remplacement de son matériel par un matériel concurrent en cas d'insatisfaction du client. La seule forme de services facturée par les constructeurs est le « Service Bureau », qui consiste à traiter les travaux des clients sur les matériels du prestataire. Il permet le partage d'ordinateurs et de compétences et s'adresse principalement aux petits clients, ainsi qu’à des projets occasionnels ou demandant des compétences spéciales. Cette activité résulte simplement de l'équipement en ordinateurs du Service Bureau mécanographique classique, qui existait depuis plusieurs décennies. C'est dans cette activité de traitement à façon que s'engageront les premières Sociétés de Services indépendantes. Il faut noter que, contrairement aux autres formes de service qui restent gratuites, le Service Bureau est en concurrence avec l’installation d’un ordinateur chez le client, et non une offre complémentaire. Le tarif des matériels est de façon majoritaire un tarif de location donnant droit au logiciel et aux services. Il est dit « fonctionnel » parce qu'assis sur le service rendu plus que sur les prix de revient. Il existe maints exemples qu'une machine A moins puissante qu'une machine B, et donc offerte à un tarif inférieur, soit construite en ajoutant à B un dispositif de ralentissement ou autre limitation, qui en augmente le prix de revient par rapport à celui de B. La machine B plus puissante est donc à la fois plus chère pour le client et moins coûteuse pour le constructeur. La tarification fonctionnelle permet au constructeur d'empocher la totalité de la différence entre la valeur d'usage que présente le produit pour son utilisateur et le coût de revient de ce produit. Elle est en cela cohérente avec à la théorie économique, mais ne peut durer que dans une situation de type monopoliste due à de fortes barrières à l’entrée, car un concurrent potentiel peut, en renonçant à une partie de la marge, offrir des produits de même valeur d'usage à un tarif inférieur. A l'inverse, les tarifs pratiqués par le concurrent dominant, c'est à dire celui qui jouit globalement de l'avantage concurrentiel maximal, constituent une référence pour les autres offreurs comme pour le marché. Tant qu'un offreur peut pratiquer des prix légèrement inférieurs à ceux du concurrent dominant pour des produits comparables, il est assuré d'obtenir une part de marché et (dans la mesure où ses coûts sont raisonnables) d'atteindre la rentabilité. Ce phénomène de « price umbrella » a assuré à l'ensemble de l'industrie une bonne prospérité jusqu'à ce que certains offreurs

xxi

déclenchent une guerre des prix, principalement à la fin des années 60 avec le phénomène des « mini-ordinateurs ». Les profits élevés réalisés sur le matériel permettent aux constructeurs de maintenir une importante activité de Recherche et Développement, avec pour résultat une avalanche de produits nouveaux. Ils leur permettent également de consacrer beaucoup d'efforts au développement du marché en expérimentant des applications nouvelles et en assurant leur promotion, en éduquant le public visé, en assistant les utilisateurs pour la mise en œuvre, … Mais bien entendu, même si dans une certaine mesure les tarifs élevés et les efforts de promotion d'IBM servent aussi les autres firmes, la profitabilité potentielle du secteur ne se réalise qu'au prix d'efforts soutenus, comme le constateront à leurs dépens un certain nombre de firmes qui ont abordé ce secteur et ont été contraintes de s'en retirer rapidement. Mais cette évolution foisonnante et extrêmement rapide porte en elle les germes d'une désintégration. D'une part, dès le début des années 60, chaque machine se présente comme un catalogue d'unités connectables et personnalisables, réalisant des fonctions différentes à l'aide de technologies différentes. Chaque système comprend sa propre gamme d’unités de calcul, de mémoires, de bandes magnétiques, de mémoires à disques, d’imprimantes, de contrôleurs de communications, … qui ne peuvent le plus souvent pas être utilisées dans d’autres systèmes. Les grands constructeurs vont chercher à s'organiser pour gérer séparément les différents types d'unités selon leur technologie, tout en se donnant la possibilité de les assembler en systèmes de façon très libre. Ainsi une seule gamme d'unités de bande par exemple pourra se connecter à toutes les unités de calcul, maximisant à la fois la rentabilité des investissements de développement pour le constructeur et la souplesse de configuration pour le client. Cette tendance aboutira à l'annonce du système IBM 360 en 1964, qui marque le début de la standardisation. D'autre part, la diversification des applications et des modes d'utilisation, ainsi que leur caractère évolutif, entraîneront une explosion et une diversification des besoins d'assistance et de formation. En même temps, le poids et la diversité du logiciel croîtront de façon spectaculaire. Ce qui n'était au départ que services annexes deviendra pour le constructeur un poste de dépenses majeur en même temps qu'un facteur concurrentiel souvent déterminant. Le souci de gérer ces activités de façon rationnelle aboutira à l'annonce de l'« unbundling » par IBM en 1969, qui ouvrira le marché du logiciel et des services.

xxii

Le 360 et la fragmentation du matériel (1964)
3

Une architecture ouverte
En Avril 1964, IBM, qui domine largement toute l'industrie informatique, annonce la gamme 360. Cette annonce est une des étapes marquantes de l'histoire de l'informatique. Non seulement les concepts et les standards nouveaux qu'elle définit sont restés valides jusqu'à ce jour et sont encore à la base des ordinateurs actuels, mais elle introduit la notion même de standard au cœur de l'industrie informatique, alors que jusque là les seuls standards concernaient les langages évolués FORTRAN et COBOL. En ce sens, après le bouillonnement des premières années, cette annonce marque le début d'une ère « classique » qui ne sera contestée que par la montée du phénomène micro autour de 1980. Avant le 360, IBM commercialise au moins cinq gammes d'ordinateurs incompatibles entre elles : une famille d'ordinateurs scientifiques à mots de 36 bits (7040/7044, 7090/7094), une famille d'ordinateurs de gestion à mots de 6 caractères (7070, 7074), plusieurs familles d'ordinateurs de gestion adressables par caractères (1401, 1410/7010, 1440, 1460, 7080), une famille d'ordinateurs personnels scientifiques adressables par caractères (1620, 1710) et une famille d'ordinateurs de gestion des communications (7740, 7750). L'objectif est de remplacer toutes les lignes d'ordinateurs existantes par une gamme unique compatible, au sens où tout programme exécutable par l'un des processeurs peut être exécuté par tout autre processeur doté d'une capacité mémoire au moins égale et d'unités d'entrée-sortie équivalentes. De plus, la conception de cette gamme doit être telle que tous les développements futurs de l'informatique, qu'il s'agisse de l'évolution des technologies, de l'invention d'organes nouveaux ou de fonctions nouvelles, ou encore de l'émergence de nouvelles applications ou de nouveaux modes d'utilisation, puissent s'y intégrer sans en remettre en cause les options fondamentales. Pour cela, IBM introduit une distinction conceptuelle entre « architecture » et « structure » de ses machines. L'« architecture » du système 360 est constituée par l'ensemble des règles et conventions d'utilisation, dont par exemple la représentation des informations, le mode d'adressage, le jeu d'instructions, … La « structure » de chaque machine concerne les caractéristiques d'une réalisation particulière de l'architecture. L'architecture 360 est unique, mais elle est réalisée sous forme de structures variées. Par exemple, dans les modèles les plus puissants de la gamme, toutes les instructions sont reconnues et exécutées directement par les circuits, les transferts d'informations se font par blocs de 8 octets , les fonctions de calcul et celles de gestion
4

3 Pour un historique détaillé du développement de la gamme 360 et de ses successeurs immédiats, voir l'excellent ouvrage de Emerson Pugh, Lyle Johnson et John Palmer « IBM's 360 and Early 370 Systems » (The MIT Press, 1991), qui fait suite à l'ouvrage « IBM's Early Computers » et couvre la période 1960 à 1975. 4 Un octet (en anglais « byte ») est un ensemble de 8 positions binaires ou bits, capable de prendre 256 valeurs distinctes, et utilisé comme le plus petit élément d’information dans l’architecture 360, et dans toutes les architectures suivantes. Un octet peut représenter par exemple un caractère choisi parmi un

xxiii

des entrées et sorties sont réalisées en parallèle par des organes physiquement distincts, alors que dans les modèles d'entrée de gamme de nombreuses instructions sont simulées par programme, les transferts se font octet par octet, certaines fonctions logiquement distinctes sont exécutées par le même organe. Tous les modèles reconnaissent néanmoins le même jeu d'instructions et peuvent exécuter les mêmes programmes, mais avec des niveaux de performances et de coût différents. Par ailleurs, il faut pouvoir connecter aux unités de traitement des périphériques extrêmement divers tant par leurs fonctions que par leurs performances, et dont l'évolution doit être indépendante de celle des unités centrales. A cette fin, IBM imagine de distribuer les fonctions entre unités de traitement et unités de gestion des entréessorties, de telle sorte que les fonctions spécifiques à telle ou telle unité soient réalisées par une unité de contrôle associée à cette unité, les composants centraux du système se bornant à lui transmettre les informations de commande nécessaires. Le développement d’une nouvelle fonction ou d’une nouvelle unité d'entrée-sortie peut ainsi devenir une activité autonome qui ne demande pas de modifications aux autres unités du système. L'annonce du Système 360 préfigure ainsi la notion de systèmes ouverts en séparant les notions d'« architecture » et d'« implementation » et en introduisant la notion d'interface standard entre unités. Ce faisant, IBM ouvre involontairement la voie aux offreurs de compatibles.

Des frontières modifiées
Le découplage entre une architecture unique et des réalisations variées est rendu possible par l'introduction du « microcode », forme de logiciel qui réalise les fonctions de l'architecture non réalisées directement par les circuits. Un modèle particulier de la gamme se caractérise par une certaine répartition des fonctions entre le matériel proprement dit (les circuits) et une couche de logiciel associée à ce matériel, le microcode. Une évolution technologique, la correction d'une défaillance ou l'adjonction d'une fonction nouvelle se traduiront le plus souvent par une modification dans le microcode, qui pourra être reportée dans le matériel lors de l'introduction ultérieure de nouvelles machines. Le microcode est utilisé en particulier pour réaliser des « émulateurs » qui permettent aux machines de la série 360 d'exécuter de façon assez performante les instructions de machines antérieures. La même possibilité peut être offerte sous forme de simulation purement logicielle, mais au prix d'une perte notable de performances ; L'utilisation d'une couche intermédiaire plus plastique que les circuits mais accédant directement à leurs fonctions élémentaires permet à la même machine de présenter plusieurs physionomies (ou architectures) différentes à des niveaux de performances comparables. L'introduction du microcode établit par ailleurs un niveau intermédiaire entre les fonctions directement réalisées par les circuits et celles réalisées par

jeu de 256, dont les lettres majuscules et minuscules, les chiffres, les signes de ponctuation et des caractères spéciaux.

xxiv

programmation, et tend à rendre purement conventionnelle la traditionnelle distinction entre matériel et logiciel. Comme précédemment, les relations contractuelles d'IBM avec ses clients reposent exclusivement sur le matériel, dont le logiciel et les services sont des compléments « gratuits ». Mais avec le 360, le « matériel » est en réalité un mélange de matériel et de logiciel (baptisé microcode pour la circonstance), dont les proportions sont variables d'un modèle à l'autre et variables dans le temps pour des modèles équivalents. Cette continuité entre matériel et logiciel se prolonge de l'autre coté de la frontière attribuée au matériel, puisque le système d'exploitation (Operating System) devient vite une partie intégrante de l'offre du constructeur (bien que toujours « gratuit »). Il est en effet inconcevable de faire fonctionner un ordinateur de la complexité du 360 sans son système d'exploitation, alors que c'était encore monnaie courante avec les générations précédentes. Plus significativement, les perfectionnements progressifs du système d'exploitation s'accompagnent souvent de la définition de nouvelles instructions « machine » réalisées en microcode. Au total, avec le système 360, la distinction entre matériel et logiciel devient floue et en tous cas perd de son importance en termes opérationnels. Il serait plus pertinent de considérer d'une part l'ensemble formé par le matériel et son système d'exploitation, composé d'un mélange de matériel et de diverses variétés de logiciel, dont le constructeur est maître et dont l'utilisateur ignore les détails, et d'autre part les logiciels d'application qui concernent l'utilisateur. A l'intérieur du complexe formé par le matériel et le logiciel de base, la frontière entre circuits et programmes résulte d'un arbitrage technico-économique valable pour un état particulier des technologies, voire pour un modèle particulier de la gamme, et doit rester sous le contrôle du constructeur. Cette conception, qui exclut de séparer l’industrie du matériel et celle du logiciel de base, explique la réticence d'IBM à séparer totalement la facturation du logiciel au moment de l'unbundling, et influencera fortement le projet FS au début des années 70 . Bien que cette attitude ait été reprochée à IBM comme un abus de position dominante, la validité de cette vision n'est pas à démontrer puisque les microprocesseurs utilisés aujourd'hui dans les micro-ordinateurs contiennent une quantité importante de logiciel.
5

Sur le plan technologique, IBM choisit (le premier parmi les grands constructeurs) la nouvelle technologie des circuits intégrés pour la réalisation du 360, et se met à fabriquer ses propres composants. Jusque là, les constructeurs d’ordinateurs achetaient à des fabricants de composants électroniques les tubes à vide puis les transistors utilisés dans la fabrication des ordinateurs. La fabrication des composants était ainsi extérieure à l’industrie informatique. Toutefois, dès 1956, IBM avait décidé de fabriquer ellemême les mémoires à tores de ferrite, et avait à cette occasion constaté sa capacité à produire en masse des composants de façon plus fiable et plus économique que ses fournisseurs habituels, puis avait pris un leadership dans le domaine du « packaging » à partir de 1959. Le passage des composants discrets aux circuits intégrés rend la conception des circuits partie intégrante de la conception de l'ordinateur lui-même. Il est donc naturel

5

voir les chapitres suivants

xxv

que les constructeurs entreprennent de développer et d'utiliser leur propre technologie de composants, se séparant ainsi des fabricants de composants électroniques traditionnels et couvrant désormais l'ensemble de la filière, depuis le silicium brut jusqu'au système opérationnel installé chez le client avec les logiciels et les services nécessaires. Avec le système 360, s'ouvre l'apogée de l'intégration industrielle des constructeurs de matériel informatique.

L'impact sur la structure du secteur
A l'origine, les grands choix architecturaux qui ont présidé à la définition du 360 n'ont été qu’indirectement déterminés par des considérations concurrentielles, même si l'ensemble du programme avait évidemment pour but de maintenir la compétitivité d'IBM, et si in fine l'annonce en a été précipitée par les menaces d'Honeywell, de General Electric et de Control Data, qui lancèrent tous trois de nouveaux systèmes très compétitifs en 1963. Il s'agissait bien plus de structurer de façon optimale le travail des différents laboratoires de développement d'IBM, en permettant la gestion et l'évolution séparée des différentes composantes tout en faisant bénéficier de ces développements l'ensemble de la gamme IBM. En d'autres termes, le but recherché était l'économie d'échelle maximale au niveau de l'investissement en Recherche et Développement. Simultanément, la définition d'une architecture standard permettait aux clients d'évoluer dans la gamme et de profiter des progrès technologiques sans remettre en cause leurs investissements passés. Elle réunissait enfin tous les utilisateurs dans une même communauté, facilitant les échanges entre eux et accélérant la diffusion des innovations. Au plan de la structure de l'industrie, cette annonce allait néanmoins avoir des conséquences profondes, qui n'avaient probablement pas été prévues ou à tout le moins étaient sous-estimées par les responsables de la décision. Dès que l'architecture 360 se sera diffusée largement et paraîtra devoir rester stable plusieurs années, elle constituera un standard de fait sur la base duquel des entreprises tierces construiront leurs propres offres. Celles-ci seront soit des compléments, c'est à dire des éléments que le leader ne fournit pas, soit des substituts, c'est à dire des éléments qui entrent en concurrence avec les offres homologues d'IBM. En établissant des standards généraux d'interconnexion entre les unités d’un système informatique, IBM ouvre à d'autres entrepreneurs la possibilité d'offrir des matériels connectables aux siens et pouvant aussi bien entrer en concurrence avec les matériels IBM que les compléter. Des firmes peuvent ainsi se spécialiser sur un type d'unité pour lequel elles pensent disposer d'un avantage concurrentiel tout en bénéficiant de l'effet d'entraînement du leader du marché. De fait, une concurrence différenciée niche par niche voit progressivement le jour au fur et à mesure que l'architecture 360 pénètre le marché et donne des signes d'universalité et de pérennité. Apparaissent d'abord des unités connectables compatibles (bandes Telex en 1967, disques Memorex en 1968, imprimantes, puis écrans), puis des

xxvi

mémoires compatibles enfichables dans les unités centrales IBM. En 1975, apparaissent enfin des unités centrales compatibles (Amdahl) lorsque la pérennité de l'architecture a été validée par 10 ans d'existence et confortée pour une durée au moins égale par les annonces du système 370 (1970), puis de la mémoire virtuelle (1972), toutes deux extensions compatibles de l'architecture 360. Sans vraiment le vouloir, IBM a inventé les systèmes ouverts. A la fin des années 1970, chaque élément des systèmes IBM est en concurrence avec plusieurs équivalents non IBM parfaitement compatibles, produits par des entreprises spécialisées, et concurrentiels tant au plan des performances et de la fiabilité qu'à celui des prix. Cette nouvelle forme du jeu concurrentiel ne touche les autres constructeurs qu'à proportion de leur succès, la motivation pour développer un compatible étant fortement croissante avec la part de marché du matériel que le compatible peut compléter ou remplacer. Vers cette même date, une partie du marché commence à croire à la stabilisation durable des architectures d'ordinateurs et se tourne vers l'achat des matériels plutôt que leur location. Apparaissent alors les premières sociétés de crédit-bail informatique, tandis que se dessine la perspective d'un marché actif des ordinateurs d'occasion. Cet éclatement du secteur informatique pose aux constructeurs généralistes, et principalement à IBM, une question fondamentale de stratégie : doivent-ils rechercher leur avantage concurrentiel dans l'architecture du système, la cohérence des composants qu'ils proposent et le service rendu au niveau global, ou au contraire dans la qualité et le prix de chacune des unités composantes prises isolément ? Ce choix entre une « stratégie de systèmes » (system strategy) et une « stratégie de boîtes » (box strategy) a de profondes implications d'organisation et de pratiques commerciales, et a alimenté à l'intérieur d'IBM un débat souterrain qui domine les décisions stratégiques depuis le début des années 1970. La stratégie de systèmes allait de soi jusqu'à l'annonce du 360 qui fut un de ses points culminants, avec celle du 370 et de l'architecture SNA de gestion des communications en 1974. Les tenants de la stratégie de boîtes (principalement les fonctions finance et fabrication) allaient alors progressivement prendre le dessus sur les avocats de la stratégie de systèmes (surtout présents dans le développement et les ventes), surtout après la renonciation d'IBM au projet FS qui représentait un extrême de la stratégie de systèmes .
6 7

Résumé
L’industrie informatique est née de la conversion à l’ordinateur de l’industrie mécanographique. Activité mineure au départ, l’informatique a pris une place de plus en plus grande au sein de chacune des firmes qui composent cette industrie, au fur et à mesure qu’elles mettaient sur le marché des ordinateurs de bas de gamme destinés à remplacer le matériel classique pour un prix comparable. C’est en 1962 que le chiffre d’affaires réalisé par IBM dans les ordinateurs dépasse son chiffre d’affaires en matériel mécanographique. Vers la fin des années 60, les constructeurs de machines
6 7

Systems Network Architecture voir le chapitre suivant

xxvii

mécanographiques se sont mués en constructeurs d’ordinateurs conservant une activité de mécanographie résiduelle, qui ne tardera pas à disparaître totalement. D’autres sociétés ont également abordé ce domaine. A la fin des années 50, de grandes Sociétés d'électricité ou d'électronique comme General Electric, RCA, Honeywell et d'autres créent à leur tour en leur sein une activité de fabrication d’ordinateurs, mais la plupart de ces tentatives avorteront plus ou moins rapidement. En revanche, des firmes nouvelles qui débutent dans les ordinateurs en se spécialisant sur des marchés particuliers, comme Control Data (1957) ou Digital Equipment (1962) connaîtront une meilleure fortune. L’industrie informatique que nous connaissons aujourd’hui est pour l’essentiel composée d’une part des descendants des mécanographes du début du siècle, d’autre part de firmes plus récentes qui n’ont jamais eu d’autre activité que l’informatique. Au total, l’informatique est affaire de firmes spécialisées dans ce domaine, et peut donc bien être considérée comme une industrie autonome. L’exception notable est formée par les acteurs japonais comme Fujitsu, NEC, Hitachi, Toshiba, ou européens comme Siemens ou Olivetti, pour lesquels l’activité informatique n’est qu’une partie d’un groupe diversifié. De plus, l’industrie informatique s’est détachée de l’industrie électronique dans les années 60 en entreprenant de fabriquer elle-même les composants des ordinateurs. Les firmes d’informatique sont donc totalement intégrées dans le sens vertical, en ce sens qu’elles incorporent l’ensemble de la filière qui conduit du silicium brut à l’ordinateur ; elles sont également intégrées en termes de prestations, leur production finale incluant tout ce qui est nécessaire à leurs clients pour réaliser un système informatique. Les entreprises d’informatique des années 60 se conforment toutes à un même modèle, celui de la firme intégrée offrant tous les éléments nécessaires à la mise en place de systèmes complets, avec le logiciel, l’assistance et la maintenance correspondante. La facturation de cet ensemble de matériels et de services étant assise exclusivement sur le catalogue du matériel, il n’existe pas d’offre indépendante de logiciel ou services, hormis le service bureau qui est déjà engagé sur la voie de la régression. Pendant cette période, l'informatique forme bien un secteur au sens de Porter . Tous les constructeurs offrent en effet des paniers de prestations comparables, et pour chaque utilisateur l'ensemble de l'offre d'un constructeur (matériel, logiciel et services) peut se substituer à celle d'un de ses concurrents. Même le Service Bureau constitue une alternative à l'acquisition d'un ordinateur en propre. En revanche, jusqu'au milieu des années 60, il n'existe pas de secteurs indépendants de logiciels ou de services.
8

Le secteur présente toutes les caractéristiques d'un secteur concentré. La recherche de l'innovation et les dépenses de commercialisation liées au développement du marché entraînent des investissements élevés. Les coûts de transfert entre produits concurrents, c'est à dire les coûts de conversion supportés par les clients en cas de passage d'une
8

voir le chapitre 6.

xxviii

architecture à une autre, sont élevés et augmentent progressivement avec le stock de programmes d'application et les effectifs d'informaticiens. Ce secteur, par définition naissant, présente les caractéristiques habituelles des secteurs en phase d'introduction et de début de croissance : –produits différenciés, pas de normes, changements fréquents de conception, –domination de la fonction Recherche et Développement, –séries de production courtes, coûts de commercialisation élevés, forte part de main d'œuvre qualifiée, –faible élasticité de la demande par rapport aux prix, stratégie de prix à base d'écrémage, profits et marges élevés, –faible nombre de firmes dans le secteur. IBM, qui occupait déjà une position dominante dans le secteur des matériels mécanographiques, maintient cette domination dans l'informatique où sa part de marché atteindra dépassera les 50% (ou les 70% selon les auteurs) au début des années 1960. Les forces concurrentielles de ce secteur naissant, en particulier l'importance de la R et D et les gros besoins de capitaux pour financer non seulement cette R et D et la croissance, mais aussi le parc locatif, favorisent en effet les firmes les plus importantes et disposant de la plus forte assise financière. Parmi un faible nombre de grands offreurs de matériels et services, IBM offre la gamme la plus complète, la plupart de ses concurrents ne couvrant qu'un segment particulier de besoins du marché avec une gamme plus étroite. L'annonce du 360 donne à IBM un avantage suffisant sur ses concurrents généralistes d'avant 1964 pour entraîner à terme le retrait (RCA, GE, Honeywell) ou le regroupement (UNIVAC/Burroughs, NCR/ATT, ICT/Fujitsu) de la plupart d'entre eux. Mais en même temps naît une autre concurrence visant spécifiquement les secteurs où la volonté d'universalité et de compatibilité d'IBM la rend vulnérable à la concurrence de constructeurs spécialisés. La fin des années 60 voit les prémices d’une désintégration de l’industrie selon le type de matériel et selon le marché visé.

xxix

Chapitre 2 Les crises d’adolescence (1968-1980)
Prééminence d’IBM et réactions diverses. Beaucoup de procès pour rien. IBM se scinde en deux. Apparition des mini-ordinateurs. L’« unbundling » et la fragmentation des services. FS ou la fin des illusions. Vers la maturité ?

L'annonce du 360 a renforcé la domination d’IBM sur l'industrie informatique, en donnant à ce système un statut de standard de fait. Dans le même temps, les premiers succès de la gamme 360, sa modularité et sa probable longévité ont suscité l'émergence de nouvelles formes de concurrence comme le crédit-bail, les systèmes d’occasion et les matériels compatibles, alors que naissent les premières sociétés indépendantes de conseil et de développement informatiques. Il en résulte un état de tension croissante entre IBM et ces nouveaux concurrents, qui vont tenter d’utiliser l’arme juridique pour accélérer la restructuration de l’industrie à leur profit. De son coté, tout en assurant sa défense proprement dite, IBM s’engage dans des projets de réforme structurelle visant à la mettre à l’abri de nouvelles attaques juridiques. En ce sens, les procès, la séparation des tarifs, la mise en place d’une organisation séparée pour le bas de gamme et le projet « Future Systems » sont liés. Un point commun à toutes ces entreprises est que toutes ont échoué pour l’essentiel, ou du moins que leurs résultats ont été très éloignés des espérances qu’avaient nourries leurs initiateurs, qu’il s’agisse d’IBM elle-même, de ses concurrents ou des pouvoirs publics. Voyons-y une indication que la dynamique intrinsèque de l’évolution d’une industrie tolère mal d’être bousculée par des accélérations forcées.

Le temps des procès (1968 - 1982)
En aggravant les craintes qu'IBM accentue encore sa domination sur l'industrie informatique, l'annonce du 360 a conduit le Gouvernement des Etats-Unis à commencer une enquête préliminaire en 1964. Parallèlement, IBM sera entre 1969 et 1973 la cible d’une vingtaine de procès intentés par des firmes privées, et en 1973 d’une action de la Communauté Européenne .
9

Ces procès, et en particulier celui du Gouvernement des USA, font l’objet de plusieurs livres dont deux écrits par des juristes ou des économistes qui ont été associés aux deux parties. Pour l’accusation : DeLamarter RT : Big Blue - IBM’s use and abuse of power (Donald Mead, 1986) Pour la défense : Fisher FM, McGowan JJ, Greenwood JE : Folded, Spindled and Mutilated Economic Analysis of US vs IBM (MIT Press, Cambridge, 1983)

9

xxx

Control Data ouvre le feu en Décembre 1968 en accusant IBM d'avoir annoncé prématurément le 360/90 dans le seul but de dissuader les clients de commander le Control Data 6600. Cette action ne vint jamais devant la justice et se termina en Janvier 73 par un accord amiable prévoyant en particulier la cession par IBM à Control Data de son activité de Service Bureau. Il est remarquable que les dispositions de cet accord aient eu si peu de rapport avec les motifs de la plainte. Le Ministère de la Justice des USA intente son propre procès en Janvier 1969. Sous le prétexte de contester certaines pratiques prétendument illégales, il s'agit en fait d'attaquer la position dominante d'IBM quelles qu'en soient les causes. Il est à peine exagéré de dire que pour nombreux des promoteurs de cette action, l'important n'est pas tellement de savoir si IBM s'est rendu coupable d'actes de concurrence déloyale, mais bien de mettre un terme à sa position dominante quelles qu'en soient les raisons. Cette action prend une importance particulière à cause de la nature du plaignant, de l'importance des enjeux et de la subtilité juridique de l'argumentation. Mentionnons deux débats cruciaux de ce procès, qui touchent des questions de fond de droit et de théorie économique. Le premier concerne l’évaluation de la part de marché d’IBM. Si le numérateur de cette fraction, le chiffre d’affaires d’IBM, est bien connu, il est plus difficile de déterminer quel doit être son dénominateur, autrement dit quelles sont les limites du marché concerné (« relevant market »). Pour IBM, le marché est constitué de l’ensemble des matériels, logiciels et services informatiques, dont elle estime sa part à environ 30% avec une modestie bien opportune. Pour ses accusateurs, le « relevant market » doit être restreint aux matériels compatibles IBM, dont il est facile de montrer qu’IBM occupe plus de 90%. C’est comme si le gouvernement français intentait un procès à Hermès en l’accusant de monopoliser le secteur des foulards Hermès au détriment des fabricants de copies ! Plus au fond, mais de façon non exprimée, la position du Ministère de la Justice sous-entend que le standard 360 a échappé à IBM pour devenir partie du domaine public. Le second débat est de savoir si une position dominante est en soi condamnable et si de ce fait des comportements par ailleurs licites pour des acteurs secondaires doivent être interdits à IBM. Dans le livre de DeLamarter, l’un des plus critiques envers IBM qui aient été publiés, il est frappant que le seul grief sérieux, auquel l’ouvrage est pratiquement entièrement consacré, est que les tarifs d’IBM sont établis de façon à tirer un profit plus élevé des matériels les moins soumis à la concurrence, et de consentir des marges moindres sur les autres matériels. La plupart des économistes et des hommes d’entreprise considéreront cette politique comme allant de soi. Devient-elle un crime quand elle est pratiquée par IBM ? Plus profondément, dans la mesure où les lois antitrust sont faites pour encourager la concurrence, est-il légitime d’interdire à un acteur le comportement même que ces lois sont censées protéger ? Entre 1969 et 1971, plusieurs procès sont intentés par des sociétés de crédit-bail à la suite de DP Financial and General, et sont tous abandonnés plus ou moins rapidement dès que les premiers jugements sont rendus à l'avantage d'IBM. Une deuxième vague est ensuite intentée par des Sociétés de matériels compatibles à la suite de Telex. L'affaire Telex est le seul cas où IBM ait été formellement (mais provisoirement) déclaré coupable de pratiques abusives (alors que Telex était condamné pour vol de

xxxi

secrets industriels). Un premier jugement fut rendu en ce sens en Septembre 1973, puis la condamnation d’IBM fut annulée par une Cour d'appel en 1975. Entre-temps une douzaine de petites firmes avaient pris modèle sur Telex et intenté des actions du même type en demandant, conformément à la législation antitrust, des dommages-intérêts égaux au triple des dommages prétendument subis (« treble damages »). Pour une firme en difficulté, traîner en justice une IBM harcelée de procès dont un du Gouvernement des Etats-Unis apparaissait alors comme un moyen assez sûr d'aboutir à une transaction financièrement providentielle. Le renversement du jugement Telex en 1975 durcit l'attitude d'IBM et tarit rapidement ce flot de procès dont le bien-fondé juridique était pour le moins léger et dont le nombre ne doit pas faire illusion. Le procès du Gouvernement commença en Mai 1975 après 6 ans d’instruction, et après que 14 juges indépendants aient conclu à des non-lieux sur les mêmes chefs d’accusation. Il donna lieu pendant encore 6 ans à des échanges assez surréalistes où abondèrent les erreurs de fait et de droit, les incohérences dans la position de l’accusation et les aberrations de procédure. Il n'aboutira à aucune conclusion formelle jusqu'à ce que les poursuites soient déclarées non fondées (« without merit ») en Janvier 1982. Cet ensemble de procès constitue une mise en examen de la structure de l'industrie informatique et propose des dispositions visant à modifier cette structure. Même si aucune de ces actions n'a abouti, elles ont collectivement formé une partie importante du cadre dans lequel ont été prises les décisions de l'industrie informatique entre 1969 et 1975. A cette dernière date presque toutes les actions avaient trouvé leur conclusion, toujours dans un sens favorable à IBM, et le procès intenté en 1969 par le Ministère de la Justice des USA entrait dans un profond sommeil jusqu'à son abandon en 1982. L'action intentée postérieurement par la Communauté Européenne en 1980 et conclue en 1984 apparaît comme une aberration sans importance. En 1973, alors que l'ambiance était (provisoirement) euphorique pour les adversaires d'IBM, la Communauté Européenne commença sa propre enquête. Celle-ci devait aboutir à une action en abus de position dominante intentée en Décembre 1980, alors que toutes les charges avaient été abandonnées aux USA, y compris la plainte du Ministère de la Justice qui allait être retirée un an plus tard. Déçus dans leurs espérances aux Etats-Unis, certains plaignants espéraient obtenir satisfaction en Europe grâce aux différences entre la législation communautaire et celle des USA, et en comptant sur un certain anti-américanisme à la mode en Europe. L'action de la Communauté Européenne commençait donc comme une mascarade. Elle devait se terminer dans la bouffonnerie en Août 1984, quand la Communauté Européenne abandonna les poursuites en échange d'un engagement pris par IBM de publier et de tenir à jour des informations sur son standard SNA de gestion de réseau, qu'elle publiait déjà ou aurait publié de toute façon comme pour tous ses autres logiciels majeurs. Cet engagement en trompe l’oeil permettait à la Communauté Européenne de se sortir d’une mauvaise querelle tout en sauvant les apparences. Il n’en fut pas moins célébré comme une grande victoire sur IBM, que cette dernière se garda bien de minimiser. Quel est le bilan de cet épisode de querelles juridiques ? Les actions d'IBM ont certes été quelque peu entravées pendant une dizaine d'années où les juristes ont exercé un contrôle tatillon sur toutes les décisions d'organisation, de produits et de politique

xxxii

commerciale. De même, la tarification séparée du logiciel et des services a incontestablement été accélérée, même s'il est probable qu'elle aurait été introduite tôt ou tard. La combinaison de ces deux effets a permis le démarrage de nombreuses sociétés de logiciel et de services, ainsi qu'une émancipation progressive des clients favorable à la multiplication des concurrents, à l'érosion de la part de marché d'IBM et à l'accélération du progrès technique. Vers la fin de la période des procès, IBM faisait remarquer avec ironie que la plupart des firmes dont le Gouvernement des Etats-Unis et la Communauté Européenne recueillaient les plaintes pour abus de position dominante n'existaient pas au moment où IBM était censée monopoliser l'informatique. De quelques centaines de firmes en 1964, l'industrie informatique est passée à environ 20000 firmes en 1980 et 50000 en 1992. L'examen du rythme de croissance annuel d'IBM ne fait pas apparaître de corrélation évidente avec le déroulement des procès. Après les années noires de 1969 et 1970, il revint se stabiliser autour de 15% de 1972 à 1974, amorça une décroissance de 1975 à 1977 et connut des oscillations entre 9 et 15% de 1978 à 1982. La conclusion des procès en 1982 s'accompagna d'une remontée du taux de croissance à 18%, mais pour entamer aussitôt une décroissance inexorable qui après quelques soubresauts entre 1987 et 1990 allait conduire à des taux négatifs en 1991 et 1992. Sur l'ensemble de cette période, la part de marché d'IBM passait de plus de 70% à environ 30%, démentant les prédictions des augures selon lesquelles la domination d'IBM aboutirait inéluctablement à une situation de monopole que seule une action vigoureuse de la justice pourrait éviter. En réalité, en même temps que l'action juridique échouait, d'autres forces économiques naturelles entraient en jeu pour limiter l'expansion de l'acteur dominant et remodeler le visage de l'industrie en le rééquilibrant. En revanche, les procès n'ont eu que très peu d'influence profonde sur la culture et les habitudes d'IBM. Toutes les personnes qui étaient en contact avec l’extérieur (commerciaux, acheteurs, managers, …) certifiaient par écrit chaque année avoir relu les « Règles de Conduite dans les Affaires ». Tous les actes commerciaux étaient passés au crible par les services de politique commerciale, pour qui il était rigoureusement impensable de s'écarter du tarif officiel ou des délais de livraison fixés par les usines. Pour les collaborateurs et les clients d’IBM, qui étaient témoins et quelquefois victimes des manœuvres plus souples (pour employer un euphémisme) de leurs concurrents, il était impensable que ceux-ci aient le front de reprocher à IBM des actes de concurrence déloyale, et inimaginable que des gens sérieux, comme étaient censés l'être le Gouvernement des Etats-Unis ou la Justice, puissent y accorder crédit. Aussi l'ensemble du personnel IBM n'a jamais douté qu'IBM finirait par avoir gain de cause. Cette confiance s'est légèrement érodée quand il apparut avec le temps que l'action du Gouvernement US était sérieuse, ce qui pouvait faire craindre n'importe quelle issue tout aussi irrationnelle, et elle a un peu vacillé à la suite du premier verdict dans l'affaire Telex fin 73. Au total, que ce soit à travers les différents jugements rendus ou les autres formes d'aboutissement des actions engagées, la conclusion générale est que la structure de l'industrie informatique des années 70 résultait du jeu normal des forces économiques et concurrentielles, et non de machinations ou d'abus de pouvoir. Mais en même temps le

xxxiii

jeu de ces mêmes forces permettait l'apparition de nouveaux acteurs, qui allait conduire à l'explosion de l'industrie et au déclin progressif de la domination d'IBM.

L'« unbundling » (1969-1972) et la fragmentation des services
Motivations et principes
Les premières années du 360 ont été difficiles dans le secteur des logiciels : retards dans le développement, besoins en mémoire très supérieurs aux prévisions pour obtenir des performances acceptables, nécessité d'un haut niveau d'assistance et de formation pour pallier les problèmes rencontrés par les utilisateurs. IBM découvre que la structure même de son offre fait du logiciel de base un élément critique du système, et commence à concevoir des inquiétudes quant aux coûts croissant des logiciels et de l'assistance technico-commerciale, qui pèsent sur la tarification du matériel et sur sa compétitivité. Une fois les difficultés initiales surmontées, vers la fin de 1967, les besoins des clients, et donc leurs demandes de logiciels et d'assistance continuent à se diversifier et à croître. En réponse à cette demande apparaissent des offres de logiciels et de services en provenance de sociétés spécialisées. Ces offres ont sur les offres homologues des constructeurs l'inconvénient de ne pas être gratuites. Elles ont en revanche l'avantage de pouvoir faire l'objet d'un contrat clair et de ne pas être soumises à la bonne volonté du constructeur, ainsi que de proposer des compétences applicatives, d'organisation ou de choix de système que les constructeurs n'offrent pas ou peu. Vers cette même date, une partie du marché commence à croire à la stabilisation durable des architectures d'ordinateurs et se tourne vers l'achat des matériels plutôt que leur location. Apparaissent alors les premières Sociétés de crédit-bail informatique, tandis que se dessine la perspective d'un marché actif des ordinateurs d'occasion. Se pose également la question de la fourniture des services traditionnellement liés à l'acquisition d'un ordinateur dans le cas où le fournisseur est une société financière ou un vendeur d'occasion. Enfin, IBM est à ce moment la cible de plusieurs procès. Bien que ces actions ne concernent que marginalement le logiciel et les services d’assistance, IBM pense sans doute que « lâcher du lest » dans ces derniers domaines l'aidera à mieux tenir sa position dans celui du matériel et met donc à l'étude, au début de 1969, la facturation séparée (« unbundling » ou « tarification dissociée »). Cette nouvelle politique est annoncée aux USA en Juin de la même année pour s’appliquer immédiatement à l'ensemble de la gamme. IBM Europe annonce 9 mois plus tard (Mars 1970) que ces nouvelles dispositions ne sont applicables dans l’immédiat qu’aux nouveaux matériels, et seront étendues à toute la gamme à partir de Juillet 1972, après une période de transition de 15 mois. Il est amusant à ce propos que des détracteurs d’IBM lui aient reproché (et que certains lui reprochent encore maintenant) d’avoir fait preuve de malveillance en

xxxiv

pratiquant une politique de « bundling » jusqu'en 1969. En réalité, jusqu’à ce qu’IBM prenne l’initiative de facturer séparément le logiciel et les services, aucun constructeur ne les avait offerts isolément. IBM ne faisait que se conformer aux pratiques unanimes de l’ensemble de la profession, et à aucun moment n’a regroupé des prestations jusquelà facturées séparément. Son originalité a été au contraire de prendre l’initiative de l’« unbundling » et de l’appliquer avec une certaine rigueur bien avant les autres constructeurs. Comme l'annonce du 360, cette initiative d'IBM répond plus à des objectifs propres qu'à la pression directe de la concurrence. Il s'agit d'une part de mieux contrôler les activités de développement de logiciels et d'assistance aux clients en les adaptant mieux à la demande, d'autre part d'obtenir un avantage indirect dans un conflit juridique portant sur le matériel. Comme pour l'annonce du 360, les décisions qui en résultent contribueront néanmoins à façonner le visage de l'industrie informatique dans son ensemble. L'analyse des dispositions prises et de la façon dont elles seront mises en œuvre éclaire l'attitude d'IBM à l'époque vis à vis du logiciel et des services, attitude qui n'évoluera que lentement par la suite. Jusque là, IBM fournissait, pour un prix global attaché au matériel, un panier de services (logiciels, formation, assistance technique) dont il déterminait unilatéralement l'étendue pour chaque client. La maintenance du matériel était soit incluse dans le tarif de location, soit couverte par un contrat de maintenance donnant lieu à facturation séparée en cas d'achat du matériel. Aucune disposition contractuelle n'existait pour la maintenance du logiciel, ni pour la formation et l'assistance, ce qui présentait l'avantage de la gratuité, mais excluait tout engagement formel et toute garantie quant à ces éléments. Rappelons qu'IBM offrait en outre et de façon séparée des prestations de traitement en Service Bureau, à travers sa filiale SBC aux USA, via son organisation commerciale normale dans le reste du monde.
10

L'« unbundling » n'affecte directement ni le Service Bureau ni la maintenance du matériel, mais porte sur les secteurs du logiciel, de l'assistance technique et de la formation. Pour chacune de ces activités, une partie reste « gratuite », c'est à dire incluse dans le prix du matériel, et une partie devient facturable.

Le logiciel
Pour le logiciel, restent inclus dans le prix des matériels les logiciels « nécessaires à l'exploitation » de ceux-ci, c'est à dire les systèmes d'exploitation ou SCP (Systems Control Programs). Cette décision reflète d'une part l'hypothèse que l'utilisation de tout ordinateur exige un système d'exploitation, et d'autre part la volonté d'IBM de conserver un contrôle complet sur ces systèmes. Deviennent facturables séparément les logiciels remplissant une fonction particulière à telle ou telle application ou forme d'utilisation et non essentiels à l'exploitation, qui sont rangés dans la catégorie des ProduitsProgrammes (Program Products ou PP).
10

Service Bureau Corporation

xxxv

Cette facturation du logiciel n'implique pas de modifications dans l'organisation et les systèmes de gestion. Les sources de programmes restent pour l'essentiel les Divisions de développement de produits pour les SCP, les Centres de compétence par industrie (intégrés aux Divisions de Marketing) pour les PP. Les décisions relatives au logiciel peuvent donc être prises de façon centralisée comme pour les autres produits. La mise sur le marché des logiciels suit les mêmes règles que celle des autres produits, y compris la définition de leur tarif. Ils font l'objet d'annonces formelles similaires à celles des matériels et figurent dans le même catalogue. Ainsi, leur commercialisation et leur gestion respectent les habitudes établies et ne posent pas de problèmes particuliers de mise en œuvre. Dès l'origine donc, IBM a assimilé le logiciel au matériel et en a fait un produit comme les autres. Par la suite, le domaine du logiciel gratuit a été progressivement réduit jusqu'à disparaître. A partir des années 1980, tous les logiciels offerts par IBM sont facturés, et on peut rétrospectivement considérer que la distinction initiale entre SCP et PP n'a été qu'une disposition transitoire. Parallèlement, les prix du logiciel ont été progressivement augmentés, et la conjugaison des deux phénomènes a entraîné une croissance spectaculaire de la part du logiciel dans les revenus et les profits d'IBM. Mais le logiciel n'a pas pour autant été géré comme un secteur indépendant. IBM ne vend que des logiciels qu'elle aurait développés de toute façon pour soutenir la vente de ses matériels. En revanche, si IBM est resté dominant dans le logiciel de base, elle a accumulé les faux départs et les échecs dans le logiciel d'application – comme d'ailleurs les autres constructeurs – au point de s'en être pratiquement retirée.

L'assistance technique
Pour l'assistance technique, la distinction entre une partie « gratuite » et une partie facturable pose des difficultés plus sérieuses. Cette assistance est fournie pour l'essentiel par les Ingénieurs Technico-Commerciaux, qui apportent également une aide technique aux Ingénieurs commerciaux dans leur action commerciale. Sauf à introduire une spécialisation interne qui serait dommageable pour l'image et l'action commerciale d'IBM, la séparation entre assistance facturable et assistance gratuite, quel qu'en soit le principe, doit donc être gérée par chacun des Ingénieurs pour ses propres activités. Les groupes d'études chargés de l'unbundling passeront beaucoup de temps à tenter de définir pour le Technico-Commercial une frontière qui soit à la fois assez simple pour être gérable et satisfaire les juristes, et assez réaliste pour ne pas entraîner une catastrophe commerciale. Ce débat interne se poursuivra pendant plusieurs années, sur un ton souvent très vif, et donnera lieu à plusieurs changements successifs de politique. La règle retenue pour la première annonce aux USA est draconienne : elle pose en principe que l'aide (gratuite) apportée par le Technico-Commercial à l'action commerciale doit se dérouler exclusivement dans les locaux d'IBM. Toute présence du Technico-Commercial chez un client est donc réputée avoir pour but d'assister ce client, et est de ce fait facturable. Comme de plus les nouvelles pratiques commerciales sont aux USA applicables dès leur annonce, les Ingénieurs Technico-Commercial reçoivent l'ordre de ne plus se présenter chez leurs clients dès le lendemain de l'annonce, tant

xxxvi

qu'un contrat de services d'assistance facturable n'a pas été signé avec le client par l'Ingénieur Commercial en charge du compte. Cette décision, qui montrait de la part de ses auteurs une totale méconnaissance de la réalité du terrain, provoque bien entendu une levée de boucliers non seulement des clients, mais aussi de tout l'appareil commercial d'IBM. Elle correspond également, sans que la relation de cause à effet puisse être prouvée, à un ralentissement de la croissance du chiffre d'affaires qui tombe de plus de 25% par an en 1967 et 1968 à moins de 5% en 1969 et 1970. Au bout d'un certain temps, la Direction d'IBM devra reconnaître son erreur et rechercher les moyens de la corriger sans pour autant paraître renier les principes qu'elle avait édictés quelques mois plus tôt. Le principe de la solution finalement retenue est d'extraire une partie des effectifs Technico-Commerciaux des Agences commerciales et de les regrouper dans des Centres dont l'activité sera par définition facturable. L'activité des Agences est considérée comme gratuite par principe, à l'intérieur de certaines limites assez imprécises. L'idée semble être que si les Centres peuvent faire état d'un niveau suffisant de facturation, cette facturation servira en quelque sorte d'alibi pour faire accepter par les juristes et les autorités extérieures un certain laxisme au niveau des Agences. Mais cet appauvrissement des forces commerciales est mal ressenti sur le terrain, et même si le faux pas initial finit ainsi par être maladroitement corrigé, il n'en a pas moins gravement entaché l'image d'IBM et ses relations avec la clientèle, ainsi – pourquoi ne pas le dire ? – que la confiance d'une grande partie d'IBM dans ses propres dirigeants. Dans le reste du monde et en particulier en Europe, rien n'a été annoncé au moment de cette expérience malheureuse sinon la poursuite de l'étude. Celle-ci s'oriente dans une voie plus souple : distinguer dans les activités du Technico-Commercial celles qui sont au bénéfice d'IBM (préparation des propositions et participation à leur présentation par exemple), qui ne seront pas facturables même si elles ont lieu chez le client, de celles qui sont au bénéfice du client (aide à l'exploitation ou à l'écriture de programmes par exemple), qui seront facturables même si elles ont lieu dans les locaux IBM. La mise en œuvre de cette politique suppose que soit établie une nomenclature réaliste des tâches du Technico-Commercial, indiquant pour chacune son caractère gratuit ou facturable selon le bénéficiaire principal. Une difficulté, ou une possibilité de souplesse, existe du fait que certaines activités comme l'établissement et le suivi du planning d'installation, ou encore la sélection des solutions techniques, peuvent être considérées comme bénéficiant à la fois à IBM et à son client. D'une position ou ces activités sont définies comme facturables, IBM Europe, sous la pression des USA qui sont en train de tenter de corriger leur propre décision, glisse rapidement vers une position où ces activités intermédiaires sont gratuites. Dans toute cette période de lancement, le souci principal d'IBM est de facturer une partie de l'assistance technique qu'elle fournit à ses clients en tout état de cause, et non pas de développer une offre de services nouveaux. La part facturée doit être suffisante

xxxvii

pour aboutir à un contrôle plus efficace des activités du personnel technico-commercial et pour satisfaire les contraintes juridiques, mais sans pour autant nuire à la commercialisation du matériel. A aucun moment il n'est envisagé d'ériger cette activité d'assistance technique en un centre de profit plus ou moins indépendant. IBM applique d'ailleurs à ces services une politique de tarifs élevés cohérents avec ses pratiques de rémunération, mais dissuasive pour les clients qui restreignent progressivement leur recours à IBM aux tâches exigeant une excellente connaissance des produits et/ou des logiciels. Des politiques analogues, généralement encore moins précises, seront adoptées par les autres constructeurs, qui dans leur ensemble tiennent à préserver leur souplesse et leur capacité à utiliser l'assistance comme un argument de vente du matériel.

La formation
Dans le cas de la formation, les modalités pratiques d'une facturation partielle posent un problème intermédiaire entre celui du logiciel et celui de l'assistance. Les cours sont en effet répertoriés dans un catalogue et dispensés dans des centres spécialisés. Il est donc possible de les traiter comme des produits en attachant un prix à chacun une fois pour toutes. La décision quant au caractère facturable est ainsi confiée à un échelon central et non laissée (comme c'est le cas pour l'assistance) à l'appréciation de chaque intervenant. Le principe de facturation retenu par IBM est le suivant : les cours promotionnels ou d'information générale restent gratuits, et en principe réservés aux entreprises ayant commandé du matériel ou envisageant de le faire, tandis que tous les cours techniques ou professionnels sont payants et ouverts à tous. Dans la pratique, ce système se traduit d'abord par une réorganisation du répertoire des cours afin que le contenu réel de chacun le range sans ambiguïté dans l'une ou l'autre des deux catégories. A part ces ajustements, la nouvelle politique de facturation est, jusque vers 1975, plaquée en quelque sorte sur la structure habituelle du curriculum et la formation reste gérée comme partie de l'activité commerciale. A la suite du choc pétrolier de 1973, IBM entreprend une vaste opération de réduction de ses services centraux. Alors que le Technico-Commercial est protégé non par son caractère facturable, mais par son appartenance aux Agences commerciales, les services de formation sont paradoxalement classés parmi les « indirects » et sont donc fortement incités à réduire leurs effectifs. Pour se défendre, et défendre les intérêts d'IBM, la fonction Formation entreprend alors un programme de réformes visant à redéfinir sa place et sa mission dans l'ensemble d'IBM et, sur cette base, à maximiser sa contribution aux objectifs globaux de l'entreprise. Le résultat le plus significatif est de définir sans ambiguïté la mission de la formation comme de contribuer à la commercialisation du matériel, avec deux objectifs principaux : alléger la tâche des Ingénieurs Commerciaux par une meilleure information des clients et rendre les clients autonomes dans les tâches de mise en œuvre par la formation technique de leur personnel. L'indicateur retenu pour mesurer l'efficacité de la formation des clients est le nombre d'années d'Ingénieur Commercial ou TechnicoCommercial économisées grâce à la formation du personnel client. On ne saurait mieux

xxxviii

exprimer que l'objectif majeur de l'activité de formation reste le support aux ventes de matériel, indépendamment de son caractère facturable. Pour améliorer sa productivité, ainsi d'ailleurs que celle des élèves, IBM remplace entre 1976 et 1980 une grande partie des cours magistraux par des ouvrages d'autoformation, quand la matière enseignée ne demande pas une interaction fréquente entre l’élève et l’instructeur, ce qui était le cas de la quasi-totalité des cours gratuits. Ne subsistent alors sous forme magistrale que de brefs séminaires de présentation des produits à un extrême, des cours techniques avancés comprenant une forte dose de travaux pratiques à l'autre extrême, plus quelques cours intermédiaires dont l'audience relativement faible ne justifie pas d'investir dans l’autoformation. La quasi-totalité des instructeurs peut alors se consacrer à des cours de haut niveau qui présentent le triple avantage d’apporter la contribution maximale à l’objectif d’autonomie technique des clients, de présenter pour les instructeurs le plus haut intérêt professionnel et de pouvoir être facturés très cher. La croissance spectaculaire du chiffre d'affaires de la formation clients à la fin des années 70 n'a été que la conséquence de cette stratégie de support maximal aux ventes de matériel. A partir du moment où il est établi que chaque client formé équivaut à une économie de charge de travail et de dépenses pour IBM, il devient souhaitable de former le plus grand nombre de clients possible. Le chiffre d'affaires est ainsi une mesure et un sous-produit d'une activité fondamentalement vouée au support du matériel. IBM a certes accueilli avec plaisir la forte rentabilité financière de cette activité, mais à aucun moment la formation n'a été pilotée en fonction de critères financiers indépendants.

Organisation et stratégie
Aux Etats-Unis, les nouvelles modalités de service ne posent pas de problèmes d’organisation fondamentaux, IBM ayant abandonné ses activités de Service Bureau depuis la fin du procès Control Data. En Europe se pose au contraire la question des relations des nouvelles activités facturables avec le Service Bureau, l’ensemble constituant l'offre habituelle des sociétés de services concurrentes d’IBM. Ce problème rejoint celui de la vocation des services facturables : support au ventes ou profit. Faut-il conserver des stratégies et des organisations différentes pour le service bureau, la formation et l'assistance ? Faut-il appliquer pour la formation et l'assistance une stratégie de développement indépendante du matériel en les rapprochant du Service Bureau ? Ou bien au contraire orienter le service bureau vers le soutien aux ventes de matériel en acceptant si nécessaire une dégradation de sa croissance et de son profit ? Autrement dit, IBM doit-elle mettre en place une organisation comparable aux Sociétés de Service spécialisées? Si oui quelles doivent en être les frontières et la stratégie ? Dans la période 1970-1974, cette question est posée de façon lancinante à l'occasion d'un certain nombre de changements d'organisation, sans recevoir de réponse claire. Après bien des péripéties, on revient vers la fin des années 70 à l'organisation et à la stratégie qui étaient en place en 1968. Cette décision signifie implicitement que si la vocation du Service Bureau reste le profit, celle des autres services est toujours le support aux ventes de matériel. Cette situation restera stable jusqu'à la fin des années

xxxix

80, et n’évoluera de façon significative qu'en 1987 avec la création de l'organisation « Intégration de Systèmes ». Conçue au départ comme une action défensive contre l'explosion des coûts de logiciels et d'assistance, ainsi que comme une manœuvre politique vis à vis des concurrents et du Gouvernement US, la tarification dissociée s'est traduite par la facturation d'activités dans lesquelles IBM était déjà présente pour soutenir son activité principale de matériels. Mais loin d'entrer dans le domaine des services de façon agressive, IBM a utilisé la facturation pour limiter son implication dans les tâches qui n'étaient pas essentielles pour le soutien du matériel. Elle a en quelque sorte créé un marché pour ce qu'elle ne veut pas faire, donc un marché sur lequel elle ne sera pas concurrentielle. Pour ce qui lui semble critique pour le matériel, elle a soit maintenu la gratuité, soit exploité un avantage déterminant (par exemple la connaissance du matériel pour la formation technique) pour s'assurer de fournir le service malgré les prix élevés que lui imposent ses pratiques de rémunération et de tarification. C'est pourquoi jusqu'à un passé très récent les effectifs consacrés aux services ont toujours été gérés comme partie des effectifs et des coûts commerciaux, et que jamais n'a été créée une organisation réellement autonome dont l'évolution aurait été fonction de sa rentabilité propre. Le revenu de services a longtemps été un sous-produit et non un objectif. Si IBM a néanmoins voulu maintenir un certain niveau de chiffre d'affaires dans les services, c'était initialement pour témoigner de la réalité de sa politique de facturation. Le marché et les autorités concernées n'auraient pas compris qu'après avoir défini comme facturable une partie du support aux clients, IBM cesse de fournir ce support (à supposer que cela soit possible) pour ne fournir que la part gratuite. Lors de la mise en place de la nouvelle politique, un niveau suffisant de facturation a été considéré comme une sorte d'alibi nécessaire à une utilisation souple du TechnicoCommercial par les Agences. De plus, certains de ces services, comme la formation des clients ou plus tard l'intégration de systèmes, sont critiques pour le matériel et IBM tient à en fournir un certain volume, dont le chiffre d'affaires est une mesure commode. Le déroulement de cette affaire montre aussi que la culture traditionnelle d'IBM est profondément hostile à la facturation des services reposant directement sur le personnel. Cette aversion se rattache à deux raisons fondamentales remontant toutes deux aux « basic beliefs » qui ornent le bureau de tous les cadres d'IBM depuis qu'ils ont été formulés par le vieux Tom Watson dès 1914. Dans la culture IBM, le culte du service client et la recherche de l'excellence excluent de facturer au client les interventions du personnel chargé de l'assister. De même, le respect des individus et la politique de gestion du personnel qui en découle interdisent de lier la rémunération d'un membre d'IBM au fait qu'un client accepte ou non de se voir facturer le temps de ce collaborateur. Si IBM a toujours considéré que sa véritable force et sa vocation sont dans le matériel, c'est en grande partie parce que le matériel permet le plus grand découplage entre le chiffre d'affaires de l'entreprise et le travail de chaque collaborateur pris individuellement. Pour cette raison, IBM préfère vendre des produits que des services, parmi les services du temps machine que du temps homme, et dans les services de personnel préfère vendre de la formation plutôt que de l'assistance.

xl

Emergence d’un secteur des services
La facturation même partielle des services ouvre des marchés aux sociétés de services indépendantes, en particulier dans le domaine des applications ou pour des tâches d'un niveau incompatible avec les tarifs des constructeurs. Un nouveau secteur des services « intellectuels », portant essentiellement sur le développement de programmes d'application et la mise en place de systèmes complets, se crée tant comme une évolution naturelle des Sociétés de Service Bureau que par apparition de nouvelles firmes spécialisées. Jusqu'aux années 90, ce secteur se développera rapidement en profitant en particulier de la pénurie de personnel compétent. La croissance spectaculaire du secteur des services contraste avec la modestie du secteur des progiciels avant les années 80. Pour les types de systèmes alors disponibles, les logiciels d’usage général sont fournis par les constructeurs de matériel et sont très liés aux spécificités de celui-ci, tandis que les besoins applicatifs sont le plus souvent satisfaits par des développements spécifiques. Une bonne part des prestations de services est constituée par le développement de logiciels sur mesure. Si certains prestataires disposent progressivement de cadres préprogrammés ou de modules réutilisables sur lesquels ils fondent leur publicité, ces logiciels sont le plus souvent inutilisables sans une assistance soutenue de leur auteur, et ne sont que le fondement d’une prestation de développement spécifique. Cette continuité qui a longtemps existé entre le développement spécifique et le logiciel préprogrammé explique que progiciel et services soient encore aujourd’hui souvent assimilés alors que nous verrons qu’il s’agit de deux activités foncièrement différentes au plan économique. Un secteur indépendant du logiciel commence néanmoins à se créer à partir de la fin des années 60, mais ce n'est que dans les années 80 qu'il se développera de façon spectaculaire avec les micro-ordinateurs. En matière de formation, la voie choisie par IBM de se concentrer sur les cours pratiques de haut niveau liés aux produits, et de leur appliquer sa politique traditionnelle de prix élevés, ouvre un large champ aux entreprises indépendantes de formation, dont IBM souhaite favoriser le développement. Par exemple, sa politique exclut d'offrir des cours de programmation sous forme magistrale bien que l'existence de tels cours (offerts par des tiers) contribue positivement à son objectif principal d'autonomie technique des utilisateurs. La stratégie choisie par IBM en matière de formation a ainsi été très favorable aux entreprises indépendantes, pour lesquelles IBM crée la demande et établit un régime de prix élevés, tout en n'étant présente que dans des segments très particuliers. L'unbundling a eu un sérieux impact à long terme sur l'ensemble de l'industrie informatique. N’oublions pas en effet que pendant toute la période 1969-1985, le

xli

marché IBM représente entre 50% et 70% du marché potentiel total des services informatiques. Il a permis l'essor des sociétés de services indépendantes et l'apparition d'une industrie du logiciel, bien que timide et peu distincte des sociétés de services informatiques au début. Il a poussé les utilisateurs à devenir de moins en moins dépendants d'un constructeur dominant, ce qui a contribué, avec la standardisation des matériels, à la désagrégation de l'offre des grands constructeurs et à l'essor des offreurs spécialisés et des intégrateurs indépendants. Au total, par ses effets indirects, l'unbundling a contribué à la réduction progressive de la part de marché d'IBM.

Remous dans le bas de gamme
Les minis et le déclin du Service Bureau
L'annonce du 360 a donné à IBM un avantage suffisant sur ses concurrents généralistes d'avant 1964 pour entraîner à terme le retrait (RCA, GE, Honeywell) ou le regroupement (Univac/Burroughs, NCR/ATT, ICT/Fujitsu) de la plupart d'entre eux. Mais en même temps naît une autre concurrence visant spécifiquement les secteurs où la volonté d'universalité et de compatibilité d'IBM la rend vulnérable à la concurrence de constructeurs spécialisés, au premier chef le secteur du calcul scientifique. Dans ce secteur, non seulement il est possible de développer des matériels plus étroitement adaptés en s'affranchissant des contraintes d'une architecture universelle, mais le besoin de support technique peut être réduit grâce à la compétence de base des utilisateurs. De plus, les acheteurs sont souvent des laboratoires jaloux de leur indépendance et très enclins à se démarquer à la fois des services centraux dont ils dépendent et du constructeur le plus lié à ces services centraux. C'est en exploitant ces caractéristiques, et en utilisant souvent des pratiques commerciales agressives contrastant avec les manières à la fois policées et condescendantes d'IBM, que fleurissent des sociétés spécialisées dans les « mini-ordinateurs », comme Digital Equipment en 1965, Data General en 1969, Prime, Modcomp, Hewlett-Packard, etc. Control Data elle-même, plus connue par la suite pour ses super-ordinateurs, avait ouvert cette voie en 1958 avec l’une de ses premières machines le Control Data 160. Le phénomène « mini-ordinateurs » est de nature plus marketing que technique, car mis à part leur adaptation à un type d'application particulier, ces machines ne mettent pas en œuvre une technologie ou des principes différents de ceux des machines comparables des constructeurs généralistes. Du strict point de vue technique, les modèles d'entrée de gamme de la série 360 ou 370, ainsi que leurs cousins S/38 ou AS/400, méritent autant le qualificatif de « mini-ordinateurs » que leurs concurrents de

xlii

chez Digital Equipment ou Hewlett-Packard. C'est pourquoi il est littéralement absurde de s'étonner que « les constructeurs traditionnels aient été absents des débuts de la miniinformatique ». Celle-ci est par définition un ensemble d'attaques ponctuelles menées par de nouveaux entrants contre les constructeurs établis, avec des arguments et des méthodes de nature commerciale, et non pas une innovation de nature technologique qui aurait échappé aux constructeurs traditionnels. Contrairement à ce que veulent faire croire les fabricants de minis, il n'y a pas opposition entre des constructeurs de « mainframes » rétrogrades et des constructeurs de minis progressistes. Il y a d’un coté des constructeurs généralistes offrant une gamme étendue de matériels plus ou moins universels sur une large échelle de puissances, et de l’autre des constructeurs spécialisés qui ne couvrent qu'une partie sélectionnée de l'éventail des applications et de l'échelle des performances, couverte également par les généralistes, quelquefois même avec des matériels et des approches commerciales spécialisés. Dans les secteurs communs, chacun se bat avec des arguments différents, mais il s'agit purement d'arguments commerciaux destinés à vendre des solutions voisines et non, comme on a voulu le faire croire, de deux conceptions opposées de l'informatique. L'émergence des minis fait apparaître de nouveaux acteurs, mais ne modifie pas en profondeur les forces concurrentielles (au sens de Porter) ni la structure du secteur, contrairement à ce qui se passera pour les micro-ordinateurs. Les constructeurs de minis, tout comme IBM, offrent dans leur créneau des configurations complètes et un service complet de formation, d'assistance et d'entretien, adapté bien entendu au segment qu'ils visent. Tout en étant en concurrence avec les constructeurs généralistes, ils se conforment aux règles du jeu établies par eux. Le phénomène mini n'est que la médiatisation accidentelle d'une tendance générale de l'informatique, à savoir l'apparition permanente de matériels de plus en plus performants à des niveaux de prix de plus en plus bas. Avec le succès, le pionnier des minis (Digital Equipment) deviendra lui-même un constructeur généraliste en étendant sa gamme vers le haut jusqu'aux niveaux de performance des grands ordinateurs IBM, et même en abordant le domaine des applications de gestion. C'est en appliquant la même stratégie qu'IBM que Digital Equipment en deviendra le premier concurrent : gamme large, logiciel système propre , offre incluant l'ensemble des services requis par les utilisateurs, etc. Comme tel, Digital Equipment connaît maintenant les mêmes problèmes qu'IBM après avoir été le plus performant de ses challengers.
11

La montée des minis aura son impact le plus important en matière de services avec l'érosion du marché du Service Bureau. La disponibilité de matériels puissants à bon marché permet aux utilisateurs de s'équiper de moyens propres adaptés à leurs besoins au lieu de recourir à des moyens partagés. C'est ainsi que le Service Bureau disparaît progressivement entre 1975 et 1983 dans sa presque totalité, entraînant la
11 L’auteur du présent ouvrage s’efforçant d’écrire en français, on n’y utilise pas le terme hélas pourtant répandu de « système propriétaire ». Quand IBM (ou tout autre) propose un système qui est propre à ses matériels, c’est IBM qui est propriétaire du système et non le système qui est propriétaire (de quoi d’ailleurs ?).

xliii

disparition, la régression ou la reconversion des entreprises qui s'y étaient spécialisées. N'en subsistent que les services qui reposent sur des compétences ou des bases de données très spécialisées, ou qui impliquent par nature le partage d'informations entre les firmes utilisatrices .
12

La Division des Systèmes Généraux
IBM a toujours voulu être présente dans le segment des ordinateurs de bas de gamme, afin de s'implanter très tôt chez le maximum de clients et de suivre leur évolution en comptant sur leur fidélité. C’est pourquoi elle avait introduit dès 1957 des machines comme le 610, l'un des premiers ordinateurs scientifiques destinés à un usage individuel, suivi par le 1620 en 1959, le 1440 en 1962, ou encore le système 3000 annoncé en 1961 (en Europe seulement) et qui connut un éphémère succès commercial avant d'être retiré du marché à la fin de la même année. Après 1964, tout en offrant des réalisations d'entrée de gamme du 360, les concepteurs de petits systèmes se heurtèrent aux limites de cette architecture. Toute architecture générale, quelle qu'elle soit, a en effet des exigences qui déterminent un coût plancher pour sa réalisation dans un état donné des technologies, et donc un niveau de prix en dessous duquel elle ne peut être réalisée de façon économique . De plus, les petits systèmes ont des besoins spécifiques peu compatibles avec l'architecture générale 360 telle qu'elle avait été conçue en 1964, en particulier dans le domaine de la convivialité, puisqu'ils doivent pouvoir être entièrement mis en œuvre par une seule personne non informaticienne.
13

C'est pourquoi l'annonce du 360 n'empêcha pas IBM de continuer à mettre sur le marché, pour des besoins spécifiques, des systèmes non conformes à cette architecture et incompatibles entre eux : le 1800 pour le contrôle de processus dès 1964, puis son successeur le Système/7 en 1970, le 1130 pour le calcul scientifique personnel en 1965 (avec le premier OS individuel sur disque), le Système/3 pour la gestion des petites entreprises en 1969. Dans ce segment des petits systèmes, par définition non couvert par l'architecture 360 et son effet unificateur, se perpétuait la dynamique anarchique des années antérieures. Grâce au progrès technologique, le prix des petits systèmes n'a cessé de diminuer en même temps que leurs fonctionnalités se développaient. De plus, il apparut vite que les méthodes commerciales traditionnelles, reposant sur des contacts commerciaux et un support technique individualisés, s'appliquaient mal à un marché de masse où la valeur de chaque vente est relativement faible. L’élargissement du marché, joint à la baisse des prix unitaires, demandait de plus en plus des formes de commercialisation et de support technique différentes.

Paradoxalement, ce marché moribond du traitement soulèvera vers 1986-1988 l'intérêt vite déçu des entreprises de télécommunications sous l'appellation médiatique de « Services à Valeur Ajoutée ». Voir chapitre 16.
13 Un problème analogue se pose d'ailleurs en haut de gamme à cause des limitations de l'architecture.

12

xliv

C'est pour permettre dans ce domaine une rupture avec la tradition IBM que fut créée la « General Systems Division » (GSD) en 1974. Cette Division, qui regroupait toutes les fonctions de développement, de fabrication, de vente et de support pour les petits systèmes, était directement rattachée à la Direction du Groupe et comportait dans chaque pays une organisation entièrement séparée de celle de la « Data Processing Division » (DPD) en charge des systèmes 360/370. Pour la première fois, IBM se scindait en entités industrielles indépendantes et concurrentes, comme elle en était menacée par les actions en justice alors en cours. Quitte à devoir être découpée, IBM traçait elle-même les pointillés... Au départ tournée vers les segments de marché non couverts par la gamme 360 et vers la mise en place de nouvelles formes de commercialisation de masse, la GSD allait progressivement se poser en concurrente de la DPD sur des marchés de plus en plus étendus. Ayant en effet la maîtrise de sa ligne de produits, par principe non conformes à l'architecture 360/370, elle allait chercher à accompagner ses clients dans la croissance de leurs besoins en faisant évoluer vers le haut ses gammes introduites en 1974, voire en développant des systèmes très innovants et puissants comme le Système/38 en 1980. Dans le même temps, DPD continuait à prolonger vers le bas sa gamme 360/370, principalement pour répondre aux besoins de ses grands clients en équipements locaux. GSD avait un avantage déterminant dans les petites entreprises par ses pratiques commerciales, et DPD un avantage dans les grands comptes par la cohérence de sa gamme. Mais la concurrence était suffisamment sérieuse pour que de nombreuses tentatives soient entreprises pour la gérer au niveau de chaque pays, sans grand succès il faut le dire. Pour les clients, il y avait bien deux IBM en concurrence, ce que certains déploraient tandis que d'autres s'en félicitaient. Cette situation allait durer jusqu'en 1983, date à laquelle IBM recombina DPD et GSD et revint à une organisation unifiée pour la commercialisation, au sein de laquelle peuvent donc se faire les arbitrages commerciaux entre produits concurrents issus de divisions de développement relativement autonomes. Le dernier des grands procès, celui du Ministère de la Justice des USA, venait de se conclure par l'arrêt des poursuites, déclarées non fondées par leur auteur. IBM présentait de nouveau au marché un visage unique, mais les nouvelles formes de commercialisation et les nouveaux canaux de diffusion mis en place par GSD demeuraient. IBM avait renoncé à se faire ouvertement concurrence, mais avait pris l'habitude de vendre ses produits à travers tous les canaux de distribution disponibles : ventes directes, agents, revendeurs, sociétés de services, etc. Il est probable que cet exercice de concurrence interne a été enrichissant pour IBM, donnant raison à ceux qui critiquaient la position du Gouvernement US en prédisant que plusieurs petites IBM seraient beaucoup plus efficaces qu'une grande, et donc plus dangereuses pour les concurrents. Rétrospectivement, la fusion de 1983 entre DPD et GSD peut être considérée comme un pas de clerc à la lumière de la réorganisation majeure qui est en cours depuis 1991.

xlv

FS ou la fin d'une illusion (1971 - 1975)
Au début des années 1970 se déroula à l'intérieur d'IBM un projet dont la nature et le contenu détaillé sont restés un secret bien gardé. Il s'agit du projet FS (Future Systems), quelquefois également désigné par AS (Advanced Systems). Que ce projet n'ait pas été plus largement connu de la profession est d'autant plus remarquable qu'il a impliqué en 1973/1974 près de 2000 personnes. Il faut dire que des précautions exceptionnelles (même pour IBM) avaient été prises pour en assurer la totale confidentialité. Dans la meilleure tradition des services secrets, le projet était cloisonné de telle sorte que l'immense majorité des participants n'en connaissaient que la petite partie strictement nécessaire à l'exécution de la tâche particulière qui leur était confiée, de sorte que très peu de gens ont pu avoir une vue d'ensemble du projet et comprendre ses implications stratégiques. Vingt ans plus tard, je pense pouvoir en évoquer quelques aspects généraux sans trahir le secret auquel j'ai été tenu. Outre la nécessité de donner des successeurs à la série 360, la motivation profonde du projet est la crainte que soient mises sur le marché des unités centrales compatibles, comme il existe déjà des disques, des bandes, des terminaux, des mémoires additionnelles, etc. IBM consacre traditionnellement une part importante de ses dépenses à la R&D générale, à la promotion de l'informatique en général, à l'action commerciale …, dont les coûts sont répartis sur les coûts de l'ensemble des produits et donc inclus dans leur tarification. Les offreurs de produits compatibles ne supportent pas ces coûts généraux, tout en bénéficiant largement de leur effet d'entraînement sur le marché, et peuvent donc offrir leur produits à des prix inférieurs. Contrainte d'ajuster vers le bas les tarifs des produits ainsi mis en concurrence, IBM réduit la base sur laquelle elle peut répartir ses dépenses générales, ce qui tend à augmenter le prix des produits restants et donc à motiver le développement de nouveaux compatibles. Il y a donc deux possibilités stratégiques : ou bien accepter une concurrence par les prix unitaires qui force IBM à réduire ses dépenses de développement du marché et d'une façon générale son train de vie au point même de remettre en question la politique dite « de plein emploi », ou bien utiliser sa compétence en matière de systèmes et son leadership sur le marché pour maintenir un avantage concurrentiel au niveau de l'ensemble du système, et compenser ainsi des prix plus élevés pour chacune des unités. C'est pour définir le plan d'action par lequel pourrait se concrétiser cette deuxième stratégie qu'une Task Force est réunie à Armonk au deuxième trimestre 1971. Ses objectifs sont : –de proposer une architecture de systèmes et un plan de développement de produits qui permettent de prendre une avance concurrentielle importante par un saut technologique majeur, –de rendre obsolètes les ordinateurs existants,

xlvi

–de redonner une base technologiquement justifiée à un regroupement tarifaire des prestations et au retour à une tarification fonctionnelle. Il faut souligner le très grand soin avec lequel IBM voulait vérifier que toute modification de la structure de son offre, qu'il s'agisse de matériels, de logiciels et de services, serait justifiée par des arguments technologiques incontestables et non seulement commerciaux ou financiers. A cette époque, IBM était en effet la cible de plusieurs procès dont celui du Gouvernement des Etats-Unis, et était plus soucieuse que jamais de ne rien faire qui puisse sembler susceptible d'être interprété comme un abus de position dominante. Le groupe de travail se fixe rapidement un autre objectif majeur, celui de faciliter le développement d'applications. Pour cela, le nouveau système doit posséder toutes les caractéristiques et fonctions susceptibles de réduire le coût de développement dans des proportions voisines de la réduction attendue des coûts du matériel. Sinon, les constructeurs ne pourraient capter qu'une part décroissante de la dépense informatique des entreprises. Au contraire, un système présentant des avantages décisifs dans ce domaine jouirait d'un avantage concurrentiel déterminant et justifierait des tarifs élevés tant que son avance technologique autoriserait une tarification « fonctionnelle ». Le résultat est une proposition d'architecture révolutionnaire combinant un grand nombre d'idées très innovantes pour l'époque. IBM pense alors posséder une avance déterminante dans la production en masse des mémoires de très grande capacité (semiconducteurs et disques), dans la gestion par logiciel de hiérarchies de mémoires et dans la maîtrise des technologies de microcode. Tout le système est donc conçu autour d'une capacité de mémoire apparemment infinie, réalisée par une hiérarchie de supports physiques entièrement gérée par la machine . Cette capacité de mémoire apparemment illimitée, jointe aux faibles coûts projetés pour les mémoires, rend possible l'utilisation d'un système d'exploitation unique pour toute la gamme, incorporant toutes les techniques nécessaires pour favoriser le développement des applications et l'exploitation des centres informatiques dans tous les modes opératoires.
14

Pour tenir compte de l'évolution (en cours et à venir) des modes d'exploitation, le groupe de travail propose une redistribution radicale des fonctions traditionnelles du matériel et des logiciels système entre différentes couches de câblage et de microcode. Certaines fonctions logicielles complexes se retrouvent ainsi câblées au coeur du système, et la plupart des fonctions jusque là assurées par le système d'exploitation et ses extensions deviennent câblées ou microcodées, avec la possibilité de plusieurs niveaux de microcode. Au final, la « machine » proposée inclut tout ce qui était le logiciel de base pour les systèmes antérieurs dont le 360, y compris la gestion des communications et la gestion des bases de données. De même, l'« unité centrale » inclut une grande quantité de mémoire à semi-conducteurs et d'unités de disques, ainsi que l'équivalent d'une bonne partie des unités de contrôle de transmission et d'entrée-sortie. Outre les
14 Dans un tel système, chaque élément d'information est repéré par une référence fixée une fois pour toutes. Le système peut déplacer l'information entre les différents supports de façon invisible pour l'utilisateur, et la restituer à l'utilisateur quel que soit le support sur lequel elle réside.

xlvii

programmes d'application pour lesquels IBM n'a pas d'ambition, seules les unités d'entrée-sortie (terminaux) et les appareils de stockage de très grande capacité restent physiquement séparées et donc vulnérables. Cette structure très intégrée reposant sur des composants spécifiques doit permettre de maintenir son unité au secteur face aux attaques ponctuelles des matériels compatibles. Le projet, qui vers la fin de 1974 occupait à plein temps la quasi-totalité des ressources de développement d'IBM, est arrêté au début de 1975, et remplacé par une politique d'évolution compatible conservant la base 360/370. Les raisons de l'arrêt du projet n'ont évidemment pas été rendues publiques, même à l'intérieur d'IBM. D'une façon synthétique, on peut les résumer comme suit. Dans leur souci d'exploiter au maximum tous les développements en cours ou prévisibles, les concepteurs du système avaient accumulé les paris technologiques, dont un grand nombre était critique pour l'ensemble du système. Même si chacun de ces paris apparaissait isolément comme raisonnable, un simple calcul de probabilités montrait que les chances de réussite de l'ensemble étaient faibles. Il était donc hautement probable que le projet connaîtrait de grosses difficultés donc des retards. De fait, alors que le groupe de travail de 1971 avait proposé une annonce mi-75 (4 ans plus tard), la date d'annonce prévue en 1974 était début 78 (toujours 4 ans plus tard ! !). Par ailleurs, malgré les outils prévus pour faciliter la migration des anciennes applications, la conversion à FS posait un problème sérieux de coût, de logistique et de charge du personnel client. A l'inverse, éviter ces problèmes en continuant d'utiliser FS en mode 370 privait les utilisateurs de la plupart des avantages du nouveau système. Il était donc à craindre qu'au moment ou FS arriverait sur le marché, son avantage par rapport aux compatibles 370 développés entre temps ne soit pas déterminant aux yeux des clients. Or l'énormité même du travail à accomplir pour développer FS avait tari tout autre développement à l'intérieur d'IBM, laissant un champ libre aux annonces des autres constructeurs. Enfin, l'éventail des possibilités alternatives ouvertes aux clients était beaucoup plus large qu'à l'époque du 360 et comprenait maintenant non seulement l'utilisation de matériels concurrents compatibles ou non, mais aussi celle de matériels IBM d'occasion à bas prix. Quelles que soient les raisons qui ont motivé à l'époque la Direction d'IBM à accepter « l'échec le plus coûteux de son histoire », cette décision a une signification profonde : IBM renonçait ainsi à son projet explicitement formulé de revenir à la structure industrielle du début des années 60, où son leadership technologique lui conférait un quasi-monopole sur tous les secteurs de l'industrie. L'annonce du 3033 en 1977 signifiait que l'informatique ne connaîtrait plus de révolutions mais des évolutions progressives. De plus, en renonçant à FS, IBM renonçait à être maîtresse du jeu et admettait d'être un acteur parmi d'autres, participant à un jeu concurrentiel dont elle ne fixait plus les règles.

Vers la maturité (1976 à nos jours)
Le « monde » IBM évolue ainsi dans les années 70 vers une structure plus complexe faite de sous-secteurs où des offreurs secondaires sont en concurrence avec le

xlviii

leader dans le créneau qu'ils ont choisi (par exemple les compatibles ou le matériel d'occasion), ou offrent des éléments complémentaires que le leader a choisi de ne pas fournir (par exemple dans le domaine des logiciels ou des services). Dans ce « monde » multifournisseurs, IBM doit lutter non seulement contre Univac et Control Data, mais aussi contre Amdahl, Hitachi, Memorex, etc. Ce mouvement vers une fragmentation du secteur ne touche guère que le monde IBM 360 et plus tard ses successeurs 370, 4300, 30xx. Dans la concurrence entre les divers « mondes », cette situation tend à rendre le « monde IBM » plus attrayant. D'une part il s'enrichit des apports des fournisseurs complémentaires, d'autre part la concurrence des compatibles et du matériel d'occasion provoque une élévation de la qualité et de la diversité des produits, accompagnée d'une baisse des prix malgré les efforts du leader. Pour Bull ou Unisys, des firmes comme Amdahl, Hitachi, Memorex ou Computer Associates sont objectivement des alliés d'IBM. Dans un même mouvement, le leader voit augmenter la part de marché occupée par son architecture et les produits qui en dérivent, et sa propre part de ce marché diminuer en même temps que ses marges bénéficiaires et l'influence qu'il peut exercer. Cette pression concurrentielle directe sur IBM l'oblige à baisser ses prix, érode sa part de marché et ses marges, et se répercute indirectement sur les autres constructeurs (les autres « mondes ») à travers la concurrence entre eux et IBM.

xlix

Chapitre 3 Une autre informatique apparaît (1975-1993)
La révolution micro-informatique. IBM se crée un monde concurrent. Spécialisation et créativité. L’illusion du grand public. Deux mondes disjoints. Unix, standard ou laboratoire ? Où va l’informatique ?

Les débuts de la micro-informatique (1975-1981)
Les premiers ordinateurs personnels apparaissent sur le marché en 1975, issus de la convergence de développements dans trois domaines principaux : –les circuits intégrés, apparus au milieu des années 60 et qui se sont constamment perfectionnés avec l'arrivée des mémoires monolithiques et du microprocesseur au début des années 70, –les écrans d'entrée-sortie, qui existaient dès le début des années 60, mais dont le coût a considérablement baissé alors que leurs possibilités s'enrichissaient, –les disques amovibles, introduits dès 1962 mais qui ont connu une révolution avec l'arrivée du « floppy disk » utilisé à partir de 1971 à l'intérieur de certains grands ordinateurs. Si ces bases technologiques sont le fait des grands constructeurs d'ordinateurs et de composants, la naissance de la micro-informatique résulte d'une floraison d'initiatives individuelles consistant à assembler un processeur, un écran, un clavier et un disque pour constituer un système. Alors que les tentatives antérieures de constructeurs traditionnels dans l'informatique personnelle visaient les utilisateurs professionnels, les nouveaux offreurs visent le marché des amateurs, au sens où il existe des amateurs de haute fidélité ou de modélisme. Les tout premiers micro-ordinateurs sont d’ailleurs vendus en kit dans des magazines pour amateurs d’électronique. C'est pourquoi le secteur naissant de la microinformatique adopte d'emblée une structure qui ressemble à celle de la haute fidélité : des petits constructeurs indépendants spécialisés dans l'assemblage de matériels à partir de composants du marché, et diffusant leurs produits par les canaux de la grande distribution sans autre service que celui du distributeur. Des chaînes de distribution spécialisées se créent, comme Computerland en 1976. De nouvelles entreprises entrent dans la concurrence, comme Texas Instruments, Osborne ou Sinclair, offrant chacune son système particulier. Des entreprises de logiciel voient le jour, comme Microsoft, Digital Research, Software Arts ou Micropro, qui offrent les premiers traitements de texte et les premiers tableurs prêts à l’emploi en 1979. Dès cette période 1976-1981, Apple se positionne en leader de la microinformatique en offrant un système intégré original visant le grand public non

l

informaticien. Autour de ce système se développe une panoplie de logiciels d'un nouveau type dont les meilleurs exemples sont le traitement de textes (Wordstar 1979) et le tableur (Visicalc 1979). De plus, au lieu de se contenter de diffuser des matériels au meilleur coût via des distributeurs, cette société, sous l'impulsion de ses fondateurs, se pose en prophète et en église d'une nouvelle culture. Ainsi se crée autour d'Apple une mystique de la micro-informatique « conviviale » opposée à la grande informatique sclérosée, qui se teinte des accents d'une croisade contre le grand méchant IBM. Ce discours va gagner progressivement le milieu des entreprises, même si le microordinateur lui-même n'y pénètre en réalité qu'à dose homéopathique.

Le PC, un monde enfin ouvert
IBM avait toujours cherché à être présente dans l'informatique personnelle, avec le 610 puis le 1620 dans les années 50, le 1130 (premier ordinateur individuel utilisant un système sur disque) en 1965, et même le premier portable en 1975 avec le 5100. Elle est pourtant restée étrangère au nouveau phénomène micro jusqu'en 1981, bien que la nouvelle religion y ait fait un nombre croissant d’adeptes dont la voix était de plus en plus forte. Il est probable que l'identification générale de la micro-informatique avec le marché du grand public a joué son rôle en détournant de ce secteur l'attention des dirigeants d'IBM pendant plusieurs années, malgré la montée en puissance visible d'Apple. IBM finit par réagir, mais d'une manière tout à fait inhabituelle. Le Personal Computer lancé par IBM en 1981 utilise un processeur Intel, des disques Tandon et un système d'exploitation sous-traité à Microsoft. Comme les pionniers de la micro en 1975, IBM ne réalise que l'assemblage et la commercialisation en gros, la vente au détail étant réalisée par des distributeurs indépendants. Mieux encore, le système comprend un système de « bus » permettant l'adjonction de cartes d'extension fournies par d'autres constructeurs. De même, le système d'exploitation retenu (MS-DOS) facilite le développement et l'incorporation de logiciels par des tiers. Bref, le PC, contrairement à toutes les autres machines d'IBM, est un système délibérément ouvert aux logiciels et aux extensions d'autres fournisseurs. On explique généralement cette démarche inhabituelle par l'urgence, mais il est probable que là encore la conviction qu'il s'agissait d'un marché sans relation avec les marchés traditionnels de la Compagnie a joué son rôle. En quelque sorte, IBM prend la voie Tandy plutôt que la voie Apple, qui (peutêtre inconsciemment) aspire à être le fournisseur de micro-informatique, comme IBM est le fournisseur de référence de grande informatique. Pour devenir l'anti-IBM, Apple a suivi le modèle IBM, comme Digital Equipment quelques années plus tôt à l'occasion du phénomène des minis. Pour s'opposer à Apple, IBM se pose au contraire comme catalyseur d'une galaxie d'entreprises indépendantes, en comptant sur leur créativité et leur dynamisme pour faire de son matériel le standard de fait. Cette manœuvre était-elle simplement une solution provisoire destinée à occuper le marché en attendant de reprendre la main avec de véritables produits « maison » ? Le lancement du PS/2 et de l'OS/2 en 1988 tendraient à le faire penser, mais entre-temps trop de systèmes et d'extensions compatibles avec le PC ont été commercialisés, trop de

li

logiciels ont été écrits pour qu'un retour en arrière soit possible. A supposer que l'intention d'IBM ait été de faire revenir le marché à des systèmes « maison », il est clair que ce retour ne s'est pas produit. Un monde éclaté Lorsqu'en 1977 Apple affiche l'ambition de prendre le leadership de la microinformatique naissante, c'est en respectant la structure de type concentré de l'informatique traditionnelle. Encore aujourd'hui, la Société Apple fournit, directement ou à travers sa filiale Claris, la quasi-totalité des éléments installés par les utilisateurs de l'architecture Apple, et contrôle complètement l'évolution des matériels et des logiciels de base, même si elle en sous-traite en partie la réalisation. A l'inverse de l'action fédératrice d'Apple, les modalités choisies par IBM pour entrer dans ce marché encouragent une structure éclatée où coexistent de nombreux fournisseurs de matériel dont aucun n'exerce plus de leadership sur le secteur, où les différentes unités de l'ordinateur sont produites par des constructeurs différents, où les producteurs de matériel et ceux de logiciel forment deux secteurs distincts, et où seul le distributeur est l'interlocuteur obligé du client. Les fournisseurs choisis par IBM pour les composants et le système d'exploitation acquièrent rapidement et durablement une situation de quasi-monopole. Intel fournit les trois-quarts des processeurs utilisés dans des PC, le reste étant fourni par des fournisseurs de « clones » parmi lesquels IBM. Symétriquement, le système d'exploitation MS-DOS de Microsoft équipe la quasi-totalité des PC après avoir éliminé ses prédécesseurs. Au contraire, de nombreuses sociétés se lancent sur le marché des unités centrales, qu'elles construisent en assemblant un processeur, un écran et des disques acquis auprès de firmes spécialisées, et qu'elles équipent du système MS-DOS acquis chez Microsoft. Dès 1982, on estime à 60 le nombre de marques de compatibles PC à base de processeurs Intel, et le volume total de leurs ventes dépasse déjà celles d’Apple. A part IBM, aucune de ces firmes n'atteindra jamais une part de marché supérieure à 15% et la plupart se contenteront de moins de 3%. Ce nouveau marché de la microinformatique attire aussi bien les constructeurs traditionnels que des entreprises d'équipement de bureau, ainsi que d'innombrables nouveaux venus. Il devient rapidement le théâtre d'une concurrence féroce qui a pour résultat une baisse spectaculaire et continue des prix. Dans le même temps, le progrès technologique des composants, qu'il s'agisse des processeurs ou des disques, entraîne une hausse continue et non moins spectaculaire des performances. Parallèlement, les volumes de production élevés dont jouissent Intel et Microsoft (plusieurs dizaines de millions de puces ou d'exemplaires de MS-DOS par an) permettent une baisse continue des prix de ces composants fondamentaux. Ces différents effets de la dynamique concurrentielle se conjuguent pour aboutir à une extraordinaire variété de l'offre et à des prix sans aucun rapport avec ceux de l'informatique traditionnelle. Le tableau suivant, inspiré de travaux du Meta Group,

lii

permet de comparer les coûts par Mips et par Mega-octet de mémoire centrale pour les PC et les grands ordinateurs.
15 16

Evolution des coûts
$/Mips 1990 1995 micros 700 60 mainframes 100000 55000 ratio >140 >900

$/MByte 1990 1995

micros 90 6

mainframes 6000 1500

ratio >65 250

Ces écarts considérables, et qui de plus se creusent avec le temps, pourraient donner l'impression d'univers différents faisant appel à des technologies radicalement différentes. Or il n'en est rien. Ces écarts spectaculaires sont simplement dus aux volumes de production pour les secteurs monopolistes comme les composants ou les progiciels, à l'intensité de la concurrence pour les secteurs dispersés comme le matériel. Il va sans dire que pour les acteurs de ces derniers secteurs où ne joue aucun effet de monopole, le bas niveau de prix s'accompagne d'un train de vie modeste et de marges faibles. Par sa diffusion et ses prix modérés, le micro-ordinateur ouvre les vannes de la créativité individuelle dans le domaine du logiciel et de toutes les formes d'extension (cartes, unités connectables …). Alors que la grande informatique était par nécessité la chasse gardée de grandes organisations, le développement d'un logiciel micro ou même d'une carte d'extension ne demande, outre une bonne idée, que des investissements faibles et modulables, facilement accessibles à un individu ou une petite équipe. D'innombrables petites entreprises se lancent avec des produits très spécialisés, dont beaucoup ne durent que peu de temps ou restent des acteurs modestes, tandis que d'autres prospèrent dans leur créneau ou deviennent des acteurs dominants. On assiste donc à une floraison d'extensions et de logiciels de toutes sortes, réalisant en particulier toutes les idées touchant la convivialité qui avaient été négligées par le milieu de l'informatique traditionnelle, mais que permet la structure des microordinateurs. Grâce à des solutions techniques souvent innovantes et séduisantes, les micro-ordinateurs prennent dans ce domaine une sérieuse avance sur les systèmes traditionnels. Le monde Apple conserve une avance due en grande partie à ses options techniques un peu élitistes en faveur d'un processeur puissant et d'une grande mémoire. Apple est également le premier à offrir dans ses matériels (Lisa en 1983 et surtout le Macintosh en 1984) les concepts révolutionnaires inventés dans les années 60 et développés au Palo Alto Research Center de Xerox, comme la souris, les fenêtres et les

15 16

Million d’instructions par seconde : unité de vitesse de traitement. Million d’octets : unité de capacité mémoire.

liii

icônes. Il faudra attendre 1984 pour qu’apparaissent sur la famille PC des interfaces graphiques vaguement comparables à celle qu’offre depuis longtemps Apple, et 1990 pour disposer sur PC avec Windows 3 d’un système graphique concurrentiel. Toutes ces entreprises cherchent à toucher le marché le plus large possible, mais la plupart n'ont pas les moyens de mettre en place leur propre réseau de vente et de distribution. Quant aux grands constructeurs traditionnels, leur réseau commercial n'est adapté ni à la clientèle des PC ni à la logistique requise pour de grandes quantités à faible coût unitaire. C'est pourquoi se mettent en place des organismes de distribution qui vont de la boutique au rayon d'un magasin grande surface généraliste en passant par le réseau spécialisé en microinformatique. Les modalités de distribution deviennent rapidement un argument de vente au même titre que les caractéristiques du matériel. En revanche, la montée de la microinformatique est sans grand effet sur le secteur des services informatiques. Les sociétés existantes se contentent d'acquérir la compétence nécessaire pour incorporer éventuellement des micro-ordinateurs dans les systèmes qu'elles développent pour leurs clients. Les besoins de services spécifiques aux micro-ordinateurs sont pris en charge principalement par les distributeurs spécialisés (dont certains se trouvent être des filiales de Sociétés de Service). L'industrie de la micro-informatique apparaît ainsi comme la juxtaposition de secteurs spécialisés et complémentaires : –les composants, –les matériels, –les systèmes d'exploitation, –les progiciels applicatifs, –la distribution. Contrairement à la structure de l'informatique traditionnelle, chaque acteur se spécialise dans une seule de ces activités, et très rares sont les firmes qui opèrent dans plusieurs secteurs. Les exceptions les plus frappantes sont Microsoft qui est présent dans les deux domaines de progiciels, et IBM qui est présent dans l'ensemble des secteurs dont les composants, et persiste à tenter de revenir à une structure traditionnelle avec le complexe PS/2 et OS/2, ou encore les constructeurs de matériel qui choisissent d'être leurs propres distributeurs, à l'instar de Dell. Le monde des PC se distingue également du monde traditionnel par la nature du leadership qui s'y exerce. Dans le monde traditionnel, le leader incontesté est un

liv

fournisseur de matériel, en l'occurrence IBM. Dans le monde du PC, alors que des dizaines de firmes se partagent le marché des matériels sans qu'aucune n’y atteigne une part de marché de 20%, Intel et Microsoft sont en position de monopole dans leur secteur et dominent le « monde du PC » dans la mesure où ce sont leurs produits qui donnent son unité au secteur, et leurs décisions qui en déterminent l'évolution globale. Au total, la montée de la micro-informatique se traduit par une structure industrielle radicalement différente de celle qui prévaut pour l'informatique traditionnelle. La séparation entre la fabrication et la distribution est de règle, la plupart des fabricants écoulant leurs produits à travers plusieurs canaux et la plupart des distributeurs commercialisant les produits de plusieurs fabricants différents. Les entreprises ne produisant que des logiciels sont nombreuses. Parmi les fabricants de matériel, la plupart ne produisent qu'un type d'unité spécifique comme les disques, les imprimantes, les unités centrales, voire des cartes d'extension ou des unités particulières comme des scanners ou des modems. On a pu caractériser l'informatique contemporaine comme une « informatique éclatée » (titre d'un livre de J.M. Desaintquentin et B Sauteur ) ; ce qualificatif s'applique aussi bien à la structure même de l'industrie.
17

Comme cela avait été en partie vrai pour le 360, IBM a créé avec le PC une industrie qu'elle ne contrôle pas et où elle occupe une place minoritaire. Certes l'ensemble des compatibles PC et PS/2 représentent en 1992 près de 90% du marché contre 10% pour Apple et 2% pour les autres architectures (Commodore, Atari), mais dans ces 90% IBM est minoritaire (bien que premier) avec environ 15% des ventes totales, alors qu'elle en représentait 32% en 1986. Dans l'intervalle, les fournisseurs de compatibles ont exploité les progrès de la technologie pour diminuer les prix de marché de façon continuelle et spectaculaire, au prix de leur survie pour certains. Des marchés disjoints Au moment où s'ouvrent les années 80, la micro-informatique est encore pour l'essentiel une affaire de grand public. Seul Apple et sa cohorte d'adeptes de la vraie foi commencent à prophétiser que la micro-informatique détrônera un jour la grande informatique dans les entreprises. Dans la pratique, les deux secteurs et les deux marchés ne communiquent pas : les fournisseurs de micro et les fournisseurs de grande informatique sont des entreprises distinctes appartenant à deux mondes différents, tandis que les clients de micro sont des particuliers et que les clients de la grande informatique sont les entreprises. Cette idée que la micro-informatique s'adresse à un marché séparé a survécu longtemps puisque même IBM a cru nécessaire de mettre sur le marché un PC Junior en 1983, avant de le retirer faute de ventes en 1985. Il est permis de penser que ce mirage du grand public, s'il a coûté beaucoup d'argent à pas mal d'entreprises plus ou moins éphémères, a néanmoins joué un rôle positif. Que se serait-il passé si les promoteurs de la microinformatique – les Steve Jobs, les Bill Gates – avaient pensé qu'ils entreraient un jour en compétition directe avec les grands comme IBM qui dominaient l'informatique de l'époque ? La conviction d'opérer dans un marché nouveau disjoint du marché de la grande informatique leur a probablement donné l'audace nécessaire. Parallèlement, la même conviction que la
17

Masson - 1991

lv

microinformatique s'adresse au grand public et non aux entreprises en tient écartés les constructeurs traditionnels, qui pourtant possédaient les technologies nécessaires et avaient déjà lancé des ordinateurs personnels destinés à l'usage professionnel. Le démarrage réussi de la microinformatique résulte en partie d'une même erreur d'appréciation de son potentiel par les pionniers qui l'ont promue et par les grands constructeurs qui l'ont négligée. L'entrée d'IBM dans le marché des ordinateurs personnels change radicalement l'image du micro-ordinateur en lui conférant en quelque sorte une caution de sérieux, et élargit considérablement son marché en lui ouvrant les entreprises. Mais la diffusion des micro-ordinateurs y concerne principalement des formes d'utilisation et des populations d'utilisateurs que l'informatique traditionnelle n'avait pas ou peu abordées, comme le traitement de texte dans les secrétariats ou l'aide à la décision individuelle des cadres. Que ce soit dans les entreprises ou dans le grand public, la micro-informatique a jusqu'ici essentiellement permis de satisfaire des besoins d'informatique personnelle qui n'étaient pas satisfaits par les systèmes centraux. Quand arrive la micro-informatique, les besoins centraux des entreprises sont largement satisfaits, et l’informatique s’apprête à aborder les besoins individuels avec les technologies de temps partagé. C’est ce dernier domaine que la micro-informatique à conquis avant que les grands ordinateurs aient pu s’y implanter. La diffusion des traitements de texte et des tableurs n'a pas retiré aux systèmes centraux une charge de travail existante, elle a permis de satisfaire autrement une demande latente non encore satisfaite. Au passage, elle a rendu obsolète le concept de « distribution de puissance informatique » et a porté le coup de grâce à ce marché où opéraient encore de nombreuses sociétés de services. Le remplacement des grands systèmes par des micro-ordinateurs est encore resté marginal par rapport au nombre total de grands systèmes installés. Faire migrer des applications existantes vers des micro-ordinateurs suppose que ceux-ci puissent être assemblés en complexes équivalents aux grands systèmes en fonctions et en puissance. Cela exige aussi un investissement considérable en redéfinition et redéveloppement d'applications, que le gain potentiel de coût d'exploitation n'a que rarement justifié aux yeux des utilisateurs de grands systèmes. De plus, une telle opération implique un risque que peu de Directions informatiques ont estimé raisonnable de courir. Mais l'avantage des micros continue à s'accentuer avec les années et accroît la pression concurrentielle pour faire profiter toute l'informatique des coûts que permet la diffusion à très grande échelle. Il faut pour cela trouver des moyens simples et

lvi

performants de répartir les applications entre systèmes interconnectés, ou de construire des grands systèmes avec les mêmes composants que les PC. Tel est l'enjeu réel des développements en cours dans le domaine des architectures client-serveur, des systèmes distribués et des multiprocesseurs. Or la dynamique innovatrice du secteur des micros engendre des solutions de plus en plus satisfaisantes à ces problèmes techniques qui ont jusqu'ici limité l'expansion des micros vers le haut. En particulier, un troisième « monde » dont nous n'avons pas encore parlé, le mouvement Unix, joue un rôle clé dans ce processus d'innovation malgré sa relativement faible importance en termes de volumes.

Le monde Unix
Au début des années 80, alors que le raz de marée des PC commence tout juste à déferler, quelques firmes au premier rang desquelles Sun Microsystems, cherchent à pénétrer sur le marché sans devoir consentir l'investissement considérable que représente l'écriture et la maintenance d'un système d'exploitation. Or un système appelé Unix jouit d'une grande popularité dans les milieux scientifiques que visent justement ces nouveaux fournisseurs. Le système d'exploitation Unix est une adaptation sur petits ordinateurs du système Multics de General Electric, développée en 1969 sur l'initiative des Laboratoires Bell. Pendant longtemps, son utilisation a été confinée à certaines universités américaines (en particulier celle de Berkeley) où il a constitué un terrain d'études et d'expérimentation pour l'enseignement et la recherche informatiques, et où sont nées de nombreuses extensions et versions concurrentes. Le souci d'échanger facilement ces développements a toujours été très présent dans ce milieu, conduisant en particulier à la réécriture du système dans un langage de haut niveau (le langage C) en 1973.
18

Au début des années 80, Unix se présente comme un système disponible, non protégé par un constructeur, conçu pour permettre une évolution facile, et bénéficiant de la dynamique d'innovation des centres de recherche les plus actifs. Son existence permet aux constructeurs qui l'adoptent de se reposer sur une source indépendante de logiciel de base pour concentrer leurs efforts et leurs investissements sur le matériel. Par la suite, presque tous les constructeurs inscriront à leur catalogue des systèmes Unix à côté de leurs systèmes propres, mais en les faisant bénéficier d'efforts de promotion très

18 Multics, développé en 1960, était un système de « time-sharing » permettant à de nombreux utilisateurs indépendants d'exploiter simultanément un grand ordinateur de façon interactive à travers une interface relativement conviviale pour l'époque.

lvii

variables selon qu’ils entrent plus ou moins en concurrence avec leurs matériels traditionnels. Contrairement au lancement du PC, le démarrage industriel d'Unix ne s'accompagne d'aucun changement majeur de la structure de l'industrie, En particulier, il n'y a pas constitution d'un secteur autonome pour les composants. Les nouveaux venus comme Sun développent leurs microprocesseurs spécifiques tandis que les constructeurs traditionnels (Hewlett-Packard, IBM, Digital Equipment) utilisent dans leurs systèmes Unix leurs microprocesseurs existants avant de développer à leur tour des microprocesseurs spécifiques à Unix. Assez rapidement, le développement des processeurs destinés à supporter Unix s'oriente vers l'utilisation des concepts Risc (Reduced Instruction Set Computer ). Mais à l'origine, chaque constructeur de matériel Unix considère la possession d'un processeur original comme faisant partie de ses avantages concurrentiels et s'en réserve l'utilisation. Ce n'est que récemment que la logique monopoliste de l'industrie des composants a commencé à agir avec la constitution de groupements ou de consortiums au sein desquels les principaux fabricants de composants Risc tentent de regrouper d'autres constructeurs de matériels afin d'augmenter leur échelle de production, quitte à perdre l'exclusivité de leurs composants. Néanmoins, en 1993, la diffusion de chacun de ces microprocesseurs ne dépasse pas les quelques centaines de milliers d'exemplaires (500000 pour le Sparc de Sun, 200000 pour Mips de Silicon Graphics ou Precision Architecture de Hewlett-Packard), ce qui est infime par rapport à la diffusion des processeurs Intel et très en dessous de l'échelle optimale de production .
19 20

Dans le domaine du système d'exploitation, l'espoir qu'avaient nourri certains constructeurs de faire l'économie de son développement sera vite déçu. En 1983, ATT, propriétaire de droit d'Unix qui jusque là en avait permis une diffusion libérale, réagit à la vogue commerciale soudaine du système en demandant des redevances importantes. La raison même du choix d'Unix, sa disponibilité peu onéreuse sous forme source, est ainsi battue en brèche après coup. De plus, la qualité industrielle inégale des réalisations issues des laboratoires universitaires contraint les constructeurs à des réécritures ou des développements complémentaires, ce qui avive encore les habituelles querelles d'école entre partisans des différentes versions d'Unix. Chaque constructeur s'oriente donc vers le développement d'un système propre constitué d'un assemblage d'éléments standard et d'éléments originaux, tout en restant fidèle au rêve d'un système d'exploitation universel et en participant à des efforts permanents de standardisation à travers des organismes neutres tels que XOpen, ou des alliances comme OSF et plus récemment COSE . Il faut bien voir que l'intensité de l'effort de normalisation est la contrepartie directe, ou l'envers de la médaille, du
21 22

Architecture de processeur favorisant la simplicité et donc la vitesse d’exécution grâce à un répertoire d’instructions restreint et homogène, les opérations complexes étant réalisées par combinaison de ces instructions simples.
20 21 22

19

voir chapitres suivants Open Systems Foundation Common Operating System Environment

lviii

foisonnement des solutions alternatives et des querelles qui résultent de ce foisonnement. Si rien de ce genre n'existe dans le monde du PC, c'est simplement parce que toute l'industrie s'est rangée très tôt, à tort ou à raison, derrière MS-DOS. Au total, la structure actuelle du monde Unix (et Risc) est plus proche de la structure traditionnelle que de celle du monde PC. Comme dans le monde traditionnel, la concurrence se joue principalement entre des acteurs qui offrent chacun une solution informatique complète constituée par sa propre combinaison d'un matériel utilisant un processeur spécifique et d'un système d'exploitation propre bien que dérivé d'Unix. La structure du monde Unix ne se distingue de la structure classique que par la multiplication des alliances visant à partager les éléments coûteux en investissements comme les composants ou les modules de système d'exploitation, et par l'activité de normalisation intensive. Le phénomène des alliances et le mouvement de normalisation des systèmes sont le plus souvent présentés comme touchant l'ensemble de l'informatique, alors qu'ils se limitent largement au monde Unix et ne portent au sens strict que sur le dixième du marché. La diffusion d'Unix est plus rapide que la croissance d'ensemble de l'informatique, mais reste modeste aussi bien en nombre par rapport aux micros qu'en valeur par rapport à l'ensemble. On estime le nombre de systèmes Unix installés en 1992, toutes versions confondues, à environ 2.5 millions contre plus de 130 millions de microordinateurs (MS-DOS et Apple), et la part de marché d'Unix dans le marché total à environ 13% en valeur. Mais l'importance stratégique potentielle d'Unix est bien supérieure à sa place quantitative. C'est du monde Unix que sont en train d'émerger les éléments pratiques de résolution des problèmes liés au remplacement des grands systèmes par des complexes de systèmes ou de microprocesseurs issus des micros, et surtout de niveau de prix comparable. Contrairement à une opinion répandue, le monde Unix est tout le contraire d'un monde standardisé. C'est au contraire dans le monde Unix que la concurrence spécifique aux systèmes d'exploitation est la plus intense, puisque dans le monde traditionnel elle est partiellement éclipsée par la concurrence sur les matériels et qu'elle n'existe plus dans le monde PC depuis l'adoption généralisée de MS-DOS et maintenant de Windows. C'est justement parce que le besoin de standards y est criant et qu'aucun offreur ne domine le marché que le monde Unix consacre tant d'efforts à la standardisation. Mais à l'inverse, grâce à ces efforts, c'est du monde Unix que sortent les standards de toute l'industrie. L'innovation étant l'autre face de la concurrence, le monde Unix est le foyer d'innovation privilégié pour tous les domaines liés aux systèmes d'exploitation, entre autres la structure des systèmes, le multiprocessing, les systèmes distribués, la disponibilité et la sécurité, etc. De plus, le niveau de puissance de la plupart des systèmes Unix est comparable à celui des « minis » traditionnels, et les offreurs d'Unix ont une motivation concurrentielle immédiate pour doter Unix de toutes les fonctions des mini-ordinateurs, elles-mêmes dérivées des grands systèmes, ainsi que pour attaquer le marché des grands systèmes via le développement de multiprocesseurs. La dynamique propre du monde Unix et sa position à la charnière de l'informatique

lix

traditionnelle et de la microinformatique en font la matrice des bouleversements encore à venir .
23

Le panorama en 1993
L'histoire de l'industrie informatique, ainsi que le jeu combiné de la dynamique concurrentielle et du progrès technologique, ont conduit à une structure industrielle relativement complexe où coexistent trois mondes industriels ayant chacun sa logique propre : –un monde traditionnel hérité des années 60, encore fortement concentré malgré une fissuration progressive, –le monde du PC né en 1981, dont la structure majoritairement fragmentée a conduit à de nouvelles normes de prix et d'accessibilité de l'informatique, –le monde Unix, passé du stade universitaire au stade commercial vers 1983, creuset où s'élaborent les techniques informatiques de demain. Selon leur appartenance à ces trois mondes, les acteurs industriels sont plus ou moins spécialisés et forment des secteurs plus ou moins identifiables. Les acteurs du monde traditionnel et ceux du monde Unix offrent en général une palette de prestations incluant le matériel, les logiciels de base et les services, alors que la spécialisation par nature de prestations est la règle du monde PC. Dans le monde traditionnel et le monde Unix, la concurrence entre les acteurs porte sur la totalité de ce panier de prestations y compris les composants, et donc chaque acteur développe et produit ses propres processeurs et ses propres systèmes d'exploitation, même si dans ce dernier domaine le monde Unix se réclame d'un même système standard. Le monde PC a adopté une architecture de processeur unique et un système d'exploitation unique, et la concurrence entre acteurs d'un même secteur se concentre sur les produits spécifiques de ce secteur. Enfin, chacun des acteurs de ces trois mondes peut viser un marché plus ou moins vaste : la totalité du marché informatique pour les constructeurs les plus traditionnels dont IBM est l'exemple, des niches plus ou moins étroites pour les offreurs plus récents. Ces trois mondes sont encore plutôt juxtaposés que concurrents, quoi qu'en aient dit les chantres du « petit chaudron » et même si quelques acteurs sont présents à la fois dans deux ou trois. En 1992, on peut estimer que l'informatique traditionnelle représentait encore 45% des ventes, la microinformatique 41% et le monde Unix 13%. Ni le monde PC ni le monde Unix n'offrent encore aux grands systèmes d'alternative techniquement viable et suffisamment crédible pour vaincre l'inertie des organisations utilisatrices, justifiée par les enjeux et les coûts de conversion. Le concept client-serveur n'est pas encore considéré comme mature par la majorité des utilisateurs. Dans le monde Unix, la floraison des solutions alternatives et les incompatibilités qui en résultent (malgré les efforts de normalisation) ont pour conséquence une complexité des choix qui rebute encore le gros du marché, hormis quelques niches comme celle de stations graphiques pour lesquelles ces difficultés ont été localement résolues. Il n'y a pas eu mouvement d'ensemble de l'industrie vers une structure nouvelle, mais juxtaposition de trois mondes différents.
23

voir Chapitre 12

lx

Néanmoins, ces trois mondes s'influencent mutuellement. La chute des prix des micros tire vers le bas les prix des stations Unix, qui par continuité tirent vers le bas le prix des systèmes traditionnels. La montée en régime des micros et des stations a fortement ralenti la progression des grands systèmes et fait régresser le marché des mini-ordinateurs qui avaient été les vedettes des années 70/80. Mais, en même temps que la baisse des prix se poursuit dans les micros et aggrave encore la différence avec les prix de l'informatique traditionnelle, les performances et la richesse fonctionnelle des petits systèmes se rapprochent de celles de systèmes traditionnels, en particulier grâce aux développements liés à Unix. Les tensions concurrentielles s'exaspèrent, et les mondes où règne la concurrence interne la plus dynamique acquièrent de plus en plus d'avantages concurrentiels, précisément dans les domaines où la concurrence est la plus vive : les prix pour les micros, les systèmes d'exploitation pour le monde Unix. La situation actuelle est instable. Il paraît probable que la fin du siècle verra la fusion des trois mondes en une structure unique où régnera la logique sectorielle et concurrentielle du monde PC, et qui offrira des solutions techniques combinant le meilleur d'Unix, du monde PC et du monde traditionnel. Quelle sera la structure de ce nouveau monde ? Quelles formes d’intégration ou de spécialisation y seront dominantes parmi les quatre dimensions de spécialisation possibles : par type de matériel, par marché, par nature de prestation ou par stade de production ? Dans le même temps où se produit cette évolution, l’informatique envahit tous les secteurs d’activité. Des produits courants comme les voitures automobiles, les appareils ménagers, l’audiovisuel ou les jeux contiennent de plus en plus d’« intelligence ». Le destin de l’informatique est-il de devenir invisible en s’intégrant complètement dans les produits spécialisés par fonction ? Et dans le même mouvement, l’industrie informatique est-elle destinée à se fondre dans les autres industries et à disparaître en tant que telle ? L’ensemble de ces questions sera reprise dans la quatrième partie après que nous aurons analysé secteur par secteur les mécanismes profonds qui président à la structuration de l’industrie.

lxi

Chapitre 4 La structure de l'industrie
A la recherche d’une structure. Généralistes et spécialistes. Produits principaux et produits annexes. Les secteurs correspondent-ils aux marchés ? Structure de dépenses et modèles d’entreprises. L’objet du présent chapitre est d’analyser quelques chiffres concernant les firmes qui composent l’industrie informatique, afin d’en établir une typologie et de tenter d’y discerner les signes d’une structure et de comportements types. Dans leur ensemble, les statistiques qui sont régulièrement publiées concernant l’industrie informatique ne s’attachent pas à définir de façon précise une typologie des firmes. La plupart d’entre elles postulent une décomposition traditionnelle du marché en grands segments comme les grands systèmes, les moyens systèmes, les PC, les stations de travail, les matériels périphériques, les logiciels et les services. Mais à cette segmentation du marché ne correspond pas nécessairement une spécialisation des firmes. Dans la réalité, la majorité des firmes opèrent dans plusieurs de ces segments. Par exemple, presque toutes les firmes de grands et moyens systèmes fournissent également des logiciels et des services. A l'inverse, beaucoup de commentateurs regroupent dans un même secteur les progiciels et les services, ce qui n'aurait de sens que si la majorité des firmes présentes dans l'un était aussi présente dans l'autre. Certains analystes rangent un peu hâtivement les acteurs de l’industrie informatique dans des secteurs parallèles aux secteurs de marché ci-dessus, en affectant plus ou moins arbitrairement à chacun un segment de marché dominant. Cette approche simplificatrice ignore la composition réelle des offres des différents intervenants et la fréquence relative des diverses combinaisons. Pour obtenir une image plus exacte de l’industrie informatique, nous devons analyser le contenu de l’offre de chaque entreprise pour identifier des groupes de firmes offrant des paniers de prestations similaires. Si de plus il s’avère que les firmes qui composent chacun de ces groupes présentent d’autres points communs, nous pourrons penser que la structure ainsi définie est significative. Rares sont les sources qui fournissent une analyse raisonnablement fiable de la composition du chiffre d’affaires d’un nombre suffisant d’entreprises. Nous utiliserons un classement (publié chaque année par la revue Datamation), où le chiffre d'affaires des 100 premières Sociétés d'informatique américaines est ventilé selon dix rubriques qui désignent autant de natures de produits, donc de segments de marché : grands systèmes (large), moyens systèmes (mid), PC, stations de travail, périphériques de communication (com), autres périphériques (péri), logiciels (soft), maintenance, autres services (serv) et autres prestations (other). Comme toutes les statistiques, celles-ci sont évidemment imparfaites. Premièrement, elles ne sont malheureusement disponibles que pour les fournisseurs américains. Nous avons néanmoins complété cet échantillon de 100 sociétés américaines par 10 grandes entreprises japonaises et européennes pour lesquelles les données se trouvaient disponibles (Fujitsu, Hitachi, NEC, NTT, British Telecom, CAP Gemini, Canon,

lxii

Nomura, Finsiel et Racal)[1]. Notre échantillon totalise ainsi un chiffre d’affaires informatique de près de 272 milliards de $, soit 80% d’un marché mondial que d’autres statistiques, comme celles de McKinsey que nous utiliserons par la suite [2], évaluent à 338 milliards pour la même année. Il manque essentiellement quelques grandes firmes européennes comme Siemens, Olivetti, Bull et ICL, ou japonaises comme Toshiba, Matsushita ou Mitsubishi, ainsi que de nombreuses sociétés de services très actives en Europe. Nous examinerons par la suite dans quelle mesure ces omissions pourraient modifier nos conclusions relatives à la structure du secteur. Remarquons au passage qu’il est inexact de considérer que le chiffre d’affaires total de l’industrie informatique est égal à la somme des chiffres d’affaires des firmes mentionnées. En effet, les fabricants de périphériques et les sociétés de progiciels vendent une part importante de leur production aux constructeurs de matériel qui refacturent ces prestations à leurs propres clients. Deuxièmement, les activités de fabrication de composants d’une part, de distribution d’autre part, ne sont pas reconnues comme partie intégrante de l’industrie informatique. Les entreprises spécialisées dans ces domaines ne figurent pas dans le classement. Si Intel et Motorola sont mentionnées, c’est uniquement pour leurs activités secondaires dans les grands systèmes et les cartes d’extension pour le premier, les systèmes moyens et les périphériques de communication pour le second. Enfin, les chiffres fournis ne sont certainement pas rigoureux. Ils reposent essentiellement sur les déclarations des entreprises, qui se réfèrent à des définitions implicites des produits probablement différentes de l'un à l'autre. Par exemple, le fait que certains constructeurs de matériel ne déclarent aucun revenu de maintenance peut impliquer qu’ils facturent cette activité avec le matériel et non qu’ils en soient absents. Nous nous garderons donc d’interpréter ces chiffres comme autre chose que des ordres de grandeur. Compte tenu du caractère général de nos conclusions, nous considérerons néanmoins que l'image de l'industrie qu’ils permettent de dessiner est probablement un reflet assez fidèle de la situation mondiale.

Typologie des acteurs
Sur les 110 firmes de notre échantillon, 76 soit 70% du nombre total ne sont présentes que dans 1 ou 2 segments. A l'opposé 11 firmes sont présentes dans 7 segments ou plus et occupent près de 60% du marché total alors que les 76 spécialistes se contentent de 29%. Entre les deux, 23 firmes sont présentes dans 3 à 6 segments, pour une part de marché totale de 12% (voir tableau ci-dessous). Donc, bien que les firmes spécialisées soient largement majoritaires en nombre, plus de la moitié du chiffre d’affaires de l’industrie est réalisé par un petit nombre de généralistes.
Firmes par nombre de secteurs couverts
nb segments firmes part marché 9 3 34% 8 4 21% 7 4 4% 6 4 2% 5 1 0% 4 6 3% 3 12 7% 2 37 14% 1 39 15%

lxiii

Les généralistes
Les 11 principaux généralistes sont les offreurs historiques, tous issus de l’activité de constructeur de matériel : IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard, Hitachi, NCR/ATT, Unisys, Wang, Data General et Texas Instruments. La part du matériel dans leur chiffre d’affaires va de 39% pour Unisys à 83% pour Hitachi, mais en ajoutant la maintenance à l’activité matériel, on obtient un total qui va de 60% pour Unisys et 64% pour IBM à 89% pour Wang et Data General, et 91% pour Hitachi. L’histoire de ces firmes généralistes autorise à considérer comme significatif le total du matériel et de la maintenance, puisque toutes ces firmes ne maintiennent que leur propre matériel et qu’aucune n’offre de prestations de tierce maintenance. La part de la maintenance chez ces généralistes varie d’ailleurs considérablement : de 0 pour Fujitsu et Texas Instruments à 31% pour Digital Equipment et Data General et 42% pour Wang. On peut avancer deux explications possibles à ces variations : d’une part les techniques de maintenance et la politique de facturation utilisées par chaque firme peuvent aboutir à des proportions différentes entre le CA maintenance et le CA matériel correspondant ; d’autre part certaines firmes dont les ventes de matériel ont connu une récession marquée peuvent avoir encore un parc installé important dont la maintenance engendre un chiffre d’affaires hors de proportion avec les ventes courantes de matériel ; c’est probablement le cas de Wang et de Data General. Ces 11 généralistes restent donc dominés par leur activité d’origine de constructeur de matériels. Parmi les autres firmes, présentes sur moins de 7 segments, deux présentent cette même caractéristique sans être clairement spécialisées dans un segment de matériel particulier : ce sont Control Data et Wyse, que nous regrouperons avec les généralistes
Généralistes
Nom IBM Fujitsu NEC Digital Equipment Hewlett-Packard Hitachi ATT/NCR UNISYS Wang Data General Texas Instruments Control Data Wyse Lge 12.7 22.0 20.0 0.3 0.6 35.6 1.4 0.3 0.0 0.0 0.2 0.2 0.0 Mid 8.9 12.0 12.9 17.6 10.5 3.7 4.9 0.0 0.2 0.3 0.1 0.0 0.0 PC 11.9 13.0 25.9 3.2 5.7 7.9 9.6 0.1 0.1 0.1 0.2 0.0 0.2 Stat 2.9 7.5 1.0 7.9 12.1 2.0 0.0 0.1 0.0 0.1 0.0 0.3 0.2 Soft 17.6 17.5 11.9 5.6 3.3 8.6 2.7 0.1 0.0 0.0 0.0 0.2 0.0 Peri 12.3 15.5 13.0 21.2 36.2 30.0 21.8 0.0 0.1 0.1 0.2 0.0 0.6 Com 3.4 3.0 0.0 1.8 5.0 4.0 31.7 0.0 0.0 0.0 0.0 0.0 0.0 Maint 11.8 0.0 5.5 31.2 2.2 8.3 16.4 0.2 0.4 0.3 0.0 0.3 0.0 Serv 10.0 9.5 9.7 11.1 4.7 0.0 11.5 0.2 0.1 0.1 0.2 0.1 0.0 Oth 8.5 0.0 0.0 0.0 19.8 0.0 0.0 0.1 0.0 0.0 0.1 0.0 0.0

Au total, les 13 firmes qui figurent dans le tableau ci-dessus peuvent être considérées comme des généralistes. Ces 13 firmes représentent 59% du chiffre d’affaires total de l’échantillon de 110 firmes. Au niveau mondial, il faudrait y ajouter Siemens-Nixdorf, Toshiba, Olivetti, Bull, ICL et Mitsubishi, respectivement numéros 8,

lxiv

10, 12, 13, 17 et 26 par ordre de chiffre d'affaires, ce qui augmenterait encore la part des généralistes dans le marché global. Pour la plupart de ces généralistes, les activités de progiciels et de services sont des prestations annexes qui ne sont fournies qu’en relation avec leur activité principale de vente de matériel et ne représentent pas plus de 20% de leur chiffre d’affaires. Apprécier le caractère « annexe » d’une prestation comporte une part de subjectivité. Par exemple, des firmes considérées comme spécialisées en matériel comme NCR, Unisys ou Control Data réalisent entre 11% et 17% de leur CA en services hors maintenance. Le cas de Control Data est particulièrement intéressant, dans la mesure où cette Société a filialisé une part de son activité de services dans la société Ceridian, mais en conserve néanmoins une part supérieure à 12% de son propre chiffre d’affaires. On peut donc penser qu’une proportion de 12 à 15% de services représente le niveau normal de l’assistance annexe aux matériels et qu’une proportion inférieure ne permet pas de considérer la firme correspondante comme réellement mixte. Or, dans le cas d’IBM les services hors maintenance ne représentent que 10% du chiffre d’affaires, soit moins que pour les cinq firmes précitées. Mais bien que ce chiffre caractérise une activité de services purement annexe, et plutôt moins importante relativement au matériel que celle des autres constructeurs, la taille d’IBM lui donne la première place sur le marché des services et conduit souvent à la considérer comme une société de services au même titre que les firmes spécialisées.

Les firmes spécialisées
Bien qu’en partie subjective, cette distinction entre prestations principales et prestations annexes vaut pour toutes les entreprises. La simple présence d’un acteur sur un segment ne signifie pas nécessairement qu’il y est un acteur important, ni que la production correspondante représente une part importante de son activité. Par exemple, le chiffre d’affaires de Microsoft, que tout le monde s’accorde à ranger parmi les spécialistes du progiciel, comprend 8% de services et 1% de matériel à coté des 91% de progiciel. De même, Lexmark est indiscutablement spécialisée dans les périphériques (précisément les imprimantes) qui représentent 98% de son chiffre d’affaires, les 2% qu’elle réalise en PC étant anecdotiques. Sauf à accepter de ranger parmi les généralistes Microsoft, Lexmark et de nombreuses autres sociétés, nous devons donc considérer comme spécialisées des firmes qui offrent une prestation principale accompagnée de prestations annexes à la prestation principale. Pour les firmes offrant principalement des produits (matériels ou progiciels), les prestations annexes pourront être des services de maintenance ou d’assistance à l’utilisation de ces produits, voire des progiciels liés à ces produits ou des matériels périphériques acquis auprès de tiers et revendus comme partie intégrante d’un système complet. Symétriquement, des sociétés de services peuvent intégrer à leur offre des matériels qu’elles achètent pour les revendre, ce qui est une situation courante pour celles qui pratiquent l’intégration de systèmes. En tenant compte de ces remarques, on peut classer parmi les spécialistes non seulement les 39 firmes présentes sur un seul segment, mais également 45 de celles qui sont présentes sur 2, 3 ou 4 segments. Nous aboutissons ainsi à un total de 84 firmes spécialisées qui se répartissent comme suit, et dont la liste détaillée pour chaque

lxv

spécialité, avec le pourcentage de leur chiffre d’affaires réalisé dans chacun des segments, est donnée en annexe A (tableaux A-II à A-XII) :
Nombre de spécialistes par segment
lge 1 segment >1 segment total 0 3 3 mid 1 2 3 PC 4 5 9 stat 0 3 3 soft 8 7 15 péri 7 8 15 com 4 3 7 maint 0 1 1 serv 14 12 26 other 1 1 2

La plupart de ces affectations sont évidentes, mais certains cas demandent une explication complémentaire. Dans les catégories de spécialistes en systèmes centraux coexistent deux types de firmes : celles qui ne commercialisent que les unités de traitement en laissant leurs clients s’adresser à d’autres fournisseurs pour les périphériques et les services (comme Convex, Stratus et la plupart des constructeurs de PC), et celles qui offrent des systèmes plus complets entraînant des chiffres d’affaires non négligeables dans ces segments annexes. Sont dans ce dernier cas Amdahl pour les grands systèmes, Tandem pour les moyens, Apple ou CompuAdd pour les micros. On a également admis qu’un chiffre d’affaires important dans la maintenance ou les services n’est pas nécessairement révélateur d’une activité réellement mixte, c’est à dire où les services seraient commercialisés indépendamment des matériels. Notons enfin que Motorola et Intel n’apparaissent dans les statistiques de Datamation que pour leurs activités de fournisseurs de systèmes moyens et les périphériques de communication pour le premier, de grands systèmes et de cartes d’extension pour le second. Bien que primordial dans le domaine de l’informatique, leur rôle principal de fabricant de composants n’est pas pris en compte dans ce classement et la présence de ces deux firmes parmi les spécialistes respectivement des communications et des périphériques ne doit pas faire illusion, surtout dans le cas d’Intel.

Les firmes mixtes
En dehors des 13 « généralistes », il reste 13 firmes plus ou moins réellement mixtes, qui se répartissent comme suit (voir en annexe tableau A-XII) : – 1 (Prime Computervision) est une Société de matériel qui offre maintenance, logiciel et services associés, et aurait pu être rangée parmi les spécialistes des stations de travail, si ce n’est que son activité importante de maintenance concerne des matériels distincts hérités du rachat de Prime ; 1 (Ask) offre principalement du logiciel, complété par du matériel et des services ; 3 (Dun and Bradstreet, Reynolds & Reynolds, National Computer Systems) complètent par du matériel et du logiciel une offre centrée sur le service et la maintenance ; 4 (Lockheed, NTT, Datapoint, British Telecom) offrent de façon à peu près équilibrée du matériel et des services ;

– –

lxvi

3 (Finsiel, Sterling Software, Nynex) offrent de façon à peu près équilibrée du logiciel et des services ;

– 1 (MAI), offre de façon à peu près équilibrée des services et de la maintenance. A part Prime/Computervision, dont l’histoire est celle d’un constructeur de matériel, la part des services dans l’offre des firmes mixtes est élevée. De fait, presque toutes sont au départ des sociétés de services qui ont greffé sur cette activité une offre de matériel ou de progiciel. Les différences entre les années 1992 et 1993 font intervenir à la fois des évolutions réelles de la composition de l’offre des firmes et des reclassements d’activités identiques dans des catégories différentes. Sous cette deuxième rubrique, on trouve typiquement des regroupements du matériel périphérique avec les systèmes centraux concernés, des ventilations différentes entre maintenance et autres services, voire des regroupements de la maintenance avec les matériels ou les logiciels maintenus. Les seules entreprises qui changent de catégorie en 1993 sont Ceridian qui isole une part importante de matériel et devient donc mixte, et Gerber qui en précisant sa production entre dans la catégorie des périphériques.

Correspondance entre secteur et marché
Examinons maintenant comment sont servis les différents marchés. Pour chacun des dix segments principaux retenus par Datamation, considérons toutes les firmes qui y réalisent un chiffre d'affaires non nul. Ces firmes peuvent appartenir à toutes les catégories définies ci-dessus, mais elles seront le plus souvent soit des généralistes, soit des spécialistes du segment concerné. Le graphique ci-dessous montre pour chacun des segments la part respective des généralistes, des spécialistes du segment et des autres firmes (spécialistes d’autres segments ou firmes mixtes). Le détail des chiffres figure en annexe (tableaux A-XIII et A-XIV).

Généralistes et spécialistes
Large Mid PC Stat Soft Peri Comm Maint Serv Other
0 10000 20000 30000 40000 50000

3 3 9 ++ 3 15 ++ 15 ++ 7+ 1 27 ++ 2
60000 Spec Autres Gen

CA 1992 (M$)
Données Datamation - Analyse GD G. Dréan - 1997

lxvii

Les treize généralistes dominent largement les segments des grands et des moyens systèmes, ainsi que le segment maintenance. Ils ne sont clairement minoritaires que dans le segment des services hors maintenance. Pour les PC, les stations et les périphériques, les spécialistes du segment occupent ensemble presque tout le reste du marché, ne laissant qu’une place marginale aux spécialistes des autres segments et aux firmes mixtes. Ce phénomène de bipolarisation est moins net pour le software, les périphériques de communication, la maintenance et les services. Dans le segment maintenance, c’est même la firme spécialisée qui n’occupe qu’une part de marché marginale, laissant la seconde place aux spécialistes des autres segments et aux firmes mixtes. Une analyse plus détaillée segment par segment est donnée en annexe. Les tableaux A-XV à A-XXIII contiennent, pour chacun des segments, la liste des firmes de l’échantillon des 110 qui y sont présentes, classées dans l’ordre décroissant de leur part de ce marché donnée en colonne 2. Pour chaque firme sont rappelées sa catégorie de spécialisation ainsi que la part du segment considéré dans le chiffre d’affaires informatique de la firme, qui mesure son degré de spécialisation relativement à ce segment.

Grands systèmes (tableau A-XV)
Quatorze (14) firmes sont présentes, dont 10 des 13 généralistes, qui réalisent ensemble plus de 90% du chiffre d’affaires avec des spécialisations inférieures à 36%. Les 3 véritables spécialistes occupent ensemble moins de 10% de ce marché, et une seule autre firme (Intel) est marginalement présente. Les cinq plus fortes parts de marché sont occupées par des généralistes, qui sont en ordre décroissant IBM, Fujitsu, Hitachi, NEC et Unisys. Le marché des grands systèmes est donc dominé par ces 5 offreurs, qui réalisent ensemble près de 85% du chiffre d'affaires. Les spécialistes n’apparaissent qu’à partir de la sixième place, avec des parts non supérieures à 6%. Au total, les firmes spécialisées dans les grands systèmes sont trop peu nombreuses et occupent une trop faible place sur le marché correspondant pour pouvoir être considérées comme formant un secteur autonome. On peut s’attendre à ce que le comportement concurrentiel des offreurs de grands systèmes ne soit pas régi par des facteurs propres à ce segment, mais par des stratégies généralistes qui englobent également les autres marchés sur lesquels opèrent les offreurs dominants.

Systèmes moyens (tableau A-XVI)
La situation est presque identique à celle des grands systèmes, au nom de certains acteurs près. Dix-sept (17) acteurs opèrent sur ce segment, dont 10 des 13 généralistes qui réalisent 88% du chiffre d’affaires. La part de marché totale des trois seuls spécialistes est ici aussi inférieure à 9%. Quatre (4) autres firmes sont présentes (Reynolds and Reynolds, Ask, Motorola et Sun), avec des parts de marché allant de 0.2 à 1.2%. Ici encore, les cinq plus fortes parts de marché sont occupées par des généralistes, qui sont en ordre décroissant IBM, Digital Equipment, Fujitsu, NEC et HewlettPackard, et réalisent ensemble près de 80% du chiffre d'affaires. Les spécialistes

lxviii

n’apparaissent qu’aux sixième, huitième et douzième places, avec des parts inférieures à 5%. Comme pour les grands systèmes, on ne peut pas parler de secteur autonome. Il est tentant de regrouper grands et moyens systèmes, où la situation et un grand nombre d’acteurs sont identiques, et entre lesquels la séparation est d’ailleurs assez arbitraire. Sur le segment composite sont présentes 23 firmes dont 12 des 13 généralistes qui y occupent les six premières places par ordre de part de marché, et un total de 89%. Les spécialistes de l’un ou de l’autre, au nombre de six, n’apparaissent qu’à partir de la septième place avec une part maximale de 3.5%. Les autres firmes n’y jouent qu’un rôle modeste avec des parts de marché inférieures à 0.5%. Cette image ne serait probablement pas remise en question si nous prenions en considération l’ensemble de l’industrie mondiale. En effet, la catégorie des généralistes s’étendrait alors à des firmes comme Bull, Olivetti et ICL, et sa domination en serait encore renforcée puisqu’il n’existe hors de notre échantillon que très peu d’autres firmes présentes dans les grands ou les moyens systèmes. De plus, il est probable que presque toutes les firmes productrices de ce type de systèmes ont une taille suffisante pour figurer dans notre échantillon et que l’extension à des firmes de taille inférieure n’introduirait pas de modifications notables.

PC (tableau A-XVII)
La situation est visiblement différente pour le segment des micro-ordinateurs. Douze des 13 généralistes figurent parmi les 25 firmes présentes, mais ne totalisent que 51% de ce marché. En revanche, 9 firmes spécialisées en occupent 47% et apparaissent dès la deuxième et la troisième place (Apple et Compaq). Les firmes mixtes autres que les généralistes jouent là aussi un rôle mineur. Le segment est donc satisfait par deux types de firmes : d’une part des spécialistes pour lesquels la micro-informatique représente plus de 65% de leur activité, et d’autre part des firmes pour lesquelles ce segment représente une part minoritaire (moins de 30%) de leur activité. Si nous prenions en compte la totalité de l’industrie informatique mondiale, on verrait alors apparaître sur ce segment d’une part les quelques autres généralistes non américains, mais aussi un grand nombre d’entreprises trop petites pour figurer dans l’échantillon retenu par Datamation. En nombre d’acteurs, ceci donnerait une très nette majorité aux firmes spécialisées, et il est fort possible que ceci ait même pour effet global de donner aux firmes spécialisées la plus grande part du chiffre d’affaires. On peut donc considérer qu’il existe un secteur autonome d’offreurs spécialisés en micro-ordinateurs, qui comprend d’ailleurs un grand nombre de petites firmes. Ce secteur est en concurrence sur le marché avec celui des grands généralistes.

Stations (tableau A-XVIII)
Le cas des stations de travail est en quelque sorte intermédiaire entre celui des moyens ou grands systèmes et celui des PC. Dix-neuf (19) firmes y sont présentes dont 10 des 13 généralistes, qui représentent encore 63% du marché. Par contre, bien qu’il n’y ait que trois véritables spécialistes (Sun, Silicon Graphics et Intergraph), ceux-ci totalisent 32% du marché et y occupent respectivement les première, sixième et

lxix

huitième place, les autres places jusqu’à la onzième étant tenues par sept généralistes et Prime/Computervision qui s’intercale à la neuvième. Là encore, on peut donc considérer qu’il existe un secteur autonome d’offreurs spécialisés en stations, en concurrence sur le marché avec les grands généralistes. Mais contrairement au cas des PC, ce secteur spécialisé est formé d’un petit nombre de firmes. Prendre en considération l’ensemble de l’industrie mondiale ne modifierait probablement pas cette conclusion.

Software (tableau A-XIX)
Une différence importante avec les segments précédents est le nombre des acteurs présents, qui s’élève à 57 soit plus de la moitié de l’échantillon. De plus, il existe de nombreuses firmes petites ou non américaines qui sont actives dans ce domaine, si bien que prendre en considération toute l’industrie renforcerait encore cette particularité. On peut dire que la majorité des firmes qui composent l’industrie informatique sont présentes dans le segment du software. C’est en particulier le cas des généralistes, qui représentent ensemble 57% du chiffre d’affaires software de notre échantillon, alors que 15 spécialistes en représentent 30% et que 32 autres firmes, spécialisées dans d’autres domaines ou réellement mixtes, totalisent 13%. Deux généralistes occupent les premières places, IBM avec 32% et Fujitsu avec 10%, mais les spécialistes apparaissent rapidement : Microsoft troisième avec 8%, Computer Associates cinquième avec 5%, Novell sixième avec 3%. Il existe donc bien un secteur autonome pour le software, toujours en concurrence avec les généralistes, mais la bipolarisation est moins nette que pour les PC ou les stations. Entre 38 firmes dont la part d’activité software est inférieure à 30% et 14 firmes clairement spécialisées à plus de 70% s’échelonnent cinq firmes avec des spécialisations comprises entre 40 et 60%, le reste étant généralement fait de services. Il s’agit de Nynex, Ask, Sterling Software, Finsiel et Oracle.

Périphériques dont communication (tableaux A-XX et A-XXI)
La situation dans les périphériques, où 41 firmes sont présentes, est intermédiaire entre celle des PC et celle du software. Là encore, 11 des 13 généralistes occupent au total un tout petit peu plus de la moitié du marché, IBM venant en tête avec 15%. Mais 15 spécialistes en représentent 40%, la part de marché du plus important d’entre eux étant supérieure à 7%, tandis que 17 autres firmes, mixtes ou spécialistes d’autres domaines, totalisent 8%. Pour les périphériques de communication, le nombre d’acteurs (18) est moindre que pour les autres périphériques, et ceci pour chaque catégorie. Seuls 7 des 13 généralistes sont présents, avec 49% du marché, plus 7 spécialistes pour 35% du marché, et 4 autres firmes pour les 16% restants (dont British Telecom et NTT). Il faudrait d’ailleurs isoler non seulement les périphériques de communication, mais aussi distinguer les unes des autres les diverses familles fonctionnelles comme les imprimantes, les disques, les cartes d’extension, les terminaux, … qui forment des marchés plus distincts les uns des autres que ne le sont par exemple les grands ordinateurs, les systèmes moyens et les stations. Dans chacun de ces segments, à coté

lxx

des généralistes toujours plus ou moins présents, on trouve un grand nombre de spécialistes qui jouent un rôle important malgré leur taille souvent modeste.

Maintenance (tableau A-XXII)
Vingt-huit (28) firmes, dont 10 des 13 généralistes, déclarent un chiffre d’affaires en maintenance. Les 10 généralistes réalisent ensemble 84% du chiffre d’affaires total et occupent en particulier les 7 premières places. Une seule firme, Bell Atlantic, peut être considérée comme spécialisée en maintenance avec 77% de son chiffre d’affaires pour 20% de software et 3% de services ; elle apparaît à la huitième place avec une part de marché de 3%. Dix-sept (17) autres firmes, généralement spécialisées en matériel ou en services, se partagent 13% du marché. Il existe probablement hors de l’échantillon, en particulier hors des USA, quelques autres firmes spécialisées en maintenance, mais leur part du marché total est certainement modeste. On ne peut donc pas considérer la maintenance comme un secteur autonome, mais comme une prestation annexe aux autres prestations, bien que quelques firmes s’y soient exceptionnellement spécialisées.

Services (tableau A-XXIII)
C’est dans ce domaine que les intervenants sont le plus nombreux avec 63 mentions sur les 110 firmes de notre échantillon. C’est aussi en matière de services que le nombre (26) et la part (42%) des spécialistes sont le plus élevés. Cette particularité est probablement encore plus affirmée au niveau de l’ensemble de l’industrie mondiale, car il existe, en Europe comme aux USA, une multitude d’entreprises de service trop petites pour figurer dans l’échantillon des 110, mais dont le chiffre d’affaires cumulé est loin d’être négligeable. Onze des 13 généralistes sont présents et occupent ensemble 32% de ce marché, en particulier IBM qui occupe la première place avec 14%. Mais 27 autres firmes de notre échantillon, pour qui le service est également une activité secondaire, réalisent quand même 26% du chiffre d’affaires. On constate que les services attirent de très nombreuses firmes de taille très variable, et représentent en particulier un secteur autonome bien qu’en concurrence avec les généralistes.

Conclusions
En règle générale, on ne peut pas associer à chacun des segments de marché un groupe de firmes qui réaliserait l’essentiel du chiffre d’affaires de ce marché et ne serait que marginalement présente sur les autres. Les secteurs de l’industrie ne peuvent donc pas être définis par une correspondance simple avec les segments de marché. Il en découle en particulier que les comportements des offreurs sur la plupart de ces marchés ne sont pas déterminés par des considérations propres à ce marché, mais par une stratégie plus générale. Par exemple, les marchés des grands et des moyens systèmes sont largement dominés par des acteurs pour qui ces marchés ne représentent qu'un part minoritaire de leur offre, et pour qui le champ de la concurrence est significativement plus vaste. Il est donc important de bien distinguer les notions de « segment de marché » (l'ensemble des acheteurs actuels ou potentiels d'un produit[3]) et celle de « secteur d'industrie » (ensemble des firmes qui fabriquent des produits étroitement

lxxi

substituables[4]), et à l'intérieur d'un secteur de distinguer des catégories différentes d'acteurs selon par exemple leur degré de spécialisation. L’analyse des prestations des 110 firmes dont la décomposition de l’activité est connue nous permet d’en répartir la grande majorité en huit secteurs : – les généralistes (IBM, Fujitsu, NEC, Digital Equipment, Hewlett-Packard, Hitachi, NCR/ATT, Unisys, Wang, Data General, Texas Instruments, Control Data et Wyse), auxquels s’ajoutent au niveau mondial Siemens, Toshiba, Olivetti, Bull, ICL et Mitsubishi ; les firmes spécialisées par niche de systèmes conventionnels (Amdahl, Cray, Convex pour les grands systèmes, Tandem, Sequent et Stratus pour les systèmes moyens) ; les constructeurs de PC (Apple, Compaq, Dell, AST, Gateway 2000, Packard Bell, Commodore, Tandy, CompuAdd), plus un grand nombre de firmes européennes, japonaises et américaines de moindre importance ;

– les constructeurs de stations (Sun, Silicon Graphics, Intergraph) ; – les firmes de software (Microsoft, Computer Associates, Novell, Lotus, Oracle, Wordperfect, Borland, Legent, Autodesk, SAS, Cadence, Adobe, Mentor Graphics, Informix, Sybase), et un grand nombre de firmes de moindre importance, principalement américaines ; – les constructeurs de périphériques (Canon, Seagate, Xerox, Conner, Quantum, Maxtor, Lexmark, Intel, Storage Technology, Western Digital, Micropolis, EMC, Tektronix, Kodak), avec un grand nombre de firmes de moindre importance, américaines, japonaises et européennes ; les constructeurs de périphériques de communication (Northern Telecom, Motorola, Racal, 3COM, Synoptics, Cabletron, Digital Communications), plus un grand nombre de firmes de moindre importance, américaines, japonaises et européennes ;

les sociétés de services (EDS, Computer Sciences, Andersen Consulting, ADP, CAP, TRW, First Data, Nomura, Price Waterhouse, Ceridian, PRC, SHL, Ernst and Young, Coopers and Lybrand, Systematics, General Electric, Martin Marietta, Boeing, Shared Medical Services, Science Applications, Policy Management, Litton, Grumman, Fiserv, Computer Task Group, American Management Systems), et un grand nombre de firmes de moindre importance dans le monde entier. Pour obtenir un panorama complet, il faut ajouter deux autres secteurs spécialisés : celui des composants et celui de la distribution. Intel et Motorola quitteront alors le secteur des périphériques où les range artificiellement le classement de Datamation pour rejoindre celui des composants. Par ailleurs, il faudrait séparer les constructeurs de périphériques en différents secteurs selon la nature des produits, comme le classement Datamation le fait pour les périphériques de communication. Un secteur des mémoires comprendrait des firmes comme Seagate, Conner, Quantum, Maxtor, Storage Technology, Western Digital, Micropolis et EMC, alors qu’un secteur « sorties sur papier » pourrait comprendre Canon, Xerox, Lexmark et Kodak en concurrence avec Hewlett-Packard. De la même

lxxii

façon, le secteur des services devrait être décomposé en secteurs spécialisés, tant est grande la variété des formes de services.

Structure de dépenses et modèles d’entreprise
Une piste pour affiner notre classification consiste à analyser la composition des dépenses des entreprises. Les statistiques fournies par McKinsey donnent pour un certain nombre de firmes les pourcentages de leur chiffre d’affaires qu’elles consacrent à la R&D d’une part, aux dépenses commerciales et d’administration d’autre part. Il est facile d’en déduire la ventilation de leurs dépenses totales (revenu moins profit) entre Recherche et Développement, frais administratifs et commerciaux, et enfin coût de revient des produits vendus. En rapportant ces catégories de dépenses aux dépenses totales plutôt qu’au revenu, on élimine les différences de profitabilité qui augmenteraient la dispersion des pourcentages. Ces ratios sont donnés en annexe dans le tableau A-XXIV pour l’année 1993 prise comme exemple. Les firmes sont rangées par ordre décroissant du ratio des coûts de production. Observons que ces ratios varient dans des plages très larges : de moins de 20% à près de 90% pour les coûts de production, de 0 à près de 30% pour la R&D, de 6 à plus de 70% pour les dépenses commerciales et d‘administration. Or il paraît évident que des firmes qui consacrent 85% de leur chiffre d’affaires à la production contre 4% à la R&D et aux dépenses commerciales sont très différentes de firmes pour lesquelles la production ne représente que 25% du CA contre 15% à la R&D et 45% au commerce et à l’administration. De telles différences révèlent certainement des formes d’entreprises radicalement différentes et obéissant à des logiques de comportement différentes qui doivent le faire considérer comme appartenant à des secteurs distincts. Or l’examen des chiffres fait clairement apparaître une répartition des firmes en groupes relativement homogènes. Les fabricants de PC et de périphériques spécialisés pour PC (Western Digital, Quantum, Conner, Seagate, Maxtor, Micropolis) ont les coûts de production les plus élevés, avec des ratios compris entre 65% et 90% des dépenses totales, et ceci de façon constante chaque année. Pour la plupart de ces firmes, la R&D se situe entre 2 et 4% pour les constructeurs de PC, qui se contentent d’assembler des produits standardisés, entre 4 et 8% pour les constructeurs de périphériques qui développent des produits originaux. Les coûts de ventes et d’administration se situent entre 6 et 10% pour les firmes qui pratiquent une commercialisation indirecte à travers des revendeurs, tandis que les firmes comme Dell ou Compaq ont des ratios plus élevés. Au total, ces ratios caractérisent une stratégie d’entreprise reposant sur un petit nombre de produits standards et une concurrence par les prix plutôt que par les produits. Le seul constructeur spécialisé dans les micro-ordinateurs qui s’écarte de ce schéma est Apple, dont les ratios se rapprochent de ceux des constructeurs traditionnels. A l’autre extrême, le progiciel a les coûts de production les plus faibles, toujours inférieurs à 50% du CA et la plupart du temps inférieurs à 35%. Corrélativement, les dépenses de vente et d’administration sont les plus élevées, en étant toujours supérieures à 30% sauf pour SAP, et dépassant souvent 50%. Les coûts de R&D représentent typiquement entre 8 et 20% du chiffre d’affaires, le cas d’Ultimate étant probablement une erreur dans les chiffres.

lxxiii

Les différences entre ces types d’entreprise apparaissent encore plus clairement sur les diagrammes suivants, où chaque firme est représentée par un point ayant pour coordonnées son pourcentage de R&D (en abscisse) et de dépenses de vente et d’administration (SG&A) en ordonnée, et ceci pour l’année 1993. Les trois zones en grisé représentent les plages où se concentrent la plupart des firmes de microinformatique (en bas à gauche), de progiciel (en haut à droite), et les généralistes (zone intermédiaire), pour l’ensemble de la période considérée.

Dépenses 1993
0 ,8 0 ,7 0 ,6 0 ,5

pro

gici

els

SG&A 0,4
0 ,3 0 ,2 0 ,1 0 0,0 % 0

généraliste

s

PC

5 0 ,0 %

1 ,0 % 0 0

R&D

1 0 5,0 %

2 ,0 % 0 0

2 ,0 % 5 0

Données McKinsey - Analyse GD
G. Dréan - 1997

En ignorant pour l’instant quelques cas aberrants comme ceux d’Apple, dont nous avons déjà vu qu’il appartient en fait à la catégorie des généralistes, ou encore d’Ultimate et de Novell, nous voyons que ces plages sont suffisamment étroites et disjointes pour représenter des types d’entreprises différenciés. De plus, on constate que ces plages sont très stables dans le temps pour les dernières années, le seul mouvement notable étant une dérive de la zone des PC vers le bas et la gauche, reflétant sans doute une rigueur de gestion croissante avec le temps. Le cas du progiciel appelle quelques commentaires. Ses coûts de reproduction très faibles entraînent automatiquement des valeurs élevées pour les deux autres types de dépenses que sont la R&D et les dépenses générales, situant donc la zone du progiciel en haut et à droite du diagramme. Mais les points représentant les différentes entreprises restent assez dispersés. Il est probable que les dimensions importantes de la zone du progiciel s’expliquent essentiellement par le fait que dans ce secteur, la distinction entre développement, production et commercialisation a été interprétée différemment selon les entreprises. Par exemple, la frontière entre R&D et production n’a peut-être pas été située de façon identique par toutes les firmes, ou encore les dépenses de documentation ont pu être considérées comme des coûts de développement par les uns, comme dépenses commerciales par d’autres. C’est pourquoi il ne faut sans doute pas attacher une importance excessive aux points aberrants que nous mentionnions plus haut.

lxxiv

Mis à part ces inexactitudes possibles, la position des firmes sur le diagramme, et leurs déplacements éventuels au cours du temps, représentent assez bien leur mode de fonctionnement et leurs choix stratégiques. Le pourcentage de R&D tendra à être d’autant plus élevé que la firme cherche à offrir des produits originaux, par opposition à une activité de pur assemblage de produits standard. La part de dépenses commerciales et d’administration reflète également pour une part l’originalité des produits, qui tend à exiger un effort commercial particulier, mais surtout le mode de commercialisation direct ou indirect, le poids des dépenses publicitaires et d’une façon générale le train de vie de l’entreprise. Ces explications aident à interpréter la place des autres firmes. Les constructeurs de systèmes spécialisés ont des taux de SG&A comparables à ceux des généralistes, sauf Amdahl et Cray qui ont des taux inférieurs, tandis que leurs taux de R&D sont presque tous supérieurs à ceux des généralistes. C’est en particulier les cas des offreurs de stations de travail. Les fabricants de périphériques ont des dépenses de vente et d’administration plus modestes, probablement parce qu’une part plus ou moins importante de leur production est commercialisée indirectement à travers les offreurs de systèmes, tandis que leur taux de R&D les rapproche soit des généralistes soit des micros suivant la vocation de leurs produits.

Dépenses Services
80,00% 70,00% 60,00% 50,00%

SG&A 40,00%
30,00% 20,00% 10,00% 0,00% 0,00%
VOLMAC 91 Nat Comp 93 Shared Med 91 ADP

Policy Mgmt 91, 92

Policy Mgmt 93 Hoskyns 91 Science Apps 93 SEMA 91

CTG 92

5,00%

10,00%

R&D

15,00%

20,00%

25,00%

Données McKinsey - Analyse GD

Les services se répartissent sur tout le plan, confirmant ainsi qu’il s’agit d’un ensemble d’activités très hétérogène. C’est aussi pour cette catégorie que la proportion de firmes qui publient ces informations est la plus faible, ce qui peut laisser planer des doutes sur la fiabilité des quelques chiffres publiés, pour les mêmes raisons d’ailleurs que pour les progiciels. Néanmoins, on peut observer que des sociétés comme Hoskyns ou Sema, qui offrent des services d’intégration ou de développement, se situent dans une zone voisine de celle des PC, alors que la structure de dépenses des firmes de

lxxv

traitement comme Policy Management, ADP ou Shared Medical Systems les rapproche des généralistes voire du progiciel.

Synthèse
En combinant cette approche de classification avec l’analyse des combinaisons de prestations, on est conduit aux conclusions suivantes : Il existe un modèle spécifique aux firmes spécialisées dans le progiciel, qui sont généralement totalement absentes du marché des matériels, et n’offrent que le minimum de prestations annexes comme la maintenance ou les services. Ces firmes ont une forte activité de R&D et une activité commerciale hypertrophiée, mais un coût de production faible en valeur relative. Les firmes où le matériel domine appartiennent à deux types distincts : – un type classique avec une activité de R&D suffisante pour développer des produits propres, et une forte activité commerciale. Ce type comprend les généralistes historiques et leurs concurrents plus spécialisés dans certains types de matériel dont les périphériques associés aux systèmes classiques, ainsi qu’Apple dans le secteur de la micro.

un type lié à la micro-informatique compatible, avec des activités de R&D, de vente et d’administration réduites à leur plus simple expression, donc une domination absolue de la production. Les constructeurs généralistes appartiennent au type classique et cherchent à offrir à la fois une large gamme de matériels y compris des périphériques, ainsi que la maintenance, les logiciels et les services associés à ces matériels. Ce modèle est celui des premiers temps de l’informatique ; pour les firmes qui suivent ce modèle, l’objectif principal est toujours de fournir à leurs clients des systèmes complets, même si les différentes prestations sont devenues plus ou moins indépendantes sur le plan tarifaire et commercial, ainsi que dans l’organisation interne des entreprises. Il est également suivi par des firmes comme Prime, les fournisseurs de stations de travail, ainsi que par Apple en micro-informatique. Les constructeurs de matériel spécialisé ont choisi de se limiter à une niche précise, qu’il s’agisse d’unités centrales ou de périphériques. En règle générale, ces constructeurs essaient de ne fournir que le minimum de logiciel ou de prestations annexes. Les plus anciens, comme Tandem, Stratus, Evans & Sutherland ou Memorex se rattachent au type classique tandis que les constructeurs de compatibles IBM et de périphériques associés se conforment au modèle qui est devenu la règle dans la microinformatique à partir de 1981. On retrouve la séparation historique entre le monde traditionnel et le monde PC, le monde Unix comme le monde Apple fonctionnant plus comme le monde traditionnel que comme celui de la micro-informatique compatible. Dans le domaine des services apparaissent deux types extrêmes : celui des services « intellectuels » dont la structure de coûts ressemble à celle du matériel microinformatique avec des coûts de production élevés et des coûts de R&D et de commercialisation faibles, et à l’opposé celui des services « de traitement » dont la structure de coûts ressemble à celle du progiciel avec des coûts de R&D et de

lxxvi

commercialisation élevés. Non seulement cette catégorie regroupe deux formes d’entreprises diamétralement opposées, mais les similitudes de structure de coûts avec d’autres secteurs semblent paradoxales : les services de développement de logiciel se comportent comme les firmes de matériel micro et non comme celles de progiciels, tandis que les services de traitement se comportent plus comme des firmes de progiciel que comme des firmes de matériel. La structure de dépenses des firmes mixtes rapproche certaines de l’un des modèles dominants ci-dessus. Par exemple, MAI se rattache normalement au modèle de la micro-informatique, Datapoint à celui des constructeurs classiques et Ask Computers à celui du progiciel.

Conclusions
L’examen des chiffres, malgré les réserves sur leur fiabilité et la représentativité partielle de l’échantillon, nous a permis de rattacher la plupart des 110 firmes à un petit nombre de modèles d’entreprise. Mais ces catégories ne sont pas exactement parallèles à la segmentation conventionnelle du marché. A chaque segment de marché est bien associée une certaine population d’entreprises qui s’y sont spécialisées. L’ensemble de ces spécialistes constitue d’ailleurs la majorité des entreprises d’informatique. Mais il existe également un groupe de généralistes, dont chacun est présent dans presque tous les segments en concurrence avec les spécialistes, et qui bien que moins nombreux réalisent plus de la moitié du chiffre d’affaires de l’industrie. En dehors des spécialistes et des généralistes, il existe relativement peu de firmes dont l’activité principale se partage entre deux ou trois segments. Dans la plupart des cas il s’agit de firmes dans une situation transitoire, par exemple des entreprises de systèmes « clés en mains » qui restreignent leur offre au progiciel (comme Computervision ou Ask), ou à l’inverse des entreprises de services qui complètent leur offre par des matériels spécialisés. En tout état de cause, ces entreprises mixtes ne tiennent qu’une place marginale dans les segments de marché où elles sont présentes. La plupart des segments sont donc servis par des entreprises appartenant à des groupes différents, et certains groupes sont caractérisés par leur présence sur plusieurs segments. Autrement dit, la définition classique d’un secteur d’industrie comme « l’ensemble des firmes produisant un certain produit » ne nous permet pas de répartir les firmes en groupes homogènes et raisonnablement disjoints. La principale distinction est donc entre généralistes et spécialistes, ceux-ci se distinguant à leur tour selon leur activité. En analysant de plus près la structure de dépenses de chaque entreprise, nous avons isolé parmi ces spécialistes deux personnalités très typées : les constructeurs de matériels microinformatiques et de périphériques associés, avec des dépenses commerciales et de R&D réduites au minimum, et à l’opposé les producteurs de progiciel, avec des dépenses de R&D importantes et des frais commerciaux et généraux hypertrophiés. Les entreprises de services forment une population hétérogène, où certaines ont une structure de dépenses voisine de celle des matériels microinformatiques et d’autres une structure voisine de celle des progiciels. Ce critère définit trois types de spécialistes : le progiciel à un extrême (avec les firmes de service spécialisées dans le traitement), le matériel micro-informatique (avec

lxxvii

les services d’assistance et de développement) à l’autre extrême, et les entreprises des autres catégories avec des profils plus équilibrés qui ne diffèrent pas radicalement du profil des généralistes. Les spécialistes des grands ou des moyens systèmes, comme ceux des stations de travail et Apple, se rangent dans cette catégorie des entreprises plus conventionnelles. Notons enfin que les spécialistes des grands systèmes et des moyens systèmes, ainsi que ceux de la maintenance, sont peu nombreux et ne tiennent qu’une place modeste sur les segments de marché correspondants. Ces conclusions seraient globalement inchangées si nous considérions l’ensemble de l’industrie mondiale et non un échantillon des plus grandes firmes principalement nordaméricaines. La plus grande différence serait l’apparition parmi les grands acteurs de firmes non spécialisées en informatique comme Fujitsu, NEC, Hitachi, Siemens, Canon, etc. Il s’agit d’un phénomène typiquement japonais et un peu européen, puisque aux USA les groupes non spécialisés ne jouent plus un rôle de premier plan en informatique depuis leurs tentatives des années 60. Par ailleurs, la prise en compte des petits acteurs accentuerait encore le contraste entre des secteurs concentrés comme les matériels conventionnels, qui comporte peu d’acteurs en dehors des grands, et des secteurs dispersés comme le matériel micro-informatique, le progiciel ou les services, où les petites firmes sont légion.

A la date de rédaction du présent chapitre, cet ensemble de données enrichies n’est disponible que pour l’année 1992. C’est pourquoi l’étude qui suit repose sur les données relatives à cette année, bien que le classement Datamation 93 ait été publié en Juin 1994. Nous mentionnerons les différences significatives entre 1993 et 1992, qui ne remettent pas en question la typologie qui suit.
[1] [2]

McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994). Kotler, Principles of Marketing Porter, Competitive Strategy

[3]

[4]

lxxviii

Chapitre 5 Structure et performances
La croissance par secteur. Réflexions sur les profitabilités comparées. Cycles de production et dispersion des profits. Il n’y a pas de bons et de mauvais secteurs. Profitabilité et services. Profitabilité et croissance.

Les observateurs s’étonnent souvent de la diversité des performances des firmes du secteur informatique. Alors que jusque vers la fin des années 80, l’informatique était réputée être une industrie prospère, les catastrophes s’y succèdent depuis quelque temps. Les firmes naguère les plus florissantes traversent des années de déclin de leur volume d’affaires et de pertes financières qui leur imposent de douloureuses restructurations. Dans le même temps, d’autres firmes généralement plus jeunes, plus petites et plus étroitement spécialisées alignent année après année des taux de croissance de 30% et plus, et des marges nettes supérieures à 20%. A partir de ce constat, tel qu’il s’exprime dans les résultats publiés par les entreprises, l’objet du présent chapitre est de déceler les corrélations qui peuvent apparaître entre les types d’entreprise et les performances, que nous caractériserons par deux indicateurs : le taux de croissance du CA et le taux de profit net. Les sources utilisées sont les statistiques publiées par le Groupe McKinsey dans la série de ses rapports sur l’industrie informatique, dont les éditions récentes couvrent les années 1985 à 1993 . Nous en avons éliminé les firmes dont l’activité informatique représente une trop faible part du total pour que le taux de profit soit représentatif de cette activité.
24

Dans les analyses qui suivent, nous utilisons la classification des entreprises selon la nature de leur production que nous avons présentée au chapitre précédent. Cette analyse diffère de celles qui sont régulièrement publiées dans la presse, et qui s’attachent à l’évolution des segments de marché, c’est à dire des différents produits et services qui composent l’offre informatique indépendamment de leur source. Pour les entreprises qui sont spécialisées dans chacun de ces segments, leur taux de croissance reflète pour l’essentiel l’évolution de la demande du marché pour les produits du segment, et au niveau individuel l’adéquation des produits de chaque entreprise à cette demande. La croissance est donc une caractéristique plus liée au marché qu’au type d’entreprise, sauf s’il est possible de mettre en évidence des cas où une entreprise évolue de façon différente des autres entreprises du même secteur, et où cette différence de comportement correspond à une différence de personnalité. Les taux de profit, en intégrant les coûts de production et donc les caractéristiques économiques de chaque entreprise, peuvent en revanche fournir des indications sur le

24

McKinsey & Company, Inc : Report on the Computer Industry (1991, 1992, 1993 et 1994)

lxxix

mode de fonctionnement concurrentiel des différents secteurs, comme nous le verrons au chapitre suivant. Enfin, nous avons vu dans le chapitre précédent que chaque segment est servi par des entreprises de nature différente, et qu’à l’inverse il existe des entreprises qui opèrent sur plusieurs segments. Il est donc intéressant de comparer dans chaque segment de marché le comportement des spécialistes à celui des généralistes et des firmes mixtes.

Les taux de croissance
Le taux de croissance du chiffre d’affaires des firmes est l’indicateur de performance le plus facilement disponible et le plus souvent utilisé comme mesure du succès. Il est en effet admis que l’entreprise qui croît le plus vite est celle qui satisfait le mieux la demande du marché, et qu’ainsi la croissance est la juste récompense du savoir-faire. De plus, celui qui croît le plus vite gagne des parts de marché au détriment des autres et acquiert ainsi de nouveaux avantages concurrentiels qui nourriront ses succès futurs. Cet indicateur est néanmoins très imparfait. D’une part, il intègre l’effet des fusions et acquisitions, des séparations d’entreprises en unités distinctes, et plus généralement de toutes les autres variations possibles du périmètre des entreprises. Par ailleurs, le taux de croissance n’est pas nécessairement un bon indice de la santé de la firme. Une entreprise peut à la fois croître vite et perdre de l’argent, donc se condamner à régresser voire à disparaître ; à l’inverse, une réduction drastique du périmètre d’activité, et donc du chiffre d’affaires, peut être une bonne façon de restaurer la profitabilité. Enfin, comme nous le verrons par la suite, il existe des secteurs où la part de marché n’est pas un avantage en soi, et donc où la croissance n’est pas nécessairement l’objectif prioritaire. Pour toutes ces raisons, nous privilégierons par la suite l’étude de la profitabilité par rapport à celle de la croissance. Les taux de croissance des firmes de notre échantillon, pour les années 1986 à 1993, figurent en annexe dans le tableau A-XXV. Très globalement, il apparaît que la croissance au niveau de l’entreprise est le plus souvent forte pour les périphériques de communication, les services et le progiciel, faible ou négative pour les généralistes et les firmes mixtes, très erratique pour les PC, les autres périphériques et les stations de travail. Les plages de variation sont très larges dans chaque catégorie, avec souvent à la fois des maxima élevés et des minima fortement négatifs. On ne décèle pas de relation simple entre secteur et croissance de l’entreprise. Il ne suffit pas de se spécialiser dans un segment porteur comme les PC, les périphériques, les services ou le progiciel pour y bénéficier automatiquement de la croissance de la demande ; et à l’inverse, opérer dans un secteur globalement en régression comme celui des généralistes ou des systèmes conventionnels ne condamne pas forcément chaque entreprise à la régression. La constat le plus évident est que les généralistes et la plupart des firmes mixtes connaissent une régression depuis 1990, et en tous cas croissent moins vite que les

lxxx

firmes spécialisées dont elles réunissent les productions. Les chiffres semblent indiquer que le simple fait d’offrir une gamme étendue de produits et des services diversifiés mais étroitement coordonnés est devenu un handicap par rapport à une stratégie de spécialisation sur tel ou tel de ces produits ou services. L’exception que constitue Hewlett-Packard confirme a contrario cette thèse : cette société s’est constamment distinguée des autres grands généralistes traditionnels en fonctionnant comme un conglomérat de divisions spécialisées indépendantes plutôt qu’en s’efforçant d’offrir une gamme intégrée. En tout état de cause, la place des généralistes dans l’industrie informatique est en régression, comme d’ailleurs celle des autres firmes mixtes. L’informatique devient progressivement dominée par les firmes spécialisées.

Profitabilités comparées
Les analyses qui suivent portent sur le profit net après impôt des entreprises. L’avantage essentiel de cet indicateur est d’être facilement disponible au niveau global de chaque entreprise. A l’inverse, il est sans signification pour notre étude dans les cas où l’activité informatique n’est qu’une partie non individualisée de l’ensemble des productions de l’entreprise, comme c’est le cas par exemple des grands groupes japonais ou de nombreuses sociétés de service. Nous avons donc éliminé les firmes qui ne sont pas spécialisées en informatique et celles dont la profitabilité n’est pas publiée. Le taux de profit net après impôt n’est qu’un des indicateurs possibles de profitabilité. De nombreux analystes lui préfèrent le taux de rentabilité du capital investi (ROIC) ou la rentabilité des actifs (return on assets), dont le sens économique est plus clair . Malheureusement, ces indicateurs sont beaucoup moins facilement disponibles pour un nombre suffisant d’entreprises que le profit après impôts. De plus, c’est à cette dernière notion de profitabilité, c’est à dire le bénéfice par rapport au chiffre d’affaires, que s’intéressent en général la plupart des commentateurs non économistes.
25

Rappelons toutefois le sens économique de ce ratio, dont la définition est fondamentalement comptable, et précisément fiscale. Le bénéfice net après impôts est ce qui reste du revenu de l’entreprise après qu’elle a payé son personnel, ses fournisseurs et ses créanciers, amorti ses immobilisations conformément aux règles comptables et payé ses impôts. Ce bénéfice net peut servir d’un part à rémunérer le capital investi, c’est à dire les actionnaires, et d’autre part à augmenter les investissements de l’entreprise par rapport à ce qui peut être financé par les amortissements des investissements passés. On voit que le niveau de profit « normal » d’une entreprise dépend principalement de ses besoins en investissements et de son rythme de croissance. Une activité exigeant de forts investissements matériels et en croissance rapide, comme les composants, exige des taux de profit élevés, tandis qu’une activité faiblement capitalistique, comme c’est le cas de la plupart des services, peut s’accommoder de profitabilités plus modestes, même en période de croissance.

25 Comme nous le rappellerons au Chapitre 6, la théorie économique montre que sous certaines conditions dites de concurrence « pure et parfaite », le marché tend vers un état d’équilibre où, dans toutes les entreprises, le taux de rentabilité des capitaux est égal au taux d’intérêt du marché.

lxxxi

Analyse par catégorie
Pour chaque catégorie, les graphiques suivants montrent les taux de profit minimum et maximum atteints chaque année par les firmes de l’échantillon, ainsi que la médiane de la catégorie (le niveau tel que le nombre de firmes ayant un profit supérieur est égal à celui des firmes ayant un profit inférieur) et la moyenne de la catégorie (total des profits nets divisé par le total des chiffres d’affaires). Le détail des chiffres est donné en annexe (tableaux A-XXVI à A-XXXV). Ces graphiques et ces chiffres doivent être interprétés avec précaution. Certaines catégories comme les grands et les moyens systèmes, les stations ou les périphériques de communication ne sont représentés que par très peu de firmes. Les valeurs maximales et minimales peuvent être aberrantes par rapport aux autres valeurs, et donner une fausse idée de la distribution des profitabilités autour de la médiane. Un écart important entre la moyenne et la médiane peut indiquer un avantage ou un désavantage de taille potentiel, mais peut aussi être dû à des résultats aberrants pour une firme importante. C’est pourquoi les commentaires doivent se référer aux tableaux des valeurs détaillées données en annexe. Les spécialistes des grands systèmes (tableau A-XXVII) sont en trop faible nombre (3) pour être décrits autrement qu’en termes d’histoires individuelles. Dans les années fastes (1985 à 1988), leurs résultats sont parmi les meilleurs de toute l’industrie informatique. Ils entament une chute spectaculaire à partir de 1991. En regardant de près, on voit que Convex et Amdahl chutent ensemble de plus de 8% à zéro ou moins en 1991, tandis que Cray qui était déjà tombé en 1989 de plus de 20% aux environs de 13% les rejoint autour de zéro en 1992. Amdahl continue sa chute en 1993, rejoint par Convex, tandis que Cray remonte à près de 7%. Profitabilité - grands systèmes
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

La catégorie des moyens systèmes (tableau A-XXVIII) est également le lieu d’histoires individuelles mouvementées. Stratus est le seul à bien tirer son épingle du jeu en permanence. Tandem plonge en 1993 après avoir vacillé en 1991 et 1992, Sequent et Pyramid oscillent entre le meilleur et le pire tandis que Norsk Data touche le

lxxxii

fond depuis 1989, et ne redresse sa profitabilité en 1993 qu’en perdant près de 40% de son chiffre d’affaires. Là encore, les firmes sont trop peu nombreuses (5) pour qu’on puisse tirer quelque enseignement statistique. L’allure générale des plages est voisine de celle des généralistes, avec des dispersions encore plus grandes en 1991 et 1992. Profitabilité - moyens systèmes
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

Pour les spécialistes de matériel de type traditionnel, l’année 1991 marque une rupture. Dans les années 1985 à 1990, le profit médian pour toutes ces catégories est voisin de 10%. On constate de très bonnes réussites dans des niches particulières (Cray, Pyramid), et à l’exception de Norsk Data, seules les firmes en phase de démarrage sont dans le rouge. A partir de 1991, les profits commencent à baisser. Les maxima deviennent modestes à l’exception de Stratus, et nombreuses sont les firmes déficitaires. Profitabilité - micros
30% 20% 10% 0% -10% -20% -30% Moyenne Médiane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

La catégorie des spécialistes PC (tableau A-XXIX) contient entre 8 et 10 firmes selon les années. Elle présente une évolution plus stable bien qu’on y constate une même tendance défavorable à partir de 1991. Les dispersions sont relativement faibles sauf en 1985, et s’élargissent un peu en 1992 à cause des pertes importantes d’Everex et

lxxxiii

Commodore. En 1993, si on excepte le désastre de Commodore, aucune autre firme ne descend sous -1.4%, ce qui correspond à une plage analogue à celle de 1991. De 1986 à 1992, le profit moyen varie dans une bande étroite entre 3 et 6 %, mais tend à baisser depuis 1991. Le maximum, voisin de 13% (Compaq) en 1990, est en baisse régulière (8.5% pour AST en 91, 7.3% pour Apple en 92, 6.4% pour Compaq en 1993). Profitabilité - stations
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

Les spécialistes des stations (tableau A-XXX) sont eux aussi en très faible nombre (3) et se situent dans des plages toujours étroites, avec une tendance générale à la baisse et des niveaux moyens comparables à ceux des PC. Compte tenu de la taille de l’échantillon, cette catégorie de spécialistes ne semble pas se comporter différemment de celle des PC. Profitabilité - périphériques
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

La catégorie des périphériques (tableau A-XXXI) comporte entre 9 et 17 firmes selon les années. On y rencontre également des histoires individuelles assez mouvementées (Memorex Telex, Maxtor, Storage Technology, Tandon). Chaque année, une firme au moins frôle ou dépasse les 10% alors qu’une ou plusieurs sont dans le

lxxxiv

rouge, mais les positions individuelles des firmes varient considérablement d’année en année. On ne perçoit de tendance clairement défavorable qu’en 1993, où la majorité des firmes est en pertes, et où presque toutes voient leur profit baisser, sauf EMC qui dépasse allègrement 16%, le deuxième n’atteignant que 8%. Profitabilité - communications
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

Les 3 spécialistes des communications (tableau A-XXXII) se distinguent par leurs excellentes performances depuis 1990, même si une firme a connu des pertes en 1990. Profitabilité - progiciels
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

La catégorie des progiciels (tableau A-XXXIII), qui compte ici entre 13 et 16 firmes selon les années, présente une physionomie assez différente des précédentes. En particulier, on n’observe pas de rupture nette en 1991. Le profit médian passe par un creux relatif de 1990 à 1992, mais pour revenir à son niveau antérieur en 1993, tandis que la moyenne se maintient en permanence au-dessus de 10%. La dispersion est en permanence élevée, avec des maxima toujours supérieurs à 20% et dépassant même les 25% depuis 1989. Mais on observe aussi chaque année depuis 89 des résultats négatifs (sans tenir compte des startups), dont certains lourdement comme Mentor Graphics et

lxxxv

Ultimate depuis 1991, Informix en 1990, Borland en 1989, 1991 et 1992. Même Novell qui était en tête en 1991 et 1992 à plus de 25% devant Microsoft passe dans le rouge en 1993. Notons néanmoins que si les minima sont fortement négatifs, le nombre de firmes déficitaires est chaque année faible : une sur 13 en 1989, 3 en 1990, 1991 et 1992. Les moyennes se situent toujours au-dessus de 10% sauf en 1991. Profitabilité - services
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

Le secteur des services (tableau A-XXXIV) est représenté par 14 à 21 entreprises selon les années. Sa physionomie est différente à la fois des catégories de matériel (grands et moyens systèmes, PC, stations et périphériques) et de celle des progiciels. Comme pour les PC, le profit moyen pour l’ensemble des services est remarquablement stable entre 4 et 6%, avec une très légère tendance à la baisse depuis 1992. La dispersion est toujours relativement faible malgré le grand nombre de firmes, et aussi malgré l’hétérogénéité du secteur. En 1990 et en 1992, une seule firme était dans le rouge, et toutes les autres se situaient au-dessus de 2%. En 1991, les trois dernières firmes se situaient à -9%, -3% et 0%, et les 18 autres au-dessus de 2%. Ce n’est qu’en 1993 que la situation commence à se dégrader un peu plus. Si on distingue les sous-secteurs, les profits moyens sont tout aussi stables : entre 9% et 11% pour le traitement, entre 4% et 5% pour le développement de 1985 à 91, avec une chute en 1992. Les maxima récents se situent entre 13 et 15% de façon régulière, et pour les années antérieures Volmac apparaît comme un phénomène exceptionnel en atteignant 21% avant 88 et 19% en 1989, alors que son suivant immédiat est toujours dans la plage des 13 à 15%. Ces performances élevées sont toujours le fait de sociétés de traitement applicatif nord-américaines telles que Shared Medical Systems, First Data, ADP, Policy Management, les offreurs de services plus classiques se contentant de profits presque toujours inférieurs à 8%. Depuis 1989, le secteur connaît chaque année une ou deux sociétés en pertes (parmi celles de l’échantillon).

lxxxvi

Profitabilité - généralistes
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

La situation des généralistes (tableau A-XXVI) est bonne jusqu’en 1987 sauf pour Wang et Data General, tandis que Bull est tout juste positif. On constate à partir de 1989 une tendance générale à la baisse : Digital Equipment et Bull sont dans le rouge à partir de 1990, IBM à partir de 1991, et Unisys de 1989 à 1991. La seule entreprise qui obtient un résultat à peu près stable est Hewlett-Packard qui passe néanmoins de 7% en 1985 (troisième rang) à 5% en 1992 et 6% en 1993, ce qui est pour ces deux années la meilleure performance de la catégorie. Profitabilité - firmes mixtes
30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

85

86

87

88

89

90

91

92

93

Données McKinsey - Analyse GD

Depuis 1989, les firmes mixtes (tableau A-XXVII) ont des profitabilités moyennes presque toujours négatives, et des maxima modestes inférieurs à 9% qui se réduisent à 4.3% en 1992. L’année 1993 semble aberrante avec MAI qui, après des pertes considérables de 1989 à 1992, remonte soudain au chiffre exceptionnellement élevé de 24% (mais en ayant perdu en 1993 près de 60% de son chiffre d’affaires 1992). Mis à part ce point aberrant, la majorité des firmes est dans le rouge en 1991 et 1992, et de façon souvent très lourde. La tendance générale est défavorable, et il semble clair que

lxxxvii

les résultats des firmes mixtes sont toujours moins bons que ceux des firmes spécialisées dans les prestations individuelles qui composent leur portefeuille. Une première conclusion générale est que pour presque toutes les combinaisons de catégorie et d’année, les plages de variation du profit net sont assez larges voire très larges. Les moyennes sont de ce fait peu représentatives, et les caractéristiques individuelles de chaque firme comptent au moins autant que le secteur ou la catégorie à laquelle elle appartient. Il faut de plus tenir compte du nombre de firmes représentées, qui est quelquefois trop faible pour qu’on puisse en tirer des conclusions significatives. Profitabilité par secteur - 1993
Comm Soft Stat Mid Sces PC Gen Péri Mixed Large

30% 20% 10% 0% -10% -20% -30% Moyenne Mediane

Données McKinsey - Analyse GD

Le graphique ci-dessus reprend les plages de profitabilité de l’année 1993 pour l’ensemble des catégories, rangées par ordre de médianes décroissantes. On constate que chaque catégorie, à part celle des périphériques de communications, contient des firmes qui gagnent de l’argent et des firmes qui en perdent, ce qui est vrai chaque année. Autrement dit, il n’y a ni catégorie maudite ni catégorie miracle ; certaines firmes arrivent à gagner de l’argent avec des grands systèmes traditionnels, et d’autres arrivent à en perdre dans les progiciels. Mais pour citer McKinsey : « des compagnies ayant des stratégies viables et bien exécutées peuvent réussir dans n’importe quel segment ». Il n’est pas totalement inutile d’ajouter qu’à l’inverse, une stratégie non viable mal exécutée conduit à l’échec quel que soit le segment. Néanmoins, même en tenant compte de la diversité des situations individuelles, les différentes catégories s’ordonnent autour de profitabilités moyennes très différentes. Progiciels et périphériques de communications se maintiennent au-dessus de 10% ; les stations, les services et les systèmes moyens se placent dans la zone plus normale de 3 à 6% ; PC, généralistes et périphériques tournent autour de zéro tandis que les firmes mixtes et les grands systèmes sont dans le rouge. Notons que cette situation est très différente de celle de 1987 que nous avons choisie comme représentative de l’ordre qui prévalait à la fin des années 80. Si les dispersions étaient également élevées, les profits moyens par catégorie étaient beaucoup plus homogènes et généralement supérieurs. La baisse des profits moyens a été

lxxxviii

relativement faible dans les stations, les systèmes moyens et les services, forte pour les PC, les généralistes et les périphériques et dramatique pour les firmes mixtes et les grands systèmes. Profitabilité par secteur - 1987
Comm Soft Stat Mid Sces PC Gen Péri Mixed Large

30% 20% 10% 0% -10% -20% -30%
Données McKinsey - Analyse GD

Moyenne Mediane

La dispersion des profits
On peut s’interroger sur les raisons de la grande variabilité des résultats entre firmes d’une même spécialisation. Un premier cas est celui des entreprises débutantes (startups), dont les premières années sont des années d’investissements assortis de pertes d’exploitation souvent lourdes, comme pour Convex, Sequent ou Teradata en 1985, ou Exabyte et Sybase en 1987. Une grande dispersion des résultats peut aussi révéler l’hétérogénéité d’un secteur qui regroupe des activités présentant des caractéristiques différentes. Dans le domaine des périphériques, les périphériques de communication ont un comportement différent des autres mais la distinction entre les périphériques micro et les autres ne montre pas de différences frappantes. Pour les services en revanche, si l’évolution générale des sous-secteurs est parallèle, les services de développement occupent toujours clairement la partie basse de la plage des profits, et les services de traitement la partie haute. Dans les segments homogènes et après élimination des startups, la dispersion des résultats doit être rapprochée des modalités de gestion des firmes. Les directions des entreprises consacrent en permanence des efforts considérables à rechercher un résultat satisfaisant. Il faut donc admettre que, sauf exception, des résultats négatifs ne sont pas le signe de l’incapacité ou de la négligence du management, mais d’une impossibilité profonde de faire mieux dans les limites de l’exercice comptable considéré, et ceci après avoir exploité toutes les opportunités de redressement réellement disponibles. Dans les chapitres ultérieurs, nous serons amenés à analyser les relations temporelles entre la formation des dépenses et la formation des revenus dans l’entreprise. Contentons-nous ici de rappeler que dans la réalité industrielle, l’entreprise décide des dépenses, mais c’est le marché qui décide des recettes. Plus précisément, l’entreprise commence par engager des dépenses dans l’espoir d’un revenu futur, et ce

lxxxix

n’est que plus tard qu’elle constate les revenus correspondants. Les produits de chaque exercice comptable servent en partie à payer la production de ces produits eux-mêmes, mais aussi à investir pour préparer les exercices suivants. Si le chiffre d’affaires d’un exercice se révèle inférieur aux attentes, il est généralement impossible de réduire les dépenses dans les mêmes proportions sans réduire les investissements de l’exercice et compromettre ainsi l’avenir même de l’entreprise. Ce raisonnement nous conduit à formuler l’hypothèse qu’une grande dispersion des profits dans un secteur homogène est liée à des situations où les engagements de dépenses sont devenus irréversibles au moment où on constate les revenus correspondants. Ceci est vrai en particulier lorsque les investissements sont importants et ne portent leurs fruits qu’après un délai long. On dira alors que le « cycle de base » de l’entreprise est long. Si au contraire les investissements sont faibles ou produisent rapidement du chiffre d’affaires, le « cycle de base » de l’entreprise est court et il est possible d’ajuster les dépenses au revenu sans trop compromettre l’avenir. Dans de tels secteurs, les entreprises pourront généralement éviter des pertes trop importantes même en cas de chute significative du chiffre d’affaires. A l’inverse, quand par chance le revenu se révèle supérieur aux prévisions, ceci n’entraînera que relativement peu de dépenses supplémentaires pour les firmes à cycle long qui réaliseront ainsi des profits élevés. Les entreprises à cycle court ne pourront réaliser ce revenu qu’en consentant des dépenses supplémentaires qui ramèneront le profit au voisinage du niveau prévu. En résumé, une grande dispersion des profits pour une période donnée caractériserait des secteurs où le cycle dépenses-recettes est long et où le coût marginal est une faible part du coût moyen. Appliquée à l’évolution dans le temps des plages de profitabilité, cette hypothèse conduirait à formuler les prédictions suivantes : –pour un secteur naissant, les profits moyens sont faibles et la dispersion est grande. Au fur et à mesure que les acteurs progressent sur la courbe d’apprentissage, la moyenne augmente tandis que les limites de la plage se resserrent. –un ralentissement de l’activité se traduit par une baisse des revenus par rapport aux prévisions, et donc une baisse générale des profits, donc du profit moyen. Dans les secteurs à cycle long, les entreprises ne pourront ajuster leurs dépenses que très partiellement ; le profit moyen baissera donc de façon significative et certaines entreprises connaîtront des pertes importantes qui se traduiront par un effondrement du minimum. Dans les secteurs à cycle court, les entreprises pourront mieux ajuster leurs dépenses ; de ce fait, la baisse du profit moyen et surtout du minimum sera moins prononcée. –une firme ne peut être durablement dans le rouge que dans un secteur à cycle long, où les espoirs que représentent ses investissements justifient sa survie. Dans un secteur à cycle court, une firme déficitaire doit (et peut plus facilement qu’une entreprise à cycle long) se redresser rapidement ou disparaître. Au niveau de l’ensemble, un secteur à cycle court ne verra pas le point minimum rester loin sous la

xc

barre du profit zéro, tandis que dans un secteur à cycle long le point minimum pourra stagner à des valeurs fortement négatives.

Facteurs de profitabilité
Pour terminer cette exploitation des statistiques, examinons deux questions relatives à la profitabilité des firmes.

Profitabilité et part de services
Selon une idée reçue, de nombreuses firmes de matériel cherchent à développer leur activité de services afin d’améliorer leur profitabilité. Cherchons donc s’il existe une corrélation entre le bénéfice net et la part des services dans le chiffre d’affaires, en remarquant d’ailleurs au préalable que les services autres que le traitement applicatif n’ont pas une profitabilité notablement meilleure que celle des PC ou de certains périphériques. Sur le graphique suivant figurent les firmes qui offrent du matériel, des services ou les deux. L’année concernée est 1992. Nous avons éliminé les cas extrêmes qui correspondent à des situations anormalement déficitaires, par exemple les startups.
Net% 30% 20% 10% 0% -10% -20% -30% 0% 20% 40% 60% 80% 100% Part Services

Pour les entreprises de services spécialisées, qui apparaissent à l’extrême droite avec une part de services égale à 100% ou voisine, les profits se concentrent entre -1% et 13% (sauf Ceridian et Grumman plus déficitaires). A l’autre extrémité, pour les firmes dont la part de services est inférieure à 20%, les profits présentent une grande dispersion entre -30 et 25%, mais la grande majorité des firmes se situe entre -2 et 17%, dans une plage qui recouvre celle des entreprises de services. Les cas intermédiaires restent dans la même plage que les pures entreprises de services, sans que se dessine une tendance apparente vers le haut ou vers le bas. Le coefficient de corrélation entre le taux de profit et la part de services est d’ailleurs égal à 0.16, ce qui indique une corrélation très faible entre ces deux facteurs. Contrairement à une idée bien ancrée, il n’y a donc aucune raison statistique (et nous

xci

verrons plus tard qu’il n’y a aucune raison logique) de penser que développer les services permet aux constructeurs d’améliorer leurs résultats. L’observation des chiffres réels peut tout au plus inciter à penser que viser une part de services supérieure à 20% semble une façon de limiter les risques de pertes, mais tout en plafonnant également les gains possibles.

Relation entre profit et croissance
La dernière question que nous aborderons à partir des statistiques est celle de la relation entre la profitabilité et le taux de croissance des firmes. Dans leurs analyses, les chercheurs de McKinsey ont conclu que les résultats financiers ne sont pas liés à la croissance du revenu, et de fait le coefficient de corrélation calculé sur l’ensemble des firmes est faible. Mais cette conclusion reste-t-elle vraie pour chacune des catégories d’entreprises prises isolément, dont nous avons des raisons de penser que les dynamiques sont différentes ? Le tableau ci-dessous donne les coefficients de corrélation catégorie par catégorie, en distinguant les périodes 1986-1988 d’une part, 1989-1993 d’autre part. Cette séparation renvoie au fait que les années 1988-1989 semblent marquer une rupture dans le comportement de plusieurs secteurs. Lorsque le nombre d’observations pour une catégorie et une période est inférieure à une quinzaine, la valeur du coefficient de corrélation a été considérée comme non significative (ns). Nous avons utilisé la décomposition en sous-catégories selon le poids des coûts de production. On voit que si la conclusion de McKinsey à l’absence de corrélation est vérifiée pour les services de développement, les services de traitement et les stations, il existe sur l’ensemble de la période une corrélation positive bien qu’assez modeste entre croissance et profit pour tous les autres secteurs. La comparaison des périodes 1986 à 1988 d’une part, 1989 à 1993 d’autre part est surprenante : les PC et les périphériques passent d’une corrélation nulle à une corrélation relativement forte alors que les généralistes et les services de développement suivent l’évolution inverse, et que les services de traitement passent d’une corrélation fortement négative à une corrélation positive. Corrélation profit-croissance
86-88 general large midrange PC stations périph micros comm périph autres services dévpt services fm 0.57 ns 0.43 0.08 ns 0.09 ns 0.19 0.56 ns 89-93 0.26 ns 0.72 0.61 ns 0.51 ns 0.41 0.04 ns 86-93 0.41 0.54 0.66 0.40 -0.10 0.43 0.61 0.33 0.19 0.40

xcii

services traitement mixed software

-0.72 0.62 0.50

0.43 0.56 0.56

0.08 0.57 0.52

On peut penser que l’explication de ce constat se rattache au schéma de fonctionnement des firmes que nous avons évoqué plus haut pour expliquer les variations de profitabilité. La plupart des entreprises règlent leurs actions, et en particulier leurs engagements de dépenses, sur un budget annuel dont la partie recettes représente les espoirs ou les ambitions de la firme pour l’exercice considéré, et dont la partie dépenses est calculée de façon à produire par différence un résultat considéré comme acceptable. Le budget de chaque exercice tient compte des résultats des exercices précédents : si ceux-ci sont satisfaisants, le budget tendra en général à les prolonger en reproduisant les ratios actuels. Sinon, le budget visera une amélioration soit en faisant l’hypothèse d’une accélération de la croissance du revenu, soit en restreignant les dépenses autorisées. A ce stade, les firmes se fixent des objectifs de profit qui dépendent de leur situation et peuvent varier d’une firme à l’autre, le taux de croissance de chaque firme n’étant que l’un des paramètres de cette situation. Dans l’hypothèse où chaque firme réaliserait exactement ses plans, on voit qu’il n’y aurait pas nécessairement une corrélation étroite entre profit et croissance. Dans la réalité, à cause du décalage temporel entre dépenses et recettes correspondantes, les dépenses réellement engagées sont le plus souvent assez voisines du budget, tandis que les recettes peuvent s’en écarter de façon plus significative. Une croissance des recettes supérieure à l’hypothèse retenue pour le budget tendra donc à améliorer la profitabilité d’autant plus que le cycle de base de l’entreprise est plus long, et une croissance inférieure aura l’effet inverse. Selon ce modèle, les secteurs où les profits sont dispersés devraient aussi présenter la plus grande corrélation entre profit et croissance, sans toutefois que cette corrélation atteigne une valeur très élevée. Cette hypothèse se vérifie bien dans le cas des généralistes et des systèmes moyens pour les corrélations élevées, des stations et des services (hors facilities management) pour les corrélations nulles, des grands systèmes dans le cas intermédiaire. Les résultats sont moins clairs pour les PC où la corrélation est moyenne et la dispersion faible, et les progiciels où la corrélation est également moyenne, mais la dispersion grande. On peut aussi penser qu’une faible corrélation, voire une corrélation paradoxalement négative, peut correspondre à des prestations en difficulté ou en régression dans certaines périodes. Certaines firmes peuvent alors adopter une stratégie de repli qui préserve leurs marges en acceptant une diminution de leur chiffre d’affaires, tandis que d’autres firmes qui poursuivent des objectifs de croissance obtiennent des résultats déficitaires.

Conclusions
L’analyse des performances des entreprises de notre échantillon ne valide que très imparfaitement les idées reçues. On y lit bien les difficultés et la régression des

xciii

généralistes ainsi que de la majorité des constructeurs traditionnels, en particulier depuis la rupture de 1988, et corrélativement la montée en puissance des spécialistes. D’une industrie dominée par une poignée de généralistes, l’informatique devient progressivement l’affaire d’un grand nombre de spécialistes offrant chacun un élément du système. Cette transition est actuellement au voisinage de son point de basculement, puisque les généralistes réalisent encore environ la moitié du chiffre d’affaires total de l’industrie. Il ne semble pas que cette évolution laisse beaucoup de place à des firmes mixtes, qui fonderaient leur stratégie sur l’association de prestations sélectionnées trop peu nombreuses pour en faire des généralistes. Un grand nombre d’entreprises offrent des services ou du logiciel à titre annexe en support de leurs produits principaux, mais les performances réalisées par les quelques rares firmes alliant à parts voisines matériel et services, ou progiciel et services, ne sont pas de nature à leur susciter beaucoup d’émules. En particulier, contrairement à une idée répandue, nous n’avons pas constaté de lien entre une part importante de services, au-delà des 10 à 15% annexes aux produits, et une amélioration de la profitabilité. Au-delà des différences évidentes dans les prestations, nous avons pu déceler des comportements différents selon les secteurs, que la structure des dépenses contribue à expliquer. En particulier, il nous est apparu que les modalités de la relation temporelle entre les dépenses nécessaires à la mise sur le marché d’un produit et les recettes provenant de ce produit ont une influence profonde sur le fonctionnement de la firme. Cette relation est liée au cycle de production, et donc à la nature de chaque produit ainsi qu’à la stratégie mise en œuvre par chaque firme. Les différences entre productions à cycles courts et productions à cycles longs semblent assez bien rendre compte de la dispersion des profits et de la corrélation (ou l’absence de corrélation) entre profit et taux de croissance. Mais, quelles que soient les caractéristiques globales qu’il est possible d’attacher à chaque secteur pris en particulier, cette analyse met en lumière la grande dispersion des résultats à l’intérieur de chaque catégorie, et donc l’importance des stratégies individuelles, de leur adaptation au secteur et de la qualité de leur exécution.

xciv

Deuxième partie Les matériels et les mécanismes économiques
A ... E ... I ... Cela est vrai ... Vive la science ! Molière

Dans la suite de cet ouvrage, nous allons rechercher des explications rationnelles aux phénomènes que nous observons dans l’industrie informatique. Résumons tout d’abord les grandes constatations structurelles qui se dégagent du survol historique et statistique qui précède. L’informatique à ses débuts est un produit unique, dans la mesure où toutes les firmes offrent des paniers de prestations complets équivalents. De plus, assez rapidement, les firmes d’informatique se trouvent toutes spécialisées dans ce produit. L’informatique se constitue ainsi comme un secteur bien délimité, puisque formé de firmes spécialisées, et homogène puisque composé de firmes toutes conformes au modèle intégré. Après que les principales firmes aient absorbé l’activité de fabrication des composants dans les années 60, le secteur acquiert son autonomie totale par rapport aux industries électriques et électronique, tout en restant homogène. Le nombre de firmes actives dans l’industrie informatique croît par rapport à la mécanographie dont elle était issue, grâce à l’entrée de nombreux concurrents dont seuls les plus spécialisés y survivent. Ceci n’entame pas la suprématie croissante d’un acteur dominant, IBM, qui occupe en permanence entre 60% et 70% du marché. Jusque vers la fin des années 60, l’industrie conserve pour l’essentiel sa structure homogène et concentrée, avec un relativement petit nombre d’acteurs dominés par une firme nettement majoritaire. A partir du début des années 70, on assiste à une désintégration progressive de l’industrie selon plusieurs dimensions : par nature de prestations à la suite de la facturation séparée des services, par niche de marché avec les minis et les compatibles, et plus tard désintégration verticale d’une partie du secteur avec l’apparition de fournisseurs spécialisés dans les composants ou les sous-ensembles. Cette désintégration s’accentue encore dans les années 80 avec la montée d’un nouveau pan de l’industrie, dont la structure est éclatée dès l’origine, et qui conquiert progressivement une part importante du territoire de l’informatique traditionnelle. Simultanément, les technologies informatiques se diffusent dans tous les secteurs d’activité et modifient radicalement certaines industries au point d’estomper les frontières avec ces secteurs. Cette évolution a structuré les acteurs de l’industrie informatique en classes d’entreprises assez bien définies, mais qui ne correspondent qu’imparfaitement à la

xcv

structuration du marché selon les produits et services offerts. Les firmes spécialisées sont les plus nombreuses, mais la plupart des segments de marché sont dominés par une poignée de firmes qui offrent chacune la quasi-totalité des formes de produits et de prestations. En dehors de ces généralistes, il existe peu de firmes offrant une combinaison particulière de prestations, et les combinaisons représentées sont ellesmêmes en petit nombre. Ces classes d’entreprises définies par leurs prestations semblent se rattacher à leur tour à quelques grands modèles qui se distinguent par la structure de leur compte d’exploitation et leur comportement en réaction aux aléas du marché. Les moteurs de cette évolution ont été dans tous les cas les décisions des firmes, et celles de l’acteur dominant qu’a été IBM ont été particulièrement déterminantes. Ces décisions ont eu constamment pour objectif d’exploiter le potentiel de progrès technologique au mieux des intérêts propres de la firme. Les initiatives des organisations extérieures à l’industrie, en particulier des pouvoirs publics, n’ont eu en fin de compte que peu d’effet. En revanche, les réactions des marchés ont favorisé les offres les plus en harmonie avec la demande, et sanctionné voire éliminé les entreprises dont le comportement était trop en désaccord avec les attentes des clients. Tel est, brièvement résumé, l’ensemble de faits dont nous nous proposons de rechercher les causes. Comment expliquer cette tendance à la désintégration ? Pourquoi seules certaines combinaisons de prestations semblent-elles viables ? Peut-on justifier dans chaque secteur les tailles relatives et les parts de marché des acteurs présents ? Comment expliquer la disparition de la suprématie d’IBM et les difficultés actuelles des généralistes ? Quelle relation logique lie les types d’entreprise aux choix de prestations et les performances aux types d’entreprise ? Comment décrire les interactions entre l’informatique et les autres industries ? Ces questions sont fondamentalement des questions d’économie. C’est donc d’abord vers la théorie économique que nous sommes tentés de nous tourner pour rechercher les explications les plus fondamentales. Mais nous constaterons qu’il n’existe pas de chapitre de la théorie économique qui soit capable d’expliquer complètement la structuration d’un secteur productif et l’évolution de cette structure. Plus grave encore, les paradigmes centraux sur lesquels repose l’essentiel de la science économique ignorent par construction des notions que l’intuition et l’expérience désignent comme fondamentales pour la structuration de l’industrie, dont la différenciation des produits, le comportement spécifique des firmes, la concurrence entre producteurs ou l’évolution technologique. Ceci nous obligera à forger en partie nos propres outils d’analyse. Quant aux questions liées à la coexistence de prestations de nature différente au sein d’une même entreprise, qui contribuent à expliquer la spécialisation des firmes, notre conviction est qu’elles ne relèvent pas seulement du calcul économique, mais font intervenir des incompatibilités plus fondamentales de nature qualitative. C’est pourquoi

xcvi

nous essaierons de faire apparaître les liens qui existent entre la nature des productions d’une part, l’organisation et la culture de l’entreprise d’autre part.

xcvii

Chapitre 6 Les mécanismes économiques
Un modèle évolutionniste de l’industrie. Ajustement de la production, échelle de production et structure. Oligopoles, monopoles et concurrence imparfaite. Forces concurrentielles et rentabilité. Industrie, secteurs et métiers. Concentration, dispersion et profitabilité. Les frontières de l’informatique. Evolution sectorielle et cycle de vie.

L’étude économique de la structure de l'industrie et du comportement des firmes productrices est l’objet d’une discipline appelée « économie industrielle », qui se donne pour objet d’analyser et de justifier, dans chacun des secteurs industriels : –le nombre et la taille des entreprises présentes, qui déterminent en particulier le degré de concentration, –la diversification horizontale des entreprises, c’est-à-dire leur propension à offrir une gamme de produits diversifiée et à opérer sur plusieurs marchés, –l’intégration verticale des entreprises, c’est-à-dire leur propension à assurer ellesmêmes l’ensemble des opérations successives nécessaires à la production de leurs produits. Cette discipline n’existe en tant que telle que depuis les années 70, bien que son objet ait été abordé antérieurement, par exemple par Marshall ou Chamberlin . Nous en retiendrons en particulier une thèse fondamentale qui rejoint l’un des postulats empiriques du présent ouvrage : la structure industrielle résulte de l’action de la concurrence et des forces économiques.
26

Nous poserons donc en principe que les différentes caractéristiques liées à la structure de l’industrie ne sont ni le fruit du hasard, ni celui de phénomènes extérieurs au cadre de l’économie, mais qu’ils peuvent s’expliquer par l’action de lois économiques qu’il convient de rechercher. C’est à un résumé des principaux acquis de la théorie économique applicables à notre propos qu’est consacré le présent chapitre,

26 Pour le lecteur qui souhaiterait une vue plus complète de l’économie industrielle, le livre de Rainelli “Economie Industrielle” (Dalloz, 1993) présente une bonne synthèse récente et contient de nombreuses références.

xcviii

ainsi qu’à une analyse plus précise des phénomènes de concurrence inspirée des thèses de Porter.

Quelques notions d’économie industrielle
L’évolution des structures industrielles
Les entreprises tirent leur subsistance de la vente de produits et de services , pour la production desquels elles disposent de ressources. Les marchés sur lesquels l’entreprise se procure ces ressources et vend ses produits, ainsi que l’environnement technologique, juridique, institutionnel et économique, forment le milieu dans lequel évolue l’entreprise.
27

Les marchés étant par hypothèse limités, les firmes productrices sont en concurrence entre elles. Bien que la concurrence sur les marchés des facteurs de production soit quelquefois importante, la concurrence la plus déterminante a lieu sur le marché où l’entreprise offre ses produits. Ce marché permet à la demande de sanctionner le comportement des offreurs en agissant directement sur les performances économiques et la santé financière des entreprises. Celles-ci essaient d’anticiper cette sanction en s’organisant pour offrir des produits susceptibles de satisfaire le marché. A travers la sélection immédiate des produits, le marché sélectionne ainsi les organisations et les formes d’entreprise les mieux adaptées à la satisfaction permanente de la demande. C’est cette sélection indirecte des firmes qui détermine la structure de l’industrie. Pour atteindre leurs objectifs, les firmes doivent prendre une multitude de décisions d'importance variable, et qui s'inscrivent dans des cycles temporels différents. En particulier, la nature et le prix des produits offerts sur le marché à un instant donné résultent en grande partie de décisions prises longtemps auparavant, sur la base d’une projection subjective de la demande, interne à chaque firme productrice et fortement influencée par les caractéristiques de la firme, et qui peut se révéler notablement différente de la demande réelle. Au moment où l’offre et la demande se rencontrent sur le marché, l’offre de produits a été déterminée par les firmes productrices sur des bases internes et prévisionnelles, et la demande qui s’exprime effectivement à cet instant peut s’écarter considérablement des hypothèses qui ont présidé à la détermination de l’offre. Si par exemple une firme met sur le marché en 1994 un produit dont la conception et le développement ont duré un an, avec l’espoir que les ventes de ce produit soient

27 Dans cet ouvrage, nous utiliserons fréquemment le terme «produit» pour désigner aussi bien des services que des produits. La distinction entre ces deux notions sera examinée dans les chapitres suivants, principalement le chapitre 11 «Le labyrinthe du logiciel et des services».

xcix

importantes au bout de deux ans, on peut au mieux espérer que la définition du produit intègre l’idée que la firme se faisait en 1992 de la demande à ce moment et de la demande en 1996. En tout état de cause, la demande réelle en 1994 n’a contribué en rien dans la définition du produit. Si Sperry Rand et IBM ont créé les ordinateurs en 1951 et Apple les micros en 1977, ce n’est évidemment pas parce que le marché du moment le demandait. L'offre de produits et de services résulte donc des décisions que prennent les acteurs industriels en fonction de leurs possibilités, de leurs objectifs, de l'image qu'ils ont de leur environnement concurrentiel et de l'idée qu'ils se font du marché. En particulier, la fixation des niveaux de prix, qui joue un rôle déterminant dans la concurrence entre firmes et technologies rivales, procède de la stratégie concurrentielle de chaque firme. C’est la raison pour laquelle, contrairement à la vision habituelle, nous pensons réaliste de considérer que, au moment où se passent les transactions sur le marché, il n'existe pas de relation causale directe allant de la demande vers l'offre. En d’autres termes, dans le court terme des échanges, l’offre précède la demande. En revanche, à travers le marché, la demande agit rétroactivement sur l’offre et sur l’évolution de la firme et du secteur. Au niveau le plus immédiat, le marché sanctionne le comportement des entrepreneurs en achetant les produits de ceux qui ont su faire les meilleurs choix et les mettre en œuvre de la façon la plus efficace aux yeux des clients potentiels. De ses résultats commerciaux et de ceux de ses concurrents, ainsi que des autres réactions des clients, la firme tire des indications sur la demande réelle du marché. En cas de résultats insuffisants, elle a la possibilité d’ajuster immédiatement ses prix et certaines conditions commerciales, mais modifier les quantités produites ou les caractéristiques du produit exige un certain temps pendant lequel la position relative de la firme va se dégrader. Si de graves écarts entre l’offre et la demande persistent, et s’ils ont un effet négatif important, les organes de direction de la firme vont en rechercher les causes pour essayer de les corriger. La firme cherchera à réduire ses coûts de fonctionnement avec d’autant plus d’énergie qu’elle se sent en difficulté. Elle réagira à l’échec d’un produit non seulement en concevant des produits différents, mais aussi en modifiant son processus de conception des produits, ne serait-ce qu’en remplaçant les responsables des échecs. Elle peut ainsi remettre en question les moyens et les procédés de production, les méthodes de travail, les systèmes de gestion, les structures, les comportements et les individus. Elle peut aussi constater que les actes de l’entreprise ne sont pas conformes aux intentions des dirigeants, et réexaminer ses mécanismes d’information, de commandement et de contrôle. Pour chacun des offreurs, la demande qui s'est réellement concrétisée pour ses produits, en volume et en prix, détermine son revenu, son équilibre financier et donc sa viabilité et sa survie. Les offreurs dont les produits rencontrent durablement une forte demande prospéreront et croîtront, tandis que ceux qui se trompent trop souvent devront jeter l'éponge et disparaître. Les performances financières, qui conditionnent la survie de la firme, mesurent donc à la fois l'adaptation de l'offre au marché et celle de la firme à son environnement.

c

La sélection naturelle opère ainsi à trois niveaux : celui de la sélection des produits par le marché, celui de la sélection des organisations et des comportements à l’intérieur de chaque firme, et enfin celui de la sélection des firmes et des modèles d’entreprise. L'industrie évolue ainsi selon un processus en quelque sorte darwinien dans lequel le marché joue le rôle de l'environnement et la personnalité profonde des firmes celui du matériel génétique, chaque firme déterminant son comportement d'offreur selon sa personnalité.

Un schéma évolutionniste
Secteur
Secteur

Firme Firme Firme Firme
Personnalité Stratégie Comportement

Nombre d'acteurs Taille des acteurs Différentiation Intégration

concurrence

sélection

Le Marché

Ce modèle est analogue à celui de la sélection naturelle en biologie. Chaque entreprise y est assimilée à un organisme vivant dont le comportement résulte d'une recherche active de la meilleure adaptation possible à son environnement, mais est contraint et partiellement déterminé par ses caractéristiques internes : compétences, ressources, organisation, systèmes de management, système de valeurs, schémas de comportement …, que nous désignerons d'une façon générale comme sa «personnalité». En déterminant l'évolution de chacun des offreurs en fonction du succès de ses produits, le marché effectue également une sélection entre les différentes personnalités d'entreprise, de même qu'à travers le comportement des individus l'environnement sélectionne le matériel génétique. C’est ainsi que peuvent apparaître et évoluer des « espèces » d’entreprises.

La théorie classique de la production
L’ensemble de la théorie économique contemporaine , qui résulte des développements inaugurés par Adam Smith au XVIIe siècle, gravite autour du modèle de
28

28 Les lecteurs qui souhaiteraient rafraîchir leurs connaissances en économie sont invités à se reporter à un ouvrage didactique classique, par exemple l’excellent « Economics » de Samuelson (McGraw Hill), qui a fait l’objet de nombreuses éditions.

La plupart des manuels reflètent l’état des principaux courants de la pensée économique aux alentours des années 50, et contiennent de nombreuses références bibliographiques. Dans le présent ouvrage, nous ne mentionnerons les références que pour des travaux plus récents ou peu connus.

ci

référence de l’économie néoclassique. Ce modèle suppose un très grand nombre d’agents, chacun très petit par rapport au marché et tous conformes à un modèle unique, l’« homo economicus », qui est lui-même un modèle simplifié du comportement humain individuel. La théorie économique classique et néoclassique étudie les transactions entre ces agents économiques en supposant que la taille de chacun est négligeable par rapport à celle du marché. Ceci implique l’existence d’un très grand nombre de producteurs et d’acheteurs pour chaque bien, dont chacun est trop petit pour influencer les prix sur le marché. Le prix du bien se fixe par confrontation de la demande globale et de l’offre globale et devient une donnée pour chaque producteur. Réciproquement, au prix du marché, chaque producteur peut écouler toute la quantité du bien qu’il peut produire, à condition que cette quantité reste une très faible part de l’offre et de la demande totale. S’il essaie de vendre au-dessus du prix de marché, il ne vendra rien. S’il essaie de vendre au-dessous du prix de marché, il ne vendra pas plus et il perdra de l’argent. Si on excepte les tâtonnements qui sont nécessaires au début de chaque séance pour découvrir le prix de marché, le prix n’est pas un paramètre concurrentiel et la seule variable d’ajustement possible pour chaque producteur est la quantité qu’il produit. Chaque producteur dispose de certains moyens de production qui peuvent être caractérisés par une « fonction de production » liant le coût de revient à la quantité produite. Le coût total de production pour une certaine quantité est généralement formé d'une partie fixe indépendante du volume de production et de coûts variables dépendants du volume. Dans la majorité des cas réels, le coût variable augmente à partir d'un certain seuil de volume (loi dite « des rendements décroissants »), si bien que le coût moyen par unité produite commence par décroître quand la quantité augmente, puis recommence à croître au-delà d'une quantité « optimale ». Autrement dit, pour un appareil de production donné, il existe un volume de production optimal qui minimise le coût moyen donc maximise le profit du producteur puisque le prix de vente est donné par ailleurs. La quantité optimale de production et le coût moyen correspondants peuvent être différents pour chaque producteur selon son appareil de production, qui peut plus ou moins bien exploiter les technologies disponibles. De la même façon qu'il existe une quantité optimale de production pour un appareil de production donné, il existe une échelle optimale de production pour un produit et un état donné des technologies. C’est celle qui assure le coût de production unitaire le plus bas possible en utilisant au mieux les technologies disponibles, et qui procure ainsi une rentabilité maximale pour les producteurs qui fonctionnent à cette échelle. L’augmentation des capacités productives et l’exploitation de nouvelles technologies nécessite des investissements. Une industrie attirera de nouveaux offreurs et de nouveaux investissements tant que la rentabilité des capitaux investis dans cette industrie est supérieure au taux d’intérêt du marché. Ces nouveaux offreurs et les quantités supplémentaires offertes vont faire baisser les prix et les profits. Dans le cas inverse, les offreurs et les capitaux tendront à déserter ce secteur tant que l’égalité de ces deux taux ne sera pas rétablie.

cii

Au total, le secteur va tendre vers une situation d'équilibre « à long terme » où : –les prix et les quantités échangées correspondent au point d'équilibre entre les intérêts des offreurs et ceux des acheteurs, –chacun des offreurs opère à une échelle au moins égale à l'échelle optimale de production, –la rentabilité des capitaux investis est égale au taux d'intérêt du marché. Il faut noter que l’existence d’un état d’équilibre n’implique pas que l’économie réelle fonctionne dans cet état. Dans la réalité, il est possible que l’équilibre soit déplacé par l’évolution des technologies avant même d’être atteint. De fait, il est extrêmement rare de constater des équilibres stables, surtout dans un domaine aussi mouvant que l'informatique. D'une façon générale, et même si la théorie économique tend à privilégier l'étude des états d'équilibre, plus faciles à traiter par des outils mathématiques, nous en retiendrons plutôt les conclusions relatives aux mécanismes et aux tendances d'évolution.

Oligopoles, monopoles et concurrence imparfaite
Le raisonnement de l’économie classique suppose que dans tous les états de l’économie, y compris l’équilibre à court terme et l’équilibre à long terme, la quantité produite par chaque offreur est insignifiante par rapport à la quantité totale échangée, ce qui revient à dire que l’échelle optimale de production est extrêmement faible par rapport à la taille du marché. Ce raisonnement ne tient plus dès que l’échelle optimale de production devient égale à une part significative du marché, et il s’effondre quand le coût moyen est indéfiniment décroissant, ce qui définit une échelle optimale de production infinie. Or ces derniers cas sont moins rares que les économistes classiques ne veulent l’admettre. Si par exemple le coût variable est le même pour chaque unité produite, le coût moyen de chaque unité est égal à la somme de ce coût variable et du quotient du coût fixe par la quantité produite, et donc d'autant plus faible que la quantité est élevée. Or, dans les activités de production industrielle, cette hypothèse est généralement vraie pour un très large intervalle de volumes, voire acceptée comme valable quel que soit le volume dans les décisions de management. Dans ce cas, le même raisonnement que cidessus montre que le premier qui prend un avantage sur ses concurrents finira par les éliminer tous. De plus, dès qu’un offreur atteint une part de marché suffisante, ses actions peuvent avoir une influence sur le prix de marché, et il peut manipuler les prix dans le cadre de sa stratégie concurrentielle. En première approximation, on peut néanmoins dire que le rapport entre l'échelle optimale de production (EOP) et la taille globale du marché détermine la structure finale du secteur. Si l'EOP est très faible par rapport à la taille du marché, de nombreux offreurs peuvent fonctionner de façon durablement profitable, et la situation concurrentielle se rapproche de la concurrence « pure et parfaite » chère aux économistes. Si au contraire l'EOP est égale ou supérieure à la taille du marché, on a une situation de monopole où un seul offreur peut survivre. Dans les cas intermédiaires

ciii

où la taille du marché est un petit multiple de l'EOP, on se trouve dans une situation dite d'oligopole où un petit nombre de firmes se disputeront le marché. Le cas du monopole, où le bien n’est offert que par un seul producteur, a été très tôt formalisé et traité. Contrairement aux offreurs sur les marchés concurrentiels, le monopoleur a le pouvoir de fixer unilatéralement le prix du bien. On montre qu’il peut maximiser son profit en limitant les quantités offertes et en vendant à un prix supérieur à celui qui prévaudrait en situation concurrentielle. Il est protégé de l'entrée de concurrents par le niveau des investissements que ceux-ci devraient consentir pour mettre en place un appareil de production compétitif. Ceci lui permet le plus souvent de réaliser de façon durable un profit supérieur à celui qui correspond au taux d'intérêt des capitaux investis (les économistes parlent alors de « rente »). Mais ce faisant, le monopole ne satisfait que partiellement la demande, et introduit une sorte de rationnement et des prix anormalement élevés par rapport à ce que permettrait une concurrence « pure et parfaite ».C’est pourquoi les économistes classiques considèrent que les monopoles entraînent une dégradation de l’efficacité de la machine économique et que les pouvoirs publics doivent soit empêcher leur constitution ou les briser quand ils existent, soit les soumettre à des réglementations qui rétabliront la conformité à l’intérêt général. La notion d'échelle économique de production est fondamentale pour la compréhension d'un secteur d'activité, car elle détermine à la fois le nombre des firmes qui pourront y opérer de façon viable, la forme de la concurrence qui y régnera et le niveau de profitabilité que ces firmes pourront espérer. Elle constituera pour notre modèle le premier critère de distinction entre firmes et entre secteurs. Nous la retrouverons d'ailleurs parmi les considérations principales dans l'analyse de la dynamique concurrentielle.

La structure industrielle en économie classique
La théorie classique décrit les agents producteurs comme étant en concurrence sur des marchés pour la fourniture de biens. Le paradigme du marché autorise a priori tout agent à intervenir à tout moment sur tous les marchés comme offreur aussi bien que comme demandeur. On constate néanmoins que pour la plupart des biens certains acteurs sont toujours offreurs et d’autres sont toujours demandeurs. A chaque bien (ou marché) est donc associé un groupe relativement stable d’agents producteurs de ce bien, qui forment l’« industrie » associée au marché. Dans la mesure ou l’ensemble des demandeurs du bien n’est lui-même qu’une partie de l’ensemble des agents, on utilise également le terme de « marché » pour désigner « l’ensemble des acheteurs réels ou potentiels du produit ». A chaque produit correspond ainsi un marché et une industrie.
29 30

La théorie postule aussi que chaque décision de vente ou d'achat est indépendante des autres décisions du même agent sur ce marché et sur les autres marchés. A chaque bien correspond un marché et vice-versa, et les marchés sont totalement indépendants
29

Kotler, Principles of Marketing

30 Il s’agit là d’une autre acception du mot marché, qui dans le vocabulaire économique habituel désigne le dispositif physique ou institutionnel qui permet les transactions entre vendeurs et acheteurs

civ

les uns des autres. Les phénomènes économiques peuvent alors être étudiés séparément pour chaque bien ou marché. L’économie est vue comme une juxtaposition de marchés disjoints correspondant chacun à un bien isolé. Les interactions entre ces marchés se résument aux arbitrages que font d’une part les consommateurs en affectant leurs ressources à l’acquisition de différents biens, d’autre part les producteurs en affectant les facteurs de production. Dans cette vision, deux producteurs distincts produisent soit des biens identiques totalement substituables l’un à l’autre, soit des biens totalement différents et indépendants l’un de l’autre. De plus, un producteur est implicitement associé à un produit et un seul. S’il offre plusieurs produits, la théorie économique classique les traite indépendamment en supposant implicitement que l’offreur se comporte sur chaque marché de la même façon que s’il opérait exclusivement sur ce marché. La théorie classique postule ainsi une structure industrielle faite de la juxtaposition de groupes de firmes tels que toutes les firmes d’un groupe offrent un même produit, et que tous les groupes, donc tous les produits, sont indépendants les uns des autres. Cette structure hypothétique ne correspond évidemment pas à la réalité. Il est extrêmement rare que deux firmes différentes offrent exactement le même produit. Chaque producteur s'emploie à rendre son offre différente de celle de ses concurrents. Sauf sur certains marchés alimentaires ou de matières premières, qui n'entrent pas dans notre propos, il n'y a pas de produits rigoureusement identiques. Les produits sont tous plus ou moins différents et plus ou moins substituables les uns aux autres, si bien que regrouper des produits réels en familles homogènes assimilables aux produits abstraits de la théorie économique comporte une grande part d’arbitraire. La notion de produit ou de bien est elle-même moins évidente qu’il n’y paraît : par exemple, un service de transports entre Paris et Lyon n’est pas substituable à un service de transports entre New York et Chicago. Ce n’est donc pas le même produit bien que ce soit le même secteur d’industrie. Deux produits, même voisins, ne sont jamais identiques, et à l’inverse deux produits très différents peuvent s’influencer réciproquement, par exemple les progiciels et les unités de disques . De plus, des produits différents sont souvent liés entre eux au stade de leur utilisation ou au stade de leur production. Par exemple, la demande sur le marché des progiciels dépend du nombre d’ordinateurs en service, et la demande en composants électroniques dépend de la demande en ordinateurs. Ces interdépendances sont d’autant plus significatives qu’on se propose d’étudier une industrie comme l’informatique, où coexistent un grand nombre de types de produits liés entre eux par des relations complexes.
31

Jusque vers 1930, la théorie économique représente le monde comme une juxtaposition de marchés appartenant à l’un ou l’autre de deux types : ceux dont le fonctionnement est correctement approché par le modèle de la concurrence pure et parfaite, et ceux dont le fonctionnement obéit au modèle du monopole.

31 Cette influence est d’ailleurs multiforme : d’une façon générale, la consommation de progiciels crée une demande de capacité de stockage sur disques, mais il existe des logiciels de compression de données qui réduisent cette demande.

cv

La tentative la plus ambitieuse de formaliser un modèle général est due à Chamberlin (The Theory of Monopolistic Competition, 1933). Dans ce modèle, on considère que chaque producteur offre un bien dont il a le monopole, et que deux biens offerts par deux producteurs différents ne sont ni totalement identiques ni totalement différents, mais présentent un certain degré de substituabilité caractéristique de ce couple de biens. Les cas de la pure concurrence et du monopole deviennent des cas particuliers, le premier correspondant au cas où les produits de nombreux producteurs sont totalement substituables, le second au cas où le produit d’un certain producteur n’a aucun substitut. Dans le cas général, le comportement de chaque offreur ressemble plus à celui d’un monopoliste qu’à celui du producteur infiniment petit de la théorie classique, d’où le nom de « concurrence monopoliste » donné à ce modèle. Malheureusement, ni Chamberlin ni ses disciples n’ont pu en faire dériver un système analytique suffisamment opérationnel pour servir de base à une théorie nouvelle. La difficulté est dans la définition de la demande de chaque produit : puisque tous les produits sont plus ou moins substituables entre eux, et donc plus ou moins concurrents, la courbe de la demande pour chaque produit (ou sur chaque marché, ou pour chaque offreur) est liée à tous les autres marchés, produits, et offreurs. Or on n’a imaginé à ce jour aucune façon de décrire les interrelations entre produits qui soit à la fois suffisamment rigoureuse et suffisamment simple pour servir de base à une redéfinition des notions de concurrence, de marché et d’industrie. Autrement dit, l’approche de Chamberlin, toute séduisante qu’elle soit, ne nous est que de peu d’utilité pour résoudre le problème que nous posons dans le présent ouvrage. La théorie économique s’avoue ainsi impuissante à fixer des critères rigoureux permettant d'isoler une partie quelconque du système économique pour l'étudier indépendamment du reste. Chamberlin lui-même avait écrit : « En toute rigueur, ni un marché ni un secteur ne peuvent être définis de façon objective. Le monde économique peut être considéré comme un réseau de marchés et de secteurs interdépendants, dont les frontières sont choisies de façon à rendre la représentation commode, mais qui sont essentiellement arbitraires ».

La concurrence et les structures industrielles
Pour analyser plus finement les phénomènes concurrentiels qui président à la structuration de l’industrie, il nous faut recourir à des sources qui décrivent la concurrence de façon plus exhaustive et détaillée que ne le fait la théorie économique. Nous utiliserons pour cela les ouvrages de Michael Porter, qui sont devenus la référence dans ce domaine . Tout en reprenant les concepts économiques appropriés, comme ceux d’obstacles à l’entrée ou d’échelle optimale de production, l’analyse de Porter les complète par de nombreuses autres considérations issues de l’expérience des entreprises, et présente ainsi une synthèse de l’étude du comportement des firmes en situation de concurrence.
32

32 Les deux ouvrages de référence de Porter sont « Competitive Strategy » (1980) et « The Competitive Advantage » (1985), tous deux publiés par The Free Press, New York. Le premier a été publié en français sous le titre « Choix Stratégiques et Concurrence » (Economica, 1982) et le second sous le titre « L'Avantage Concurrentiel » (InterEditions, 1986).

cvi

Nous devrons toutefois en adapter les concepts et les outils au propos du présent ouvrage. Les ouvrages de Porter s’adressent aux responsables d'entreprise afin de les aider à formuler des stratégies efficaces compte tenu de leurs activités et de leur environnement particuliers. Dans cet esprit, ils cherchent à recenser de façon exhaustive les facteurs susceptibles d'être pris en compte, même si leur analyse doit rester incomplète ou imprécise. A l’inverse, Porter admet implicitement que ses lecteurs se situent à l’intérieur d’une firme particulière appartenant à une structure industrielle donnée et que chacun d’entre eux sait de façon pragmatique quelles sont les firmes dont il doit tenir compte dans l’établissement de sa stratégie concurrentielle. Nous pourrons simplifier le modèle proposé par Porter en ne retenant que les éléments qui sont en relation directe avec la structure industrielle. Certains facteurs peuvent se révéler importants pour la détermination de la stratégie d'une firme en particulier, mais peuvent être considérés comme mineurs pour l'étude de la structure globale ; nous pourrons donc sans dommage les évacuer de notre modèle. De même, nous pourrons ignorer les facteurs qui ne concernent pas l’industrie informatique, ou qui agissent de la même façon sur toutes les firmes.

Les cinq forces de Porter
Selon Porter, la concurrence dans une industrie donnée est gouvernée par l'action de cinq forces fondamentales : –la menace de nouveaux entrants, –la rivalité entre les concurrents existants, –la pression exercée par les produits de remplacement, –le pouvoir de négociation des clients, –le pouvoir de négociation des fournisseurs.

Forces concurrentielles
entrants potentiels
M. Porter - Competitive strategy (1980)

fournisseurs

rivalité

clients déterminent: intensité de la concurrence structure de l'industrie profitabilité potentielle stratégies possibles évoluent le long du cycle de vie

substituts

cvii

Chacune de ces forces synthétise de nombreux facteurs se rattachant au produit ou service concerné, au système de production, à la firme productrice ou au secteur d'industrie. De l'interaction de ces cinq forces dépendent en particulier l'intensité de la concurrence et le niveau de profitabilité potentiel du secteur, le nombre de concurrents en présence et la répartition des parts de marché, les règles du jeu concurrentiel et l'éventail de stratégies possibles.

Notion de secteur
S'appuyer sur l'étude de la concurrence pour comprendre la structure de l'industrie exige que l’analyse soit conduite secteur par secteur. Le choix des clients, et donc la concurrence, ne joue pleinement qu'entre firmes offrant des produits substituables l'un à l'autre dans le sens où ils peuvent satisfaire un même besoin du client. Des produits non substituables entre eux définissent donc autant de secteurs disjoints qui se structurent indépendamment les uns des autres, au moins en première analyse. Par exemple, le secteur des imprimantes ou celui des progiciels de traitement de texte sont aussi distincts de celui des ordinateurs que le secteur des disques compacts l'est de celui des composants électroniques. Porter utilise le terme d’« industry » pour désigner « un groupe de firmes qui fabriquent des produits étroitement substituables ». C'est en somme l'ensemble des acteurs qui luttent entre eux pour un marché donné et que structure le jeu des forces de la concurrence. Ce terme a été assez heureusement remplacé par celui de « secteur » dans la traduction française, car ce qu’il désigne est beaucoup plus étroit que ce qu’évoque habituellement le mot « industrie ». Dans cette acception, le présent ouvrage adopte le terme de « secteur » en conservant au mot « industrie » son sens plus large et plus flou. Cette notion de secteur est différente de la notion de marché ou de segment de marché, qui se définit comme « l'ensemble des acheteurs réels et potentiels d'un produit » (Kotler, Principles of Marketing, 1980). Selon cette définition, l'informatique ne constitue pas une industrie ou un secteur unique, mais elle est composée d'un grand nombre de secteurs correspondant à autant de produits substituables. Les produits d'Intel ne sont pas substituables à ceux de Lotus, ni ceux d'EDS à ceux de Compaq. Parmi les matériels, imprimantes et unités de disque forment deux secteurs distincts, de même que les tableurs et les traitement de texte parmi les logiciels. Au sens de Porter, non seulement les composants, les matériels, le logiciel et les services constituent des secteurs distincts, mais ces secteurs eux-mêmes doivent être décomposés à leur tour en sous-secteurs, qui peuvent obéir à des logiques de production et à des dynamiques concurrentielles différentes, et revêtir de ce fait des structures différentes. Comme les économistes classiques, Porter reconnaît qu’il est difficile de fixer exactement les bornes d'un secteur, comme d’ailleurs de séparer les candidats à l’entrée des concurrents existants ou de distinguer les produits de remplacement des produits courants. Mais la nature même de son propos l’autorise à éluder explicitement la question. Le praticien auquel il s’adresse sait quels sont pour lui les produits et les concurrents pertinents, et peu importe au fond le tracé exact des frontières du secteur

cviii

pourvu que tous les concurrents soient pris en compte d’une façon ou d’une autre, selon l’importance de la menace qu’ils représentent. Nous devrons donc adapter ce modèle pour identifier des critères objectifs et généraux de structuration de l’industrie, et tenir compte des relations de covariance ou d’antagonisme entre certains produits, et donc les secteurs correspondants, ainsi que du fait que la plupart des firmes offrent plusieurs produits et opèrent de ce fait dans plusieurs secteurs. Par exemple, la plupart des firmes de progiciel sont présentes dans plusieurs domaines d'application, et presque toutes les firmes de matériel offrent aussi des services. Lorsque de nombreuses firmes sont présentes dans une même configuration de secteurs élémentaires, on peut considérer que cette situation définit un secteur composite, mais il est souvent utile de prendre en compte le fait que certains de ces secteurs sont en réalité la juxtaposition de secteurs élémentaires pouvant soit obéir à des logiques différentes, soit se situer à des phases différentes d'évolution sectorielle. La bonne méthode consiste à faire porter l'étude d'abord sur les secteurs aussi « élémentaires » que possible, correspondant à des produits incontestablement substituables. Ce n'est que dans un deuxième temps, après avoir étudié des secteurs « purs » au sens des corps purs en chimie, que nous pourrons tenir compte des similitudes et des interrelations entre secteurs. Dans une première approche, nous nous en tiendrons aux quatre grandes catégories traditionnelles que sont les composants, les matériels, les logiciels et les services, tout en cherchant s’il existe des différences dans l’action des forces concurrentielles à l’intérieur de ces catégories.

Forces concurrentielles et rentabilité
Le modèle classique de l’équilibre économique indique que chaque secteur d’industrie tend vers une situation où la rentabilité des capitaux investis est égale au taux d’intérêt du marché, donc est la même pour toutes les firmes et tous les secteurs. Le taux de profit de la firme, exprimé en pourcentage du chiffre d'affaires après impôts, est égal au produit du taux de rentabilité des capitaux par le rapport des capitaux au chiffre d’affaires. Il en résulte que, dans l’hypothèse de concurrence « pure et parfaite », la profitabilité moyenne d'un secteur ne dépend que de l'intensité capitalistique de ce secteur. Il sera élevé pour des activités fortement capitalistiques comme les composants électroniques, et faible pour des activités comme les services de conseil et d'assistance, mais dans tous les cas juste suffisant pour rétribuer les capitaux investis au taux du marché. Ceci suppose, entre autres hypothèses, que les offreurs puissent librement entrer et sortir du marché sans encourir de dépenses particulières, et faire varier leur production par quantités infinitésimales. La présence de barrières à l’entrée ou à la sortie, ou celle de paliers de variation de production, modifie ces conclusions. De nouveaux offreurs n’apparaîtront que si la rentabilité du secteur est suffisamment élevée pour justifier leur investissement initial et

cix

le risque qui lui est associé. A l’inverse, en présence d’obstacles à la sortie, les offreurs malchanceux ne quitteront pas le secteur tant que leur rentabilité restera suffisante pour les dissuader de payer le prix de la sortie. Au total, la présence de barrières à l’entrée tend à maintenir la profitabilité du secteur au-dessus de la moyenne et celle de barrières à la sortie en dessous. Dans un cas comme dans l’autre, le processus de convergence est enrayé et les rentabilités des firmes présentes peuvent rester durablement différentes les unes des autres. Les mêmes considérations régissent également le nombre d’offreurs présents dans chaque secteur et l’intensité de la concurrence qui y règne. La présence d’obstacles à l’entrée tend à réduire le nombre de concurrents et constitue un facteur de concentration du secteur, tandis que celle d’obstacles à la sortie tend à maintenir le nombre de concurrents à un niveau artificiellement élevé, et constitue un facteur de dispersion du secteur. Par ailleurs, la concurrence tend à être d’autant plus vive que le les concurrents sont nombreux. S’il est possible de sortir facilement du secteur, les firmes en difficulté pourront abandonner plutôt que continuer la lutte. Si par contre, pour une raison ou une autre, les firmes engagées dans un secteur rencontrent des difficultés pour le quitter, certaines choisiront de se battre « dos au mur » en exaspérant la concurrence. La menace de nouveaux entrants et la concurrence entre offreurs existants contribuent donc à déterminer la rentabilité d’un secteur. De la même façon, la menace de produits de remplacement fixe une limite supérieure au prix du produit et donc à la rentabilité possible, tandis que le pouvoir de négociation des clients et de fournisseurs détermine la mesure dans laquelle les firmes du secteur peuvent imposer leurs conditions et ainsi conserver la valeur qu’elles créent. En résumé, pour les firmes qui y sont présentes, un secteur est d’autant plus favorable que les obstacles à l’entrée sont élevés, les obstacles à la sortie faibles, la menace de produits de remplacement lointaine, le pouvoir relatif des clients et des fournisseurs limité.

Types de secteurs
Obst. entrée concentration rentabilité

secteur concentré
concurrence vive profits moyens profits risqués

secteur très concentré
concurrence modérée profits élevés profits stables

secteur très dispersé
concurrence intense profits faibles profits risqués

secteur dispersé
concurrence vive profits faibles profits stables facilité sortie sécurité

L’obstacle à l’entrée le plus important est une échelle économique de production élevée. Une telle situation impose au candidat éventuel à l'entrée des investissements et

cx

des besoins en capitaux importants, ainsi qu’un volume minimal de production et des prix-plafond qui sont ceux des firmes déjà en place, augmentant ainsi son risque. On retrouve ici la théorie économique qui montre que l'échelle optimale de production est d'autant plus élevée que le rapport entre les frais fixes et les frais variables de production est élevé.

Les secteurs de l’industrie informatique
Les frontières de l’informatique
Bien que la théorie économique conclue à l’impossibilité d'isoler une partie quelconque du système économique pour l'étudier indépendamment du reste, le réalisme nous contraint à délimiter le champ de la présente étude de façon plus précise que nous ne l’avons fait jusqu’ici. Nous pouvons définir l’industrie informatique comme « l’ensemble des organisations qui produisent des biens ou des services entrant dans la composition des systèmes informatiques ou utilisés dans leur mise en œuvre ». Cette définition suppose à son tour que nous puissions définir de façon précise ce qu’est un système informatique, ce qui n’est pas si évident qu’il n’y paraît. Informatique et ordinateurs ont longtemps été synonymes, mais la baisse constante du coût des composants a permis d’intégrer des éléments d’ordinateurs à toutes sortes d’objets dont la plupart existaient avant l’informatique, et dont certains appartiennent à la vie courante. Les avions, les voitures, les appareils photographiques, les instruments de musique, les téléphones, les machines-outils contiennent des microprocesseurs plus ou moins nombreux et plus ou moins puissants. Doit-on pour autant considérer ces objets comme des systèmes informatiques et les industries aéronautique, automobile, photographique, musicale, téléphonique, … comme des branches de l’industrie informatique ? Dans le même esprit, où ranger les calculettes, les jeux électroniques ou les simulateurs de vol ? Pour le moment, nous déciderons arbitrairement de focaliser notre étude sur les ordinateurs dits « universels », tout en retenant que les technologies et les composants de l’informatique sont aussi utilisés dans d’autres machines, mais à des fins particulières correspondant aux fonctions propres à ces machines. Ce n’est qu’après avoir examiné l’industrie informatique dans ce sens étroit que nous reviendrons sur la question des objets informatisés et que nous essaierons de comprendre les phénomènes industriels qui se situent aux frontières de l’informatique stricto sensu. La définition de l’industrie informatique que nous avons retenue nous invite à établir un inventaire des produits et services qui « entrent dans la composition des systèmes informatiques ou sont utilisés dans leur mise en œuvre ». Vus par leurs utilisateurs, les systèmes informatiques (que nous assimilons aux ordinateurs) sont toujours constitués par des matériels interconnectés, sur lesquels s’exécutent des logiciels qui en définissent les fonctions applicatives. La part matérielle peut être aussi simple que la combinaison d’une unité centrale, d’un écran, d’un clavier

cxi

et d’une imprimante, ou bien comprendre tout un réseau de centres de traitement comportant chacun de nombreuses unités de calcul et de stockage, et accessible à partir de milliers de terminaux. Il existe une grande variété de matériels qui se distinguent par leur fonction primaire (calcul, stockage, lecture et production d’informations sous différentes formes physiques, communication entre systèmes informatiques, …), ainsi que par les modalités et les performances d’exécution de ces fonctions. Ces divers matériels peuvent être acquis séparément auprès de fournisseurs concurrents. Les logiciels définissent concrètement les services que le système informatique rend à ses usagers. Tout système informatique contient donc une part importante de logiciels, que l’on range habituellement en plusieurs catégories : logiciels système directement liés aux matériels, programmes utilitaires réalisant des fonctions de service, applications générales communes à de nombreux utilisateurs, applications spécifiques à un groupe particulier. Tous ces logiciels peuvent être obtenus de différentes façons : certains logiciels généraux sont préparés par des entrepreneurs et peuvent être acquis sur le marché comme n’importe quel autre produit ; on parlera alors de « progiciels ». Ils peuvent à l’opposé être développés spécifiquement pour un utilisateur particulier, qui peut confier ce travail à son propre personnel ou à une société de services. Notons dès à présent que contrairement au matériel qui implique une relation classique simple entre fournisseur et client, le logiciel peut donner lieu à trois modes de relation économique différents : celui de la production industrielle pour les progiciels, celui du service ou celui de l’autarcie pour les développements spécifiques. Outre le développement de logiciels, d’autres services interviennent dans la composition ou la mise en œuvre des systèmes informatiques : services de communications, d’intégration, de formation, de gestion, de maintenance, etc. De plus, à la décomposition « horizontale » perçue par les utilisateurs se superpose une décomposition « verticale » correspondant à une spécialisation des étapes de production, qui fait intervenir les matières premières, les produits intermédiaires, les services aux entreprises productrices d’informatique, etc. A ce point, notre tentative de donner des bornes claires à l’industrie informatique rencontre une deuxième difficulté : parmi tous les biens et services utilisés par les systèmes informatiques, et parmi les secteurs qui les produisent, lesquels doivent être retenus comme faisant partie de l’industrie informatique ? Il est clair par exemple que même si les ordinateurs sont enfermés dans des boîtiers métalliques, ceci ne suffit pas à faire de la métallurgie une branche de l’informatique. Mais à l’inverse, de nombreux commentateurs fusionnent volontiers l’industrie des télécommunications et celle de l’informatique. Dans la mesure où un très grand nombre de systèmes informatiques incorporent des services de télécommunications fournis par les opérateurs spécialisés, nous devons nous demander si les services de télécommunications entrent dans notre définition. Là encore, notre position sera utilitaire et non dogmatique. En cas de doute, il semble plus utile à l’analyse de considérer deux secteurs comme distincts et d’en étudier explicitement les relations quitte à conclure à leur similitude, plutôt que de postuler a priori qu’ils n’en forment qu’un. Dans ce cas précis, les services de télécommunications offrent une fonction de transport de l’information qui n’est pas spécifique aux systèmes informatiques. Même dans le cadre de ces systèmes, la fonction de transport peut être

cxii

réalisée par d’autres moyens comme la poste ou les transports routiers, qui sont ainsi substituables aux télécommunications et pourraient eux aussi être candidats à entrer dans le champ de notre étude. D’une façon générale, nous adopterons les règles empiriques suivantes : –écarter les industries pour lesquelles l’informatique est un client minoritaire et non le client dominant, –écarter les industries qui existaient avant l’informatique, c’est à dire avant 1950. Nous retiendrons ainsi une définition étroite de l’industrie informatique, qui ne contient en particulier pas les télécommunications, considérées comme une industrie distincte. Dans la suite de notre étude, nous examinerons les firmes qui jouent un rôle important en informatique sans que ce soit leur activité dominante, ainsi que les firmes dont l’informatique influence fortement l’activité – deux critères qui s’appliquent aux télécommunications – pour voir les implications de cette proximité et reprendre plus tard la question de leur rapprochement éventuel.

Les facteurs structurants
L’échelle économique de production Une échelle optimale de production élevée, provenant par exemple d’un ratio des coût fixes aux coûts variables très élevé, constitue le plus important des obstacles à l’entrée. Cette situation est de façon extrême celle des composants électroniques où les investissements sont de l'ordre du milliard de dollars alors que les coûts marginaux sont très faibles. C’est aussi celle des progiciels dont le coût de reproduction par exemplaire est très faible alors que le coût (fixe) de développement peut être élevé. Pour les matériels, la situation dépend de la stratégie adoptée. Un constructeur peut se contenter d'assembler de façon artisanale des composants et des unités qu'il acquiert sur le marché, auquel cas ses frais variables seront prédominants et son échelle de production faible. Les économies d'échelle apparaissent lorsqu'il passe à une production plus industrielle exigeant des investissements, ou lorsqu'il produit lui-même tout ou partie des composants qu'il utilise. Les services ne se laissent pas appréhender de façon simple. Certains comme les services de conseil et d'assistance sont caractérisés par une échelle de production très faible et donc sont exempts d'obstacles à l'entrée. D'autres, comme les télécommunications, exigent des investissements matériels considérables entraînant des frais fixes élevés et une échelle de production constituant un obstacle quasiinfranchissable. Dès maintenant, nous voyons que le secteur des services est très hétérogène et devra faire l'objet d'une subdivision en sous-secteurs. Un autre obstacle à l'entrée d'un nouveau concurrent est formé par les coûts que les clients doivent consentir pour changer de produit, ou les autres inconvénients liés à ce changement. Ces obstacles dépendent de la différenciation du produit, de la fidélité de la clientèle existante, et des coûts de transfert pour le client. Le candidat à l'entrée

cxiii

peut réduire ces coûts en choisissant de copier des produits existants, en particulier lorsque ceux-ci font l'objet d'un standard ou d'une norme. Cet obstacle à l'entrée sera donc important en l'absence de normalisation, faible pour les services et les matériels standardisés et très faible pour des services banalisés comme l'assistance technique ou le développement de logiciels. Les obstacles à la sortie Dans le cas de l’informatique, la principale source d’obstacles à la sortie est l’utilisation d’actifs spécialisés qui perdent toute valeur en cas de cessation de la production. D’autres sources potentielles sont les relations stratégiques réelles ou supposées avec d’autres activités de l’entreprise, ou encore des restrictions gouvernementales. Concernant ce dernier point, les gouvernements qui ont soutenu une industrie nationale ont voulu s’assurer l’existence d’un constructeur national généraliste. En continuant à le soutenir au moment où tous les généralistes sont en difficulté, ils ont contribué à maintenir un nombre de généralistes plus élevé que ne le voudrait la simple logique concurrentielle. Le besoin de capitaux Le besoin de capitaux est directement lié à la structure des coûts pour l'activité considérée et se rapproche donc de l'échelle de production, si ce n'est qu'il s'agit ici du besoin en valeur absolue alors que l'échelle de production se rattache au besoin en capitaux à travers son rapport aux coûts variables. Par exemple, les composants et les progiciels ont tous deux une échelle de production élevée, mais le besoin en capitaux de l'activité progiciels est beaucoup plus faible en valeur absolue. Le besoin en capitaux est une barrière à l'entrée particulièrement sévère lorsque ces capitaux sont destinés à financer des coûts irrécupérables (« sunk costs »), c'est à dire qui ne peuvent être éliminés même en cas d'arrêt total de la production. C'est le cas par exemple des dépenses de recherche et de développement et de commercialisation, ou des coûts de construction de l'appareil de production dans la mesure où cet appareil ne peut être utilisé à d'autres fins et n'a donc pas de valeur d'usage en cas d'arrêt de la production. Cette dernière situation peut résulter d'une évolution rapide des technologies de production, par exemple dans le cas des composants électroniques. La propriété des technologies Une firme qui dispose de technologies originales peut rendre difficile l’entrée de concurrents en leur interdisant d’accéder à ces technologies grâce à des brevets ou tout autre dispositif de protection. Même en l’absence de telles dispositions de propriété industrielle, l’investissement et le temps nécessaire à l’acquisition d’un niveau de compétence concurrentiel peuvent représenter un obstacle à l’entrée non négligeable. Ce type de barrières à l’entrée forme un obstacle majeur dans le secteur des composants, et intervient aussi pour les services « intellectuels » où la compétence est déterminante. La situation est plus confuse pour les progiciels, pour lesquels la

cxiv

protection juridique n’est pas pleinement efficace et constitue un problème majeur d’actualité. Le pouvoir des clients La motivation des clients à négocier âprement avec les fournisseurs, et leur pouvoir relatif dans ces négociations, sont d’autant plus élevés que : –les clients achètent des volumes élevés par rapport à la taille des vendeurs, –le coût des achats est une part importante des dépenses des clients, –les produits sont peu différenciés et les coûts de transfert faibles, –les clients sont financièrement fragiles, –les clients ont la possibilité de produire eux-mêmes les biens concernés (menace d’« intégration vers l’amont »), –le produit n’est pas critique pour l’activité des clients, –les clients disposent d’une bonne information sur les produits, le marché et les fournisseurs. Dans leur grande majorité, les fournisseurs informatiques s’adressent à une clientèle diversifiée qui couvre toutes les branches d'activité et ne forme pas un groupe ayant des caractéristiques particulières. L’importance des achats pour le client est très variable selon les applications et les secteurs de clientèle, mais reste la plupart du temps moyenne. Les coûts de transfert sont élevés pour les matériels non standard, faibles pour les matériels standard et la plupart des services, mais sont très élevés pour certains services à caractère monopoliste comme les télécommunications. La menace d'intégration amont n’existe que pour la majorité des services, où elle est importante. A l’intérieur de l’industrie informatique, nous pouvons appliquer l’analyse cidessus aux cas où les produits d’un secteur sont utilisés par un autre secteur. En éliminant le cas banal, non spécifique à l’informatique, de l’utilisation d’ordinateurs à des fins de gestion ou d’aide aux activités internes de la firme, les deux cas à examiner sont celui de la fourniture de composants aux constructeurs et de la fourniture de matériels et progiciels aux offreurs de certains services. Nous avons vu que le secteur des composants et fortement concentré alors que celui des matériels est dispersé. De plus, les composants représentent une part critique des matériels, et les fournisseurs de composants peuvent exercer une menace crédible d’entrée dans le secteur du matériel. En revanche, les constructeurs de matériel ne forment un débouché critique que pour ceux des fournisseurs de composants qui sont hautement spécialisés en informatique. Le secteur des composants jouit donc d’un pouvoir important sur ses clients les constructeurs de matériel et peut dans une large mesure leur imposer ses conditions et empocher la plus grande part de leur valeur ajoutée combinée. Dans le cas des offreurs de services qui incorporent à leurs prestations du matériel ou du progiciel, comme c’est le cas des services de traitement, de l’intégration de

cxv

systèmes, ou du facilities management, les deux secteurs sont dispersés. Mais d’une part ces achats sont plus critiques pour les sociétés de service que pour les constructeurs, et d’autre part les constructeurs peuvent exercer une menace permanente d'intégration en aval des services, alors que l’inverse est peu crédible. Le pouvoir des fournisseurs de matériels et progiciels est donc relativement supérieur à celui de leurs clients les offreurs de services. Cette conclusion doit néanmoins être tempérée par le rôle de prescripteur et de distributeur que peuvent jouer ces derniers.

Secteurs concentrés et secteurs dispersés
Nous pouvons maintenant compléter la distinction entre secteurs que nous avions ébauchée au chapitre précédent à partir de l’échelle optimale de production. Une grande échelle optimale de production due à des frais fixes élevés par rapport aux frais variables, et/ou une forte différenciation des produits entraînant pour le client des coûts de transfert élevés en cas de changement de fournisseur, constituent de fortes barrières à l'entrée et font du secteur un secteur concentré où la concurrence se joue entre un petit nombre de grandes firmes. Un exemple typique est celui des microprocesseurs. Une échelle de production élevée va de pair avec des coûts fixes élevés et un fort besoin de capitaux, que nous ne considérerons donc pas comme des facteurs de structuration indépendants. D’autres facteurs qui poussent à la concentration d’un secteur sont principalement l’utilisation de technologies protégées ou peu répandues et l’absence d’obstacles à la sortie. Dans les secteurs concentrés, les firmes peuvent espérer atteindre une profitabilité élevée, mais la part de marché joue un rôle déterminant. Plusieurs études ont cherché à comprendre s’il existe une configuration stable des parts de marché, en partant du principe que la concurrence est la plus intense entre firmes de taille comparable et doit devenir plus modérée entre firmes de taille très différente. De façon empirique, on constate souvent une tendance vers une configuration où un leader occupe 55% à 65 % du marché, un challenger environ 30%, avec quelques firmes secondaires se partageant quelque 10 à 15% . C’était par exemple le cas de l’informatique jusqu’aux années 80 avec IBM dans le rôle du leader, et c’est maintenant les cas des microprocesseurs avec Intel, des progiciels système et de chacun des principaux logiciels utilitaires avec Microsoft, ou des logiciels de réseau avec Novell.
33

A l'opposé, de faibles barrières à l'entrée entraînent une structure dispersée où opèrent de nombreuses firmes concurrentes. Les parts de marché y sont plus faibles, la
34

33 Ce constat a été érigé en règle par Henderson, du Boston Consulting Group, sous le nom de « règle de 3 et 4 », qui s’énonce « dans une industrie stable, il n’y a que trois concurrents significatifs et leurs chiffres d’affaires sont dans les rapports 4-2-1 »

Nous avons préféré le terme « dispersé » à « fragmenté » pour traduire le mot « fragmented » utilisé par Porter. D’une part c’est un meilleur antonyme de « concentré », et d’autre part ce choix nous permet de réserver le mot « fragmenté » pour désigner une industrie où les différents biens sont produits par des firrmes spécialisées distinctes, par opposition à une industrie « intégrée ». Voir les chapitres 14 et 15.

34

cxvi

firme la plus importante ayant rarement plus de 15% du marché et les 10 premières ne totalisant le plus souvent pas 50%. La profitabilité potentielle y est également faible, même pour les firmes les plus performantes. Cette situation peut être due à une échelle optimale de production réduite grâce à des frais fixes modérés, ainsi qu'à une banalisation ou une standardisation des produits qui facilite le changement de fournisseur. Elle est aggravée par l’utilisation de technologies banales ou la présence d’obstacles à la sortie.

Notion de métier
Plusieurs secteurs au sens de Porter (groupe de firmes qui fabriquent des produits étroitement substituables) peuvent se caractériser par des appareils de production très voisins et donc avoir en commun tous les facteurs de structuration qui se rattachent au système de production, alors même que leurs produits ne sont pas substituables. Nous utiliserons le terme de « métier » pour désigner un tel groupe de secteurs. C’est par exemple le cas de l’assemblage des matériels, qui peut concerner aussi bien des imprimantes que des unités de calcul ; c’est aussi le cas des progiciels, puisqu’un tableur et un gestionnaire de communications, bien que non substituables, font néanmoins appel au même processus de production. Le jeu des forces concurrentielles au niveau d’un métier se situe quelque part entre un secteur au sens strict et une industrie au sens large. En effet, la similitude de l’appareil de production poussera certains acteurs d’un même métier à être présents dans plusieurs secteurs, voire à tirer de cette présence un avantage concurrentiel et à protéger cet avantage en établissant des liaisons entre des produits appartenant a priori à des secteurs distincts. Ce phénomène a dominé le secteur des matériels avant que la standardisation ne vienne isoler les différents types d’unités les uns des autres et permettre le cloisonnement entre sous-secteurs. Il joue maintenant un rôle de plus en plus visible dans les progiciels où les leaders comme Microsoft ou IBM, et leurs challengers immédiats comme Lotus ou Novell cherchent à couvrir un domaine d’application aussi étendu que possible. Nous reviendrons sur cette problématique dans le chapitre consacré au progiciel. En revanche, le fonctionnement du marché, et en particulier les effets de substitution entre produits concurrents et la répartition des parts de marché, doivent bien être analysés secteur élémentaire par secteur élémentaire.

Produits et secteurs informatiques
A ce stade de notre étude, on peu donc prévoir que le secteur des composants se caractérise par un faible nombre d'acteurs et une rentabilité élevée, celui des matériels par un assez grand nombre d'acteurs et une rentabilité moyenne, celui des services par un grand nombre d'acteurs et une rentabilité faible. Pour les secteurs des matériels et des progiciels, il ne nous a pas été possible de caractériser de façon simple des facteurs tels que la différenciation des produits et les coûts de changement de fournisseur. La structuration de ces secteurs doit donc tenir compte du phénomène de standardisation : un haut degré de normalisation des produits abaisse les barrières à l'entrée, donc augmente le nombre de concurrents et diminue la profitabilité potentielle par rapport à un secteur où les concurrents offrent des produits plus différenciés.

cxvii

Le secteur des progiciels présente un caractère paradoxal à l’observateur superficiel, car tout à la fois les obstacles à l'entrée et à la sortie y semblent faibles, et les économies d'échelle y sont très fortes, la plus grande part des coûts étant supportée en phase de développement. On y constate d’ailleurs la coexistence d’un grand nombre de firmes avec des profitabilités très élevées. La réalité est que les firmes de progiciels ne constituent pas un secteur unique, mais autant de secteurs que de domaines d’application (systèmes d’exploitation, gestion de réseaux, traitement de textes, tableurs, utilitaires, …), ces nombreux secteurs formant un métier unique. La dispersion n’est ici qu’apparente et concerne le niveau du métier. Chaque secteur élémentaire obéit à une logique de concentration, ce qui explique les fortes rentabilités constatées. Le secteur des services est encore plus hétérogène puisqu’il contient des types de services divers assis sur des appareils de production très différents dans leurs caractéristiques économiques, en particulier leur échelle de production. Même en première approximation, les services ne peuvent pas être analysés comme un secteur homogène, ni même comme un métier au sens d’un ensemble de firmes dont les appareils de production ont des caractéristiques voisines. Ceci explique la diversité des situations dans un domaine où coexistent des métiers et des secteurs différents, comme nous le verrons au chapitre 13.

Attrait et rentabilité
Obst. entrée concentration rentabilité télécoms

très attractif

composants mat original temps partagé infogérance backup maintenance progiciels

traitement mat standard

dévelopt intégration formation assistance conseil
facilité sortie sécurité
G. Dréan - 1994

peu attractif

Cycle de vie
Les cinq forces de la concurrence évoluent dans le temps, et avec elles la structure et les caractéristiques des secteurs, qui connaissent en général un cycle de vie passant par les phases d'introduction, de croissance, de maturité et de déclin. En règle générale, au fur et à mesure que le secteur évolue vers la maturité et le déclin, le pouvoir des clients augmente, les produits se standardisent, la concurrence tend à s'intensifier et la profitabilité à diminuer. Mais il arrive que certains des sous-secteurs nouvellement créés reprennent le cycle à son début et présentent une structure très différente de celle du secteur dont ils sont issus.

cxviii

Pour illustrer cette analyse, appliquons-la à la totalité du macro-secteur informatique, en reportant l’étude de chaque branche au chapitre concerné. Le premier groupe de facteurs d’évolution est lié au marché. La clientèle desservie par l’informatique est en expansion constante, mais à des rythmes différents selon qu’il s’agit des grandes organisations, des petites entreprises, des professions libérales et des particuliers. A ces différentes populations correspondent d’ailleurs des besoins et des comportements d'achat différents, qui contribuent à une segmentation croissante des marchés et ouvrent en permanence aux offreurs de nouvelles opportunités de spécialisation. Parallèlement, les besoins évoluent dans le sens d’une diversification des applications, ainsi que des attitudes des utilisateurs vis à vis de la personnalisation et de l'intégration de leurs systèmes. Les grandes entreprises souhaitent majoritairement disposer de systèmes sur mesure, les plus petites et les utilisateurs individuels veulent des systèmes standard prêts à l’emploi. Ces différences créent des demandes différentes en matière de progiciels et de services, donc à nouveau des opportunités de spécialisation. Une croissance rapide permet à la concurrence de s’orienter vers la conquête de nouveaux clients, tandis qu’un ralentissement contraint chacun des acteurs à rechercher sa croissance au détriment des autres, avivant ainsi la concurrence. L’informatique est globalement passée d’un régime de croissance rapide à un régime de croissance ralentie, mais des poches de décroissance et de poches de croissance rapide coexistent avec des zones de croissance moyenne. La pénétration du marché est variable selon les segments. Elevée pour les grands organismes et les petites entreprises très techniques, elle est encore moyenne pour les autres petites entreprises, et relativement faible pour les travailleurs individuels et les particuliers. Selon le produit et le marché, le taux de pénétration peut correspondre à la phase d'introduction, à la phase de croissance, de maturité ou de déclin. Il en va de même des phénomènes d’apprentissage des acheteurs, dont les niveaux de compétences sont extrêmement divers. Un deuxième groupe de facteurs d’évolution se rattache à l’évolution technologique, qui peut apporter des innovations dans le produit ou les processus de production, des modifications de l'échelle de production ou des innovations dans le domaine commercial. Pour l’informatique, les phénomènes les plus significatifs ont lieu dans le domaine des composants, où la miniaturisation continuelle augmente en permanence le rapport des frais fixes aux frais variables, ce qui élève à chaque génération l'échelle optimale de production, le besoin de capitaux et les obstacles à l'entrée. Du coté commercial, l’importance croissante de la vente directe à des individus ou des services, plutôt qu’à des organes spéciaux de grandes entreprises, confère à l’activité de distribution un poids croissant dans l’ensemble du secteur. Au total, ce rapide examen des facteurs principaux confirme l’hétérogénéité du macro-secteur informatique et indique des pistes de segmentation. Tant que le marché reste globalement en expansion, la maturation du secteur est compensée par l’éclatement du marché en segments distincts qui offrent aux firmes productrices des opportunités de concentration, donnant ainsi naissance à de nouveaux secteurs qui peuvent avoir des caractéristiques différentes de celui dont ils sont issus. Un secteur en

cxix

phase de maturité peut ainsi donner naissance à un secteur nouveau où jouera la dynamique d’une phase d’introduction. La notion de cycle de vie n'a pas grand sens pour l'ensemble de l'informatique : les progiciels multimédia sont en phase d'introduction alors que les grands et moyens systèmes entrent en phase de déclin et que le service de traitement à façon a dépassé la phase de déclin. La position dans le cycle de vie constitue un nouveau facteur de différenciation interne à l’informatique, qui contribue à enlever toute pertinence à une analyse globale.

cxx

Chapitre 7 Les composants, un secteur concentré
Un survol de l’industrie des semi-conducteurs. Technologie, production et formation des coûts. Les arbitrages technico-économiques. Mémoires et processeurs. Coûts fixes, coûts variables et échelle de production. Concurrence et structure sectorielle. Coûts irrécupérables et formation des prix. Les configurations stables et la répartition des parts de marché. Risc contre Cisc. Vers la fin du progrès ?

Toute l’évolution de l’informatique trouve son moteur dans le progrès des technologies électroniques. Or c’est essentiellement dans les composants que se réalise ce potentiel. De même que leurs performances gouvernent l’ensemble des performances des systèmes informatiques, nous devons nous attendre à ce que l’économie de leur production exerce une influence déterminante sur la structure de l’ensemble de l’industrie. Dans ce chapitre, nous allons appliquer au métier de production de composants électroniques les éléments théoriques que nous avons résumés dans le chapitre précédent. Pour cela, nous commencerons par rappeler l’historique et la structure actuelle de ce secteur d’activité, puis les considérations technologiques qui gouvernent la production des composants et l’économie du secteur. Nous nous limiterons aux circuits intégrés (mémoires et microprocesseurs), qui constituent la part la plus « noble » des ordinateurs et qui ont l’influence la plus marquée et la plus originale sur l’évolution du secteur industriel. Parmi les autres composants, les plus critiques sont les affichages, où la technologie des écrans plats s’apparente à celle des mémoires et profite des développements de la microélectronique, et les diverses unités d’entrée-sortie et de stockage d’informations, où la micro-électronique s’allie à la mécanique de haute précision.

Historique
A l'origine, les ordinateurs utilisaient les mêmes composants électroniques que les autres matériels et les constructeurs s'approvisionnaient auprès de fabricants tels que General Electric, RCA, Sylvania, Raytheon … pour lesquels l’informatique n’était qu’un client très marginal. L'industrie informatique naissante était ainsi distincte de celle des composants, qui existait avant elle. De nombreux fournisseurs de composants tenteront d'ailleurs de prendre pied dans l'informatique, et tous abandonneront tôt ou tard. Autour de 1960, les constructeurs de matériel informatique commencent progressivement à produire eux-mêmes tout ou partie des composants de leurs machines. Ce mouvement va de pair avec l'apparition de composants spécifiques comme les mémoires, puis avec celle des circuits intégrés dont la conception ne peut

cxxi

plus être séparée de celle des matériels où ils sont utilisés. A partir de 1964, à la suite d'IBM, chaque constructeur d'ordinateurs conçoit et produit lui-même l'essentiel des composants qu'il utilise. En même temps que l’industrie informatique se détache ainsi de l’industrie électronique généraliste, la production de composants s’intègre dans l'activité de chacun des constructeurs. Cette intégration reste à ce jour une caractéristique du monde de l'informatique traditionnelle. En sens inverse, les microprocesseurs développés par les constructeurs informatiques trouvent des applications dans d’autres industries. C’est pour répondre à ces besoins que se créent de nouvelles entreprises spécialisées comme Intel en 1968. Ces deux mouvements se rejoignent lorsque IBM décide d’utiliser des composants Intel dans ses micro-ordinateurs lancés en 1981, faisant revenir le monde du PC à la situation initiale où les constructeurs de matériels achetaient leurs composants à des fournisseurs extérieurs. Cette spécialisation entre l'industrie des composants et celle des matériels dans le monde du PC a été confirmée aussi bien par la floraison des constructeurs qui utilisent les composants Intel que par l'apparition de fournisseurs de composants compatibles tels AMD ou Cyrix. Le point le plus remarquable est sans doute que, malgré les efforts d'IBM pour revenir sur le marché des composants pour PC, la domination d’Intel n'ait fait que se renforcer. Non seulement le monde du PC, mais aussi l’alternative Apple se conforme au même modèle en utilisant des processeurs construits par Motorola. C’est donc l’ensemble du monde des micro-ordinateurs qui repose sur l’utilisation de microprocesseurs fournis par des firmes spécialisées distinctes des constructeurs de matériel. L’exception – de taille – est IBM qui produit une grande partie des composants qu’elle utilise, sur la base d’accords de licence avec Intel. Par contre, le monde Unix a conservé la structure du monde traditionnel, chacun des principaux constructeurs (Sun, Hewlett-Packard, IBM, Digital Equipment, Silicon Graphics) utilisant son propre processeur. Il se trouve que dans leur majorité, ces constructeurs ont choisi d'utiliser pour leurs machines Unix des processeurs utilisant les concepts Risc (Reduced Instruction Set Computer). Dans chaque cas, la conception et la fabrication du processeur font l'objet d'un partenariat entre le constructeur de matériel et une ou plusieurs firmes spécialisées en micro-électronique. C'est ainsi que Motorola est associé à IBM, Hitachi à Hewlett-Packard, Texas Instruments et Fujitsu à Sun et Mitsubishi à Digital Equipment. Par ailleurs, autour de chaque processeur, se sont formés des consortiums regroupant des constructeurs de matériel qui utilisent ce processeur dans leurs machines. En ce sens, la structure industrielle attachée aux composants Risc, semblable au départ à celle du monde traditionnel, commence à présenter certains des traits du monde PC. Mais chaque constructeur majeur de matériel Unix continue néanmoins à considérer la possession d'un processeur original comme faisant partie de ses avantages concurrentiels. Dans les dernières années, un nombre croissant de constructeurs de matériels, généralistes ou spécialisés, offrent des systèmes construits à partir de composants du commerce, et certains constructeurs traditionnels comme NCR ou Unisys ont même abandonné la fabrication de composants pour utiliser ceux d’Intel. Ce mouvement semble représenter une tendance de fond que nous allons chercher à expliquer dans la suite de ce chapitre.

cxxii

Le segment et le secteur
Le tableau suivant donne la liste des 10 premiers fournisseurs de composants électroniques pour ordinateurs en 1992. La colonne « composants » donne leur chiffre d’affaires dans ce domaine en millions de $, et la colonne « semi-conducteurs » leur chiffre d’affaires total en composants électroniques, toutes applications confondues.
Tableau I Chiffre d’affaires des composants
composants Intel Motorola NEC AMD Hitachi Texas Instruments Mitsubishi Toshiba National Semiconductors Philips 4690 1464 1158 637 616 530 487 457 395 287 2108 semi-conducteurs 5064 4635 4976 637 3902 3052 2307 4765

Remarquons que, sauf pour Intel et AMD, les composants informatiques ne sont qu’une part minoritaire de la production totale de semi-conducteurs. On estime que pour 1992, le chiffre d’affaires total de l’industrie des semi-conducteurs a été de 59 milliards de $ (pour 130 milliards de composants électroniques), dont 27 milliards (45%) destinés aux ordinateurs. Ces 27 milliards se répartissent en 25% environ pour les microprocesseurs, 30% pour les mémoires et le reste pour les autres composants (puces spécialisées, cartes, …). Certains fournisseurs sont en même temps des généralistes de l’informatique comme Texas Instruments ou les japonais NEC, Hitachi et Toshiba, mais pour toutes ces firmes, les activités de production de composants et celles de construction d’ordinateurs sont gérées de façon totalement indépendante, sur le modèle du conglomérat et non sur celui des constructeurs généralistes intégrés. Rappelons aussi que plusieurs constructeurs d’ordinateurs fabriquent leurs propres composants, mais n’apparaissent pas dans ce tableau puisque leur production est réservée à leurs propres besoins et n’est pas commercialisée. Le plus important est bien sûr IBM, dont la production de composants est comparable en valeur à celle d’INTEL même si sa composition est assez différente, et qui se place donc dans les tout premiers. C’est aussi le cas de Digital Equipment, Hewlett-Packard, Sun et Silicon Graphics. Mais il faut noter que toutes ces firmes se sont alliées à des fournisseurs de composants plus spécialisés ou plus importants : IBM à Motorola pour son programme PowerPC, Digital Equipment à Mitsubishi, Hewlett-Packard à Hitachi, Sun à Fujitsu et Texas Instruments, Silicon Graphics à NEC. De plus, toutes ces firmes s’orientent vers la fourniture de leurs composants sur le marché.

cxxiii

Les problèmes techniques
Rappels de technologie
Les puces électroniques utilisées dans les ordinateurs sont de petits rectangles de silicium sur lesquels sont gravés des circuits. Les dimensions des cotés de ces rectangles sont de l'ordre de un à trois centimètres. Les circuits électroniques gravés sur la puce peuvent réaliser des fonctions de mémorisation et de traitement d’information. Certaines puces ne contiennent que de la mémoire, tandis que les microprocesseurs contiennent principalement des circuits de traitement, ainsi que la mémoire directement nécessaire au fonctionnement de ces circuits. Nous reviendrons plus loin sur cette différence entre les puces mémoire et les microprocesseurs, qui joue un rôle important dans la dynamique de l’industrie. La largeur des traits gravés sur le silicium, pour constituer par exemple un conducteur, caractérise un niveau de technologie. Les microprocesseurs récemment mis sur le marché ont une largeur de trait inférieure à 1 micron (µ), c'est à dire un millième de millimètre. Pour les puces les plus récentes, cette largeur est de l’ordre de 0.5µ. Il est difficile de se représenter ce que signifient ces dimensions. Imaginons qu’une puce comme le PowerPC soit agrandie de façon à permettre le passage d'êtres humains au lieu d'impulsions électroniques. Il faudrait pour cela remplacer les traits de 0.5µ par des sentiers de 1 mètre de large. La puce aurait alors la taille d’un carré de plus de 20 km de coté, et la distance moyenne entre deux sentiers voisins (la largeur des plates-bandes ou l’épaisseur des haies) serait de 6 mètres. La complexité de tels circuits est donc équivalente à celle d'un labyrinthe de couloirs de 1 m de large qui couvrirait totalement la région parisienne selon une grille de 6 mètres sur 6, et sur 4 à 6 niveaux. Cette complexité contribue à expliquer l'importance des dépenses de recherche et développement nécessaires à la conception des microprocesseurs. La finesse de gravure des traits et l’écartement entre deux traits voisins déterminent la densité des circuits. Elle est limitée principalement par trois facteurs : –les lois de la propagation des électrons dans les solides, qui pour de très faibles distances font intervenir des phénomènes quantiques encore mal connus, –les phénomènes de rayonnement et d’interférence électromagnétique entre circuits voisins, –la précision des techniques de photolithogravure utilisées pour la fabrication. Avec les technologies actuelles, une puce typique contient 4 millions de bits de mémoire, ou environ 3 millions de transistors pour les microprocesseurs. Avec une largeur de trait de 0.35µ, les puces mémoire de la prochaine génération contiendront 16 millions de bits, et les microprocesseurs une dizaine de millions de transistors. Les limites théoriques sont encore lointaines puisqu'on sait aujourd'hui faire fonctionner en laboratoire des éléments de quelque nanomètres (millionièmes de millimètre) soit 100 fois plus fins que les circuits actuels du commerce, donc potentiellement 10000 fois plus denses. Au niveau de la fabrication, on commence à maîtriser en laboratoire les techniques qui permettront de graver industriellement des

cxxiv

circuits de 0.1µ, ce qui représente l’horizon actuel des techniques de fabrication et annonce des puces à 256 millions de bits ou plus de 100 millions de transistors. Les performances globales de la puce sont déterminées d’une part par son architecture, d’autre part par la vitesse d'horloge, qui détermine le nombre de changements d'état des composants actifs par unité de temps. L’architecture d’une puce, qui définit en particulier le répertoire d’instructions qu’elle sait reconnaître et exécuter, influe aussi sur ses performances à travers les facteurs suivants : –la quantité d'information qui circule en parallèle entre les différents blocs fonctionnels de la puce (32 bits pour la plupart des puces courantes, 64 bits pour les plus modernes), –la quantité d'information qui circule en parallèle entre la puce elle-même et le reste de l'ordinateur, et qui peut être différente de celle qui circule à l'intérieur, –la possibilité d'exécution simultanée de plusieurs opérations à l'intérieur de la puce. Une puce est dite « superscalaire » si elle contient plusieurs unités de traitement capables d’exécuter en parallèle des instructions différentes, et « pipeline » si les étapes successives d’une même instruction sont exécutées par des unités différentes, ce qui permet à plusieurs instructions successives d’être simultanément en cours d’exécution. Ces deux approches peuvent se combiner dans une même puce. Une puce, définie par son architecture et sa technologie, peut fonctionner à des vitesses d'horloge différentes. La vitesse maximale est limitée par les possibilités d'évacuation de la chaleur dégagée par la puce. En effet, comme dans tout conducteur, la circulation de l'électricité produit de la chaleur. Plus la densité des circuits et la vitesse d'horloge sont élevées, plus le dégagement calorifique par unité de surface est grand (certains circuits actuels rayonnent autant qu'un matériau chauffé à 1200°C, soit 6 fois plus qu'une plaque de cuisson). Il est possible de diminuer le dégagement calorifique et la consommation en réduisant la tension de fonctionnement, mais ceci diminue également l’intensité des signaux et il faut alors veiller à ce que ceux-ci puissent être distingués du bruit électronique présent dans les circuits. Les puces les plus récentes fonctionnent sous une tension de 3.3 volts contre 5 volts pour la génération précédente. La réduction progressive des tensions de fonctionnement est une constante de l’évolution technologique. Une puce donnée peut fonctionner dans une assez large plage de vitesses. Plus que de la puce proprement dite, la vitesse d’horloge maximale est directement fonction de la capacité d’évacuation de la chaleur, qui dépend elle-même de l’environnement dans lequel la puce est destinée à fonctionner. Un ordinateur portable ne peut comporter aucun dispositif particulier d’évacuation de la chaleur, et les puces qui lui sont destinées ne pourront pas dépasser une certaine densité et une certaine fréquence. Au contraire, un gros ordinateur peut contenir un dispositif de refroidissement très puissant qui autorise les densités et les fréquences d’horloge maximales pour la technologie électronique considérée.

cxxv

La fabrication des puces
Pour fonctionner correctement, une puce ne doit pas comporter de défauts susceptibles de perturber le déplacement des impulsions électriques. A l'échelle humaine que nous avons utilisée ci-dessus, les hôtes de notre labyrinthe s'y déplaceraient à 600 mètres par seconde et ne devraient rencontrer aucun obstacle susceptible de les gêner dans les couloirs larges de 1 mètre. Autrement dit, la qualité de fabrication des puces électroniques actuelles doit être la même que celle d'une surface de 20 km de côté où ne subsisterait aucune irrégularité supérieure à quelques dizaines de cm. Ceci impose que la production des composants se déroule en atmosphère extrêmement purifiée. Le cycle de production commence par la fabrication d’un cristal cylindrique de silicium pur à partir de silicium fondu. Les techniques actuelles permettent d’obtenir des cylindres de 20 cm de diamètre et 1,5 mètre de long. Ce cylindre est ensuite découpé en tranches d’environ un demi-millimètre d’épaisseur, sur chacune desquelles seront fabriquées simultanément de nombreuses puces identiques. Sur la tranche de silicium, les circuits sont formés d’un certain nombre de couches, (typiquement entre 5 et 15) portant chacune un dessin particulier réalisé avec une substance chimique particulière (dopant ou conducteur métallique). Chacune de ces couches est créée en un cycle comprenant quatre opérations principales : dépôt d’une résine photosensible, photolithographie, gravure et dopage. Les tranches sont ainsi soumises à une série de traitements chimiques et thermiques successifs permettant de graver les motifs correspondants aux différents niveaux et aux différents réactifs utilisés dans la fabrication, et de déposer les substances constituant les circuits. Ce processus utilise une succession de masques, qui doivent être positionnés avec une exactitude cohérente avec la dimension des circuits eux-mêmes, c’est à dire au dixième de micron près. La fabrication exige donc des équipements permettant des positionnements stables à des précisions inférieures au micron, enfermés dans des salles anti-vibrations ellesmêmes construites dans des bâtiments antisismiques. Les réactifs utilisés, en général sous forme gazeuse, sont nombreux, souvent toxiques, et doivent eux-mêmes être exempts de toute impureté de taille supérieure à 0.2µ. C’est dire que leur circulation exige des systèmes très particuliers. A l'issue du processus, chaque puce est testée individuellement afin de marquer et d’éliminer ultérieurement celles sur lesquelles figurent des défauts dus aux imperfections du silicium ou du processus de fabrication. La tranche est alors découpée en puces, les puces défectueuses sont éliminées et les puces satisfaisantes sont munies de leurs connecteurs et enrobées de résine protectrice. Le pourcentage de puces satisfaisantes, ou rendement, est la principale mesure de la qualité du processus. Habituellement faible au début de la production, il peut ne se stabiliser à un niveau acceptable qu'après de nombreux mois.

cxxvi

Economie de la production
Les déterminants de la performance et des coûts
Lorsqu’ils conçoivent une nouvelle puce, les fabricants cherchent évidemment à obtenir la meilleure performance au moindre coût. Or le prix de revient d’une puce est en gros proportionnel à sa surface et inversement proportionnel au rendement du processus de fabrication. Par contre, ce prix de revient est à peu près indépendant du contenu fonctionnel de la puce : en dehors des coûts de développement, le prix de revient d’une puce de 16 Mégabits est à peu près le même que celui d’une puce de 4 Mégabits, et le coût d’un processeur est le même pour 3 millions de transistors que pour 1 million, en supposant bien entendu la même surface et le même rendement. Le coût par fonction (par bit de mémoire ou par fonction logique) est donc d’autant plus faible que la densité est grande. C’est ce mécanisme qui explique la recherche de densités sans cesse plus élevées et, par voie de conséquence, la baisse continuelle des coûts du traitement de l’information, au rythme de 20% par an. La dimension des puces résulte principalement d’un arbitrage entre le rendement d’une part, le contenu fonctionnel et les considérations pratiques de conditionnement d’autre part. Plus une puce est grande, plus elle peut être riche en fonctions et plus le coût par fonction peut être faible. A l’inverse, le rendement du processus est en gros inversement proportionnel à la probabilité de trouver un défaut sur une puce, qui étant donnée l’origine des défauts est elle-même proportionnelle à la taille de la puce. Supposons par exemple que chaque tranche de silicium contient en moyenne après traitement 5 petits défauts répartis au hasard. Si on a fabriqué sur cette tranche 100 puces identiques de 1 cm de coté, cinq au maximum contiennent chacune un défaut et devront être éliminées, et le rendement sera donc de 95%. Si on avait fabriqué sur cette même tranche 10 puces de 4 cm de coté, il est toujours probable que 5 d’entre elles contiendraient un défaut, et le rendement ne serait plus que de 50%. Incidemment, si on voulait utiliser toute la tranche pour un seul composant géant, on n’en réussirait qu’un de temps en temps et de manière non prévisible. Ce phénomène pousse à produire des puces de petites dimensions. Mais, quelle que soit la densité des circuits, il est impossible de réduire les dimensions des puces en dessous de certaines limites. Leur raccordement au monde extérieur, en l’occurrence le reste de l’ordinateur, se réalise en effet à travers quelques centaines de connecteurs (typiquement entre 200 et 500) qui doivent trouver leur place sur la puce, et lui imposent une dimension minimale qui varie suivant le nombre de connecteurs et la technologie de raccordement utilisée. De plus, ce nombre de connecteurs croît avec le nombre de bits traités en parallèle, et plus généralement avec la richesse fonctionnelle de la puce. Dans la pratique, ceci explique que la taille des puces se situe entre un peu moins d’un centimètre et environ 2.5 cm de coté, et que ces dimensions aient peu de chances d’évoluer considérablement quoi qu’il arrive. Le progrès des technologies électroniques se traduit donc d’abord par une croissance du contenu de chaque puce, en capacité de mémoire et en nombre de fonctions logiques, et subsidiairement par des vitesses de commutation plus rapides et la possibilité d’opérer à des tensions faibles. L’enrichissement fonctionnel des puces

cxxvii

logiques peut se traduire par des performances accrues sous réserve d’une architecture appropriée. Ce sont les technologies annexes de refroidissement qui déterminent pour chaque niveau de technologie électronique les vitesses d’horloge possibles et donc les performances réelles de la puce dans un environnement donné.

Mémoire et logique
Il existe entre les puces mémoire et les puces logiques ou microprocesseurs des différences fondamentales qui ont des implications industrielles importantes. Alors que de nombreux circuits sont actifs simultanément sur une puce logique, une toute petite partie d'une puce mémoire est active à un instant donné. Un processeur présente donc un plus grand risque d’interférences entre circuits voisins et un dégagement calorifique plus élevé que celui d’une puce mémoire de même technologie et de même vitesse. Pour une même largeur de trait, la densité des circuits et la vitesse de commutation peuvent être plus élevées pour une puce mémoire que pour une puce logique. A titre d’exemple, la même technologie 0.5 microns est utilisée pour des processeurs comme le PowerPC de 2.8 millions de transistors et pour des puces mémoire de 16 Mégabits. En ne comptant qu’un transistor par bit, la densité de la puce mémoire (1 cm sur 2) est de 80000 transistors par mm 2 alors que celle du processeur est d’environ 20000 transistors par mm2. Une puce mémoire remplit une fonction simple, celle de stocker et de restituer sur demande des informations représentées par des éléments binaires. Au plan fonctionnel, deux puces mémoire de générations ou de technologies différentes ne se distinguent que par leur capacité et leur vitesse. La structure d’une puce mémoire est donc hautement répétitive et relativement stable d'une génération à l'autre, ce qui limite les efforts et les coûts de conception. De plus, le test d’une puce mémoire est une opération relativement simple et presque identique d’une génération à l’autre. Au contraire, les puces logiques réalisent des fonctions complexes et variables d’une puce à l’autre. Chaque nouvelle technologie impose le développement d’une nouvelle puce, car il serait sans intérêt de se borner à fabriquer la même puce en plus petit. Chaque saut technologique permet en gros de placer deux à trois fois plus de transistors par puce. Or une puce logique contenant trois fois plus de transistors que la précédente ne peut pas en être dérivée de façon simple, mais implique une nouvelle architecture. La nature même des puces logiques demande des programmes de test très complexes, qui devront être refaits pratiquement ex nihilo à chaque génération. Pour toutes ces raisons, les puces mémoire sont plus simples à concevoir et plus faciles à fabriquer que les puces logiques. Dès que la R&D technologique permet de fabriquer des puces d’une densité correspondant à une nouvelle génération, la technologie peut être utilisée dans des puces mémoire qui sortiront les premières sur le marché. Utiliser cette même technologie pour des puces logiques demande des investissements et un délai supplémentaire pour concevoir les microprocesseurs et construire le système de support au développement et les procédures de test. Ce délai est également utilisé pour qualifier complètement la technologie et résoudre les problèmes de fabrication et de rendement. Les mémoires peuvent ainsi être constamment en avance

cxxviii

d'une génération technologique par rapport aux processeurs, si bien que l’évolution à court terme des microprocesseurs peut facilement être prédite à partir de celle que l’on observe dans le domaine des mémoires, le décalage temporel étant d’environ deux ans. On commence par exemple à voir sortir des lignes pilotes des puces mémoire à 64 Mégabits, avec une largeur de trait de 0.35 microns, dont la densité est supérieure à 300000 transistors par mm2. Compte tenu de la plus faible densité des processeurs, cette technologie permettra en 1996 de produire des puces de plus de 8 millions de transistors pour la taille du PowerPC, et de 25 millions aux dimensions du Pentium. Cette situation permet également aux fabricants de mémoires d’offrir l’utilisation de leurs lignes de production à des firmes spécialisées dans les microprocesseurs, mais qui se contentent de les concevoir et de les faire fabriquer par des tiers. Ces firmes « fabless » (sans fabrication) peuvent ainsi limiter leurs investissements à la R&D nécessaire à la conception du processeur, et faire apparaître la totalité des coûts de fabrication comme des coûts variables.

La formation des coûts
Un trait fondamental du métier des composants est l’énormité des investissements de production. Les lignes de production combinent en effet des matériels de très haute précision faisant appel à des technologies de pointe, implantés dans conditions exceptionnelles en termes d’environnement, qu’il s’agisse de la pureté de l’atmosphère, de la stabilité physique des installations, de la circulation des fluides ou du contrôle des températures. Une ligne de fabrication de puces avec les technologies actuelles coûte entre 600 et 800 millions de $. Soulignons qu’il s’agit là de l’unité de production industrielle élémentaire, en ce sens qu’une ligne de production moins coûteuse n’est pas concevable, ou entraînerait des coûts unitaires de production prohibitifs. La capacité d’une telle ligne élémentaire est d’environ un million de puces par mois. Or les générations se succèdent à intervalles de deux ans et demi à trois ans. Depuis le milieu des années 80, le coût d’une ligne de production a augmenté de plus de 50% à chaque génération technologique, et on s’accorde à penser que cette tendance va continuer, faute d’une révolution dans les procédés, qui n’est pas actuellement en vue. On sait déjà qu’une ligne de mémoires 64 Mégabits, qui seront sur le marché vers 1996, ou de microprocesseurs de technologie équivalente qui apparaîtront en 1997/98, coûtera notablement plus d’un milliard de $. Toshiba estime par exemple que la taille idéale d’une usine de composants représente un investissement de près de 3 milliards de $ (300 milliards de yen) pour une production annuelle de même valeur. En revanche, les matières premières sont soit bon marché comme le silicium qui revient à environ 70$ le kilo sous forme pure, soit consommées en très faible quantité dans chaque puce. On estime que le coût total des matières premières, des réactifs et des fluides utilisés par la production des semi-conducteurs, y compris celle des masques, est de l’ordre de 13% de la valeur de la production. La production utilise peu de personnel, et les coûts salariaux, dans la mesure où il est légitime de les considérer comme des

cxxix

frais variables, sont relativement faibles . Le coût marginal de production de chaque puce, c’est à dire le coût supplémentaire encouru pour produire une puce de plus, est au total de l’ordre de 50 $ en moyenne, tous types de puce confondus.
35

Nous avons vu que plusieurs dizaines ou centaines de puces identiques sont fabriquées simultanément sur chaque tranche de silicium, les puces défectueuses étant éliminées en fin de fabrication. Le coût marginal par tranche est en gros proportionnel à la surface de la tranche, quel que soit le contenu de celle-ci. Le coût par puce est donc inversement proportionnel au nombre de puces par tranche d’une part, au rendement d’autre part. Sous réserve que les problèmes de rendement aient été résolus, le coût marginal d’une puce ne dépend donc que de sa surface et non de son contenu. Accroître la densité des circuits permet donc d’en réduire le coût par fonction, et à densité et contenu égaux une puce est d’autant moins chère qu’elle est petite. Par exemple, le coût marginal du PowerPC (environ 100 mm2) est trois fois plus faible que celui du Pentium (environ 300 mm2). Mais il faut rappeler que cette différence n’a qu’une signification limitée, le coût variable de production ne représentant qu’une faible part du coût moyen et du prix de vente. Les coûts de recherche et développement couvrent non seulement la conception de la puce, mais aussi la R&D sur les technologies, le développement des procédés de fabrication, et le coût de la ligne pilote. Ces coûts ont été estimés par Intel à 500 millions de $ pour le processeur 486 et 750 millions pour le Pentium. Pour les mémoires, le tableau suivant donne les estimations de Siemens en millions de $, aussi bien pour la R&D (colonne 2) que pour la production (colonne 3). Ces chiffres sont cohérents avec ceux qui sont donnés ci-dessus, compte tenu du fait que les investissements de production prévus par ce fabricant comprennent plusieurs lignes élémentaires. Tableau II Coûts fixes de production des mémoires
R&D 64Kb 256Kb 1Mb 4Mb 16Mb 64Mb 120 400 350 380 510 1000 production 190 180 1300 1600 3700 6000 1985 1988 1990 1993 1996 introduction

Il convient enfin de noter que tous ces investissements sont par définition irrécupérables (« sunk costs » en anglais), c’est à dire qu’ils perdent toute valeur en cas de cessation de la production ou de passage à une nouvelle technologie.

35 Il serait plus logique de considérer les frais de personnel comme des coûts fixes récupérables, dans la mesure où les effectifs sont peu sensibles au volume produit, mais les coûts correspondants peuvent être annulés en cas de cessation totale de la production.

cxxx

Concurrence, prix et parts de marché
Traduisons en termes économiques les particularités de la production des composants micro-électroniques à très haut niveau d’intégration, que nous venons de décrire.

Configuration générale du secteur
Comme nous l’avons vu au Chapitre 6, le secteur des composants est un secteur concentré caractérisé par des obstacles à l’entrée très élevés. On peut penser a priori que peu d’entreprises peuvent consentir les niveaux d’investissements ci-dessus, et que donc un tout petit nombre de firmes sera présent. L’échelle économique de production est au moins égale à la production annuelle d’une ligne, qui est de l’ordre de 1 million de puces par mois soit 12 millions par an, ce qui est de l’ordre du quart du marché mondial. L’estimation de Toshiba citée plus haut, qui s’applique à des technologies de production plus récentes, porterait même cette échelle aux alentours de 30 millions de puces par an. De plus, les investissements de R&D sont eux-mêmes importants, et il reste donc possible de réaliser des économies d’échelle en juxtaposant des lignes de production de la taille ci-dessus. Dans toute la gamme des valeurs raisonnables de la production totale, les coûts unitaires moyens sont indéfiniment décroissants, et dans ce cas la théorie économique conclut même à la formation d’un monopole. Il semble que des ratios de cet ordre sont exceptionnels dans les autres industries, surtout en ce qui concerne la relation entre l’échelle économique de production et la taille totale du marché. A titre de comparaison, une étude de la taille efficace des appareils de production réalisée en 1975 situe cette taille en dessous de 3% du marché des USA pour presque toutes les industries, le maximum étant inférieur à 15% de ce marché. En dehors du monopole strict, la littérature économique a peu étudié des cas aussi extrêmes de concentration, ce qui nous oblige à admettre d’avance que nos conclusions ne sont pas nécessairement généralisables à d’autres situations.
36

Or la structure réelle du secteur des microprocesseurs est celle d’un oligopole asymétrique formé d’une demi-douzaine de firmes de tailles très inégales. En prenant comme base l’ensemble des architectures, les parts de marché des trois premiers sont respectivement 81%, 10% et 5%. Si on se limite aux compatibles Intel, les trois premiers occupent 93%, 6% et 1% du marché. En même temps, ce secteur est le lieu d’une concurrence sévère par les prix, et d’une poursuite continuelle des investissements aboutissant au renouvellement des produits selon une périodicité de l’ordre de 2 ans, avec à chaque fois des améliorations spectaculaires du ratio performances/prix. Donc, si ce secteur est proche d’un monopole par la distribution des parts de marché, il est très éloigné du monopole classique par la virulence de la concurrence qui y règne.

36 Scherer et al : The Economics of Multi-Plant Operation, an international comparison study (Harvard University Press, 1975)

cxxxi

Remarquons également que cette structure sectorielle caractérisée par des parts de marché très inégales, avec un offreur dominant dépassant les 60%, est en réalité très répandue. Elle caractérisait l’ensemble de l’informatique, qui formait alors un secteur unique, jusque dans les années 80. Elle se rencontre encore aujourd’hui dans le cas des progiciels système et des grands utilitaires. Plusieurs auteurs avaient déjà constaté que, dans de nombreux secteurs, les configurations stables se caractérisent par des parts de marché très différentes, et recherché une explication économique à ce phénomène, sans toutefois aborder de cas aussi extrêmes. Notons au passage que cette situation ne s’explique pas par la théorie des « monopoles contestables ». Baumol et d’autres auteurs ont montré que si les barrières à la sortie sont faibles, par exemple si les investissements consentis pour l’entrée peuvent être récupérés en cas de sortie, la simple menace d’entrée de nouveaux concurrents suffit à faire tendre les prix vers ceux qui résulteraient d’une concurrence pure et parfaite. Or ici les coûts fixes sont non seulement très élevés, mais irrécupérables (« sunk » en anglais) dans la mesure où ils sont encourus même si la firme décide de cesser la production . Les actifs auxquels correspond l’essentiel des coûts fixes n’ont en effet pas de valeur hors de leur utilisation pour la production de composants, et il est peu probable qu’un concurrent les rachèterait en cas d’arrêt. Ces coûts irrécupérables constituent de réelles et sévères barrières à l’entrée et font que les composants ne forment pas un marché contestable. Il devrait donc se présenter comme un monopole naturel, ou du moins tendre rapidement vers une situation de monopole.
37

Il est difficile de croire qu’un phénomène aussi fréquent n’a pas une solide explication économique, plus convaincante en tous cas que la thèse classique de Gibrat selon laquelle l’inégalité des parts de marché est simplement le fruit du hasard . En effet, les simulations de l’« effet Gibrat » conduisent à des parts maximales de l’ordre de 40% après plus de 100 ans, alors que dans notre cas la part du leader est très supérieure, et que la distribution inégalitaire s’établit en quelques années.
38

Or il semble que tout se passe comme si le processus d’évolution vers le monopole s’arrêtait en cours de route pour laisser plusieurs firmes secondaires subsister durablement à côté de l’offreur dominant, entretenant ainsi une concurrence assez vive pour se traduire à la fois par des prix bas et des investissements importants. Nous allons essayer de montrer que ce type de configuration sectorielle est lié aux caractères spécifiques du secteur que sont le rapport des coûts fixes aux coûts variables et la durée du cycle des produits, et caractérise les secteurs fortement concentrés.

Echelle de production et rationalité limitée
L’échelle optimale de production est-elle vraiment infinie, c’est à dire égale par définition à la taille du marché ?
37

Un exemple contraire est celui d’une liaison aérienne dont les actifs fixes, comme les avions, peuvent être réutilisés sur d’autres liaisons en cas de fermeture de cette ligne.
38 On montre que si une population d’entreprises initialement égales évolue chaque année selon des taux de croissance individuels distribués de façon aléatoire autour d’une valeur moyenne, leurs tailles tendent vers une distribution inégalitaire.

cxxxii

Remarquons que la définition de l’échelle optimale de production dans la théorie classique repose sur l’hypothèse que les firmes exploiteront complètement toute possibilité de réduire le coût moyen de production à travers l’augmentation des quantités produites, tant que la baisse des prix de vente reste inférieure à la réduction attendue des coûts, et cela aussi minime que soit la différence. Il n’est pas évident que, dans le monde réel, les industriels raisonnent de cette façon. Le comportement postulé par les économistes supposerait que d’une part la relation entre les coûts et les quantités soit connue avec certitude, et d’autre part que les producteurs décident de simultanément baisser leurs prix et d’augmenter leur capacité de production au prix de lourds investissements. Or dans la réalité la relation entre volumes de production et coûts n’est pas connue avec certitude, et encore moins la relation entre les prix et les quantités réellement vendues, surtout en situation concurrentielle. Il est donc plus vraisemblable que les offreurs agissent avec plus de prudence et ne s’engagent dans une baisse de prix que si le bénéfice qu’ils peuvent en attendre est suffisamment certain. Vu du coté de la demande, il est clair que lorsque l’écart de prix entre deux produits substituables est faible, les autres facteurs de choix deviennent relativement plus importants. Par exemple, un écart de prix inférieur à 15% n’est pas nécessairement déterminant s’il existe d’autres facteurs de différenciation entre les produits. A ce niveau, les offreurs chercheront à se différencier par d’autres caractéristiques ou à pousser les volumes par des actions telles que la publicité plutôt que par la baisse des prix. Le comportement équivalent en termes de coût consiste à ne rechercher une réduction de coûts par des quantités accrues que si cette réduction est suffisante. En simplifiant, on peut considérer que le coût moyen est égal à la somme du coût variable, supposé constant, et du quotient des frais fixes par la quantité. A partir du moment où ce deuxième terme est inférieur à un certain seuil, disons 10% du coût variable, le potentiel de réduction de coût qui subsiste est au maximum égal à ces 10%. En avenir incertain, il est peu probable que les offreurs s’engagent dans des programmes d’action (et donc de dépenses) visant à réduire encore le coût moyen en augmentant les volumes. Appelons R le rapport des frais fixes au coût variable unitaire. Si le nombre d’unités produites est égal à R, la part des frais fixes dans le coût moyen est exactement égale au coût variable unitaire, et le potentiel de réduction par des volumes accrus est de 50%. Si par contre le nombre d’unités produites est égal par exemple à dix fois R, la part des frais fixes dans le coût moyen est égale au dixième du coût variable unitaire, soit au onzième du coût moyen, et le potentiel de réduction par le volume n’est plus que de 9%. Dans le cas des coûts variables constants, nous pouvons donc remplacer la notion d’échelle optimale de production par celle d’échelle économique de production, qui se mesure par un petit multiple (entre trois et cinq) du rapport des coûts fixes au coût variable unitaire. Dans le cas des composants dont la durée de vie commerciale est de l’ordre de quelques années, l’échelle économique annuelle de production est ainsi du même ordre de grandeur que le rapport des coûts fixes au coût variable unitaire. Nous avons vu que pour la fabrication des composants, sans même tenir compte des dépenses de R&D, les coûts fixes s’élèvent à 600 à 800 millions de $ pour une ligne

cxxxiii

de production, et que les coûts variables sont environ 50 $ par puce. Le rapport des coûts fixes aux coûts variables unitaires, et donc l’échelle économique annuelle de production se situe donc entre 10 et 20 millions, ce qui nous l’avons vu peut être considéré comme l’ordre de grandeur de la production annuelle requise pour que le coût moyen devienne pratiquement insensible au volume vendu.

Chronologie des coûts et des prix
Pour une génération de microprocesseurs, la chronologie des décisions est la suivante. La firme productrice engage un effort de développement qui fixe les caractéristiques fonctionnelles et physiques du produit ainsi que ses performances, puis elle construit les moyens de production nécessaires. Ces phases préliminaires durent deux à quatre années, au cours desquelles la firme accumule des dépenses qui constituent des frais fixes irrécupérables. Lorsque l’appareil de production est opérationnel, le produit est lancé sur le marché et l’offreur lui attache un prix de vente. Le marché et la concurrence déterminent alors les quantités vendues, et donc les coûts moyens et l’équilibre général du programme. En réponse au marché, l’offreur peut agir sur les prix de vente, et dans une mesure limitée sur la part variable des coûts de production. Mais le produit lui-même ainsi que les coûts fixes, la capacité de production et le niveau des coûts variables unitaires sont devenus intangibles. Autrement dit, dès qu’un microprocesseur a été introduit sur le marché, la seule variable sur laquelle l’offreur peut agir à court terme pour lutter contre la concurrence est le prix. Agir sur les caractéristiques du produit, ou modifier significativement ses coûts, nécessite un nouvel effort de développement qui ne portera ses fruits éventuels qu’au bout de plusieurs années et au prix de nouvelles dépenses irrécupérables. L’analyse économique montre que, contrairement à une idée courante, les prix de vente des biens ne sont pas directement déterminés par leur prix de revient, mais par le marché. Certes, les mécanismes du marché eux-mêmes tendent à rapprocher ce prix du coût marginal, mais du point de vue de chacun des offreurs, le prix de marché est déterminé par le jeu de la concurrence, et il lui appartient d’ajuster ses coûts afin qu’ils restent inférieurs aux prix de vente et permettent de dégager un profit. Dans un secteur comme les composants, où les coûts sont essentiellement formés de coûts fixes irrécupérables, l’indépendance des prix par rapport aux coûts est encore plus marquée que dans tout autre. Supposons en effet que s’engage une guerre des prix se traduisant par une baisse continuelle. Chacun des offreurs a intérêt à continuer à produire tant que le prix de vente reste supérieur au coût marginal de production , qui forme ainsi un le plancher en dessous duquel les prix ne sauraient descendre. Une telle conduite semble suicidaire, car les offreurs ne pourraient plus financer les investissements nécessaires à la génération suivante. Elle pourrait néanmoins apparaître si certains acteurs estimaient avoir accumulé des profits suffisants pour financer leurs nouveaux développements et voulaient accroître leur part de marché, ou encore si certains acteurs renonçaient à investir et espéraient maximiser leur revenu résiduel en
39

39 En toute rigueur, jusqu’à ce que son revenu, qui est égal au produit du prix unitaire par la quantité vendue, couvre le total des coûts variables et des coûts fixes récupérables.

cxxxiv

augmentant leur part de marché. En tout état de cause, la valeur de cette limite basse des prix est très faible : quelques dizaines de dollars pour les puces électroniques. Bien que ceci soit connu des économistes et d’un grand nombre de chefs d’entreprise (mais pas tous...), il faut insister sur le fait le niveau des coûts fixes n’intervient pas dans ce raisonnement, dans la mesure où ils sont irrécupérables. Au moment où l’entreprise doit prendre ses décisions quant au prix des produits, rien ne peut plus empêcher que ces coûts aient été encourus ni en modifier le niveau. L’entreprise souhaite certes ardemment que ces coûts soient couverts par le revenu, mais si la concurrence établit le prix à un niveau insuffisant, elle a quand même intérêt à vendre à ces prix tant qu’ils restent supérieurs au coût marginal de production. Autrement dit, les coûts fixes irrécupérables n’apparaissent dans la fixation des prix que comme l’expression d’un souhait, et peuvent donc être éliminés du raisonnement opérationnel.

Répartition du marché et prix de survie
Une particularité du marché des microprocesseurs est que sa taille globale, autrement dit le nombre d’unités vendues, est peu sensible aux prix pratiqués. En effet, le microprocesseur ne représente qu’environ 10% du prix de vente d’un microordinateur et les puces mémoire un pourcentage comparable. Si même le prix des microprocesseurs était nul, ceci ne permettrait qu’une réduction de 10% du système complet, et les volumes vendus n’en seraient que peu affectés. A l’inverse, le prix des processeurs pourrait doubler ou même tripler sans que les ventes d’ordinateurs, et donc le nombre de processeurs vendus, ne soient réduites dans les mêmes proportions. Il en résulte que malgré le caractère hautement concentré du secteur et l’existence d’un fournisseur dominant, la formation des prix des microprocesseurs n’obéit pas, même de loin, à la logique classique du monopole. Celle-ci stipule en effet que les offreurs fixent les prix au niveau qui maximise leur revenu total, c’est à dire le produit du prix unitaire par le volume. Or, s’ils pouvaient s’entendre sur une telle stratégie, les fournisseurs de composants auraient intérêt à fixer les prix à un niveau au moins cinq ou six fois plus élevé que les niveaux actuellement pratiqués, car leur volume de ventes total n’en serait certainement pas réduit dans les mêmes proportions, et donc leur revenu serait supérieur. La formation des prix dans ce secteur résulte donc entièrement de la concurrence entre fournisseurs pour les parts d’un marché dont la taille totale est pratiquement indépendante de leurs actions. Dans une telle lutte, tout ce qui est gagné par l’un est obligatoirement perdu par un autre, ce qui augmente la probabilité de réaction de l’offreur dominant à une attaque de ses challengers. Au total, personne n’a intérêt à engager ou à poursuivre trop longtemps une guerre des prix qui aboutirait vraisemblablement à une baisse des profits pour tous les acteurs, voire à la disparition de certains d’entre eux. On peut faire l’hypothèse que tous les acteurs en sont conscients, et qu’ils éviteront de s’engager dans cette voie suicidaire sans qu’il soit besoin pour cela de collusion ou d’entente illicite.

cxxxv

Une configuration où quelques firmes se partageraient le marché en parts voisines ne peut pas être stable. Dans un tel cas, chacun des offreurs opère à une échelle trop faible pour réaliser toutes les économies d’échelle possibles, et il s’en trouvera au moins un pour tenter d’augmenter ses volumes en agissant sur le prix, ce qui entraîne une concurrence vive. Or, s’agissant par hypothèse d’un secteur où les coûts variables sont faibles par rapport aux prix de vente, un faible avantage de volume procure des ressources supplémentaires importantes. Leur bénéficiaire peut ou bien en sacrifier une partie pour baisser les prix et accroître encore l’avantage de volume, soit les consacrer à rechercher d’autres avantages à travers des améliorations du produit ou des services associés, ou des actions de promotion. Tout avantage de taille est ainsi un avantage concurrentiel qui peut être exploité pour accroître encore la taille. Une répartition équilibrée des parts de marché dans un secteur concentré est donc instable. Au contraire, si les parts de marché sont très différentes, ceux qui jouissent de grandes parts seront moins enclins à les augmenter encore en baissant les prix. Tous les auteurs s’accordent d’ailleurs à penser que le leader d’un secteur n’a généralement pas intérêt à en détenir 100% en éliminant totalement la concurrence. Quant aux concurrents qui n’ont que de faibles parts de marché, et sont de ce fait tout juste viables, il est probable qu’ils hésiteront à prendre le risque de baisser encore leurs prix. La concurrence tendra donc à se modérer, les prix à se stabiliser, et la configuration deviendra stable. La théorie classique des oligopoles montre que, pour conserver leur part de marché et leur profit, le ou les offreurs dominants ont intérêt à fixer les prix au niveau du coût de production des offreurs secondaires (le « prix limite »), ce qui décourage les offreurs secondaires de chercher à augmenter leur part. On suppose que le coût de production des offreurs dominants est inférieur à celui des offreurs secondaires, et que donc les offreurs dominants réalisent un profit en vendant au prix-limite. Ce raisonnement ne tient pas explicitement compte des coûts fixes, qui sont intégrés dans le coût des offreurs secondaires et donc dans le prix-limite. Pour un secteur où les produits sont renouvelés tous les deux ans au prix d’investissements considérables, on comprend mieux le phénomène en disant que pour qu’une firme survive, le revenu qu’elle tire des produits courants doit payer les coûts variables, les frais commerciaux et de structure, et les investissements de R&D et de production nécessaires à la prochaine génération. Sur la base de ses volumes de vente actuels pour la génération courante et de ses estimations pour la suivante, chaque firme détermine plus ou moins consciemment le « prix de survie » qui lui permet de rester dans la course. Or les dépenses de recherche nécessaires pour développer une nouvelle puce, ainsi que le coût d’une ligne de production, sont en gros les mêmes pour toutes les firmes, et leur contribution au prix de survie est donc inversement proportionnelle à la part de marché de chaque firme. Le prix de survie des leaders est ainsi très inférieur à celui des firmes marginales. En cas de guerre des prix, les leaders auront donc la capacité de résister beaucoup plus longtemps et si nécessaire de réduire leurs prix à un niveau où ils survivront alors que les firmes marginales auront disparu.

cxxxvi

Quand la répartition des parts de marché correspond à une situation acceptable pour tous les acteurs, sans qu’elle soit nécessairement optimale pour chacun d’entre eux, le comportement décrit ci-dessus tend à perpétuer cette structure au moins le temps d’une génération technologique. Qui peut raisonnablement tenter de remettre en cause cet équilibre, en ayant une chance significative d’y parvenir, et comment peut-il s’y prendre ? Un éventuel candidat à l’entrée trouve par définition un marché déjà occupé et des prix déjà établis pour les produits existants. Pour avoir une chance de réussir, il doit ou bien offrir un produit nettement meilleur pour un prix voisin, ou un produit comparable pour un prix nettement inférieur, et même si possible conjuguer un avantage de prix avec une supériorité du produit. En même temps, il doit rendre facile la migration des utilisateurs actuels vers son produit. Or les produits en place sont le résultat d’investissements qui se chiffrent en centaines de millions de dollars. Quel que soit le génie du nouveau candidat, il est utopique de penser qu’il pourra offrir un produit supérieur pour un investissement très inférieur. Quant aux prix de marché, ils sont établis autour de quelques centaines de dollars par unité, ce qui est proche du coût de production moyen du moins bien placé des offreurs existants. Le candidat à l’entrée devrait donc vendre environ un million d’exemplaires de sa nouvelle puce pour en couvrir simplement les coûts de développement. Or pour prendre une place, il faudra soit dépenser plus soit vendre moins cher, et de toute façon supporter les coûts variables, des frais commerciaux et de gestion, des dépenses de publicité, … si bien que le point mort de l’entreprise atteint et dépasse rapidement le million d’exemplaires vendus. Devant cette équation, est-il raisonnable d’investir un milliard de dollars ou plus pour être capable de produire dans deux ou trois ans, si tout va bien, un produit dont on espère qu’il sera capable de concurrencer ceux que Intel, IBM/Motorola, Sun, Digital Equipment et Silicon Graphics auront mis entre temps sur le marché ? L’homme d’affaires avisé répondra que non et investira ses disponibilités dans d’autres entreprises. Cette situation, que Porter désigne comme un cas de « prix dissuasif à l’entrée » laisse prévoir qu’il n’y aura probablement plus de nouveaux entrants dans le secteur des microprocesseurs. Parmi les offreurs en place, le leader n’a pas intérêt à lancer une guerre des prix qui le rapprocherait encore d’une situation de vrai monopole et pourrait l’exposer aux foudres des pouvoirs publics et de la justice, et nous avons vu que les firmes marginales ne peuvent survivre qu’en profitant de prix suffisamment élevés. Pour pouvoir raisonnablement tenter de déstabiliser le leader, il faut posséder à la fois des volumes déjà assez élevés pour supporter une baisse de prix, et les ressources intellectuelles et financières propres à faire espérer le développement d’un produit supérieur. Il faut de plus que le challenger possède des avantages technologiques dans la production qui lui laissent penser que, pour les parts de marché qu’il peut raisonnablement espérer, son prix de survie sera voisin de celui du leader, voire inférieur. Cette combinaison de conditions ne peut se rencontrer que chez le numéro deux du secteur, à condition qu’il ait l’ambition affirmée de devenir le numéro un. On peut penser que tel est le cas du consortium PowerOpen formé entre IBM et Motorola.

cxxxvii

Les prix des composants
La formation des prix des composants traduit la concurrence d’un petit nombre d’acteurs pour les parts de marché, et ne peut être dissociée de la stratégie et de la tactique de ces acteurs. De plus, chaque acteur réagit aux actions des autres, et on peut donc s’attendre à ce que les prix évoluent dans le temps. Les décisions relatives aux prix viseront donc à optimiser l’économie du programme de production non seulement sur l’ensemble de sa durée, mais peut-être plus encore en deçà d’un horizon limité par l’incertitude quant aux réactions des concurrents et du marché, ainsi que par la possibilité pour la firme d’agir de nouveau sur ses prix. Enfin, si l’économiste peut se permettre de s’intéresser à l’équilibre global de programmes pluriannuels, le chef d’entreprise doit se soucier des comptes de chaque exercice et donc tenir compte d’effets comptables même si leur sens économique est contestable. Les coûts d’investissements consentis avant même le lancement du produit apparaissent dans le compte d’exploitation à travers des amortissements annuels qui sont soit constants, soit dégressifs. Or, au début de la vie commerciale d’un composant, les capacités de production comme la demande sont généralement limitées et le rendement des lignes de fabrication est encore faible, donc les quantités produites sont faibles. La conjugaison de ces deux effets conduit à un prix de revient moyen apparent très élevé au début et décroissant avec le temps, mais il ne s’agit que d’un effet comptable dû aux conventions d’amortissement adoptées et dépourvu de sens économique. Néanmoins, le prix de vente devra être élevé si l’entreprise veut présenter des comptes équilibrés. Heureusement, les performances du nouveau composant peuvent probablement justifier un prix supérieur à celui de ses concurrents existants, et cela d’autant plus que les coûts de transfert, c’est à dire les coûts de remplacement de l’ancien composant par le nouveau, sont faibles. Le prix le plus élevé envisageable est celui qui maximiserait le revenu total, c’est à dire tel qu’une augmentation de ce prix aurait pour effet de diminuer la quantité vendue d’un pourcentage supérieur au pourcentage de hausse de prix. Nous avons vu que le manque d’élasticité de la demande place ce prix maximal à un niveau nettement plus élevé que les prix actuellement pratiqués. Au total, l’intervalle dans lequel peuvent a priori se situer les prix unitaires des composants est très large, de quelques dizaines à quelques milliers de dollars. Dans la réalité, les prix observés s’échelonnent entre 100 et 1200 dollars, la majorité des microprocesseurs se plaçant entre 200 et 500 dollars. Un composant plus performant mais totalement compatible pourra être introduit à un prix élevé, alors que le prix d’un composant d’architecture nouvelle devra être suffisamment faible pour compenser les coûts de transfert. En tout état de cause, l’offreur aura tendance à fixer son prix initial au niveau le plus élevé auquel il pourra écouler toute la production courante, et à ne baisser son prix que dans la mesure nécessaire pour écouler une production supposée croissante. Le leader du marché adoptera naturellement une stratégie prudente de compatibilité et de prix élevés, tandis

cxxxviii

que le ou les challengers choisiront probablement une stratégie de conquête, donc des prix plus agressifs tout en se réservant une marge de réduction importante. Un exemple typique est le Pentium d’Intel, qui a été introduit sur le marché à près de 1500$ alors que son prédécesseur le plus proche, avec lequel il est totalement compatible tout en étant deux fois plus rapide, était vendu moins de 500$. Un an plus tard, le prix du Pentium est descendu aux alentours de 800$. Son véritable challenger stratégique le PowerPC d’IBM/Motorola, a été introduit à moins de 500$ pour une puissance analogue, mais il doit se conquérir un marché et ne peut se substituer simplement aux processeurs existants. Quoi qu’en disent les fabricants, ces prix et leur évolution n'ont que peu de chose à voir avec l'évolution du prix de revient, mais résultent d'une adaptation des prix à la demande du marché et aux actions de la concurrence. A partir de son niveau initialement élevé, le prix baissera aussi longtemps qu’un concurrent pensera qu’il a intérêt à fixer ses prix en dessous du prix courant, ce qui implique qu’il en attende un supplément de volume tel que son revenu total augmente. Nous avons vu que c’est justement ce processus qui conduit à une configuration stable du secteur, à un prix supérieur au coût marginal de production. De plus, ne peuvent survivre que les firmes qui tirent de leurs produits courants un profit marginal suffisant pour couvrir les investissements nécessaires à la génération suivante, le profit marginal étant défini comme la différence entre le revenu et les coûts variables de production. En pratique, les entreprises considéreront que leurs prix planchers sont largement supérieurs au coût marginal de production, s’écartant ainsi de la théorie économique. De toute façon, chaque génération deviendra obsolète et cessera d’être commercialisée avant que le prix atteigne son plancher, théorique ou pratique. Sous l’effet de la concurrence, les prix suivent une trajectoire qui les ferait tendre toujours vers une même valeur de l’ordre de 100 $, quelles que soient la richesse fonctionnelle, les performances et la technologie de la puce, si le progrès technologique ne permettait l’introduction d’une nouvelle génération qui fait repartir le cycle d’un niveau plus élevé avant que les prix n’atteignent le prix-limite. Dans la réalité, les prix des puces de la dernière génération s’échelonnent actuellement entre 1500 et 400 $, plage qui se restreindra probablement à un intervalle de 600 à 300 $ par suite de l’action du consortium PowerOpen. Les puces des générations précédentes, qui restent utilisables pour des systèmes d’entrée de gamme ou des applications particulières, valent entre 100 et 300 $.

Concepteurs et fondeurs
Dans ce qui précède, nous avons raisonné comme si tous les offreurs intégraient toutes les étapes depuis la R&D jusqu’à la fabrication. En réalité, certains ne font que concevoir et commercialiser des microprocesseurs dont ils confient la fabrication à des tiers. Ces derniers, généralement producteurs de puces mémoire, consentent les investissements de recherche technologique et de production, et leur échelle économique de production est de plusieurs dizaines de millions de puces, tous modèles réunis. Les concepteurs non-fabricants limitent leurs investissements à la conception du processeur, et font apparaître la totalité des coûts de fabrication comme des coûts

cxxxix

variables. Certains concepteurs restreignent encore leur effort de recherche et développement en offrant des copies plus ou moins conformes (des « clones ») de puces existantes. En supposant que l’investissement nécessaire à la conception d’un processeur, hors développement de la technologie proprement dite, soit de 200 millions de $ et que le coût variable unitaire en sortie de fonderie, c’est à dire le prix de vente du fondeur, soit de l’ordre de 200$, le rapport des deux est égal à 1 million et l’échelle économique de production est de quelques millions. Même rapproché du seul marché des microprocesseurs et non de l’ensemble des composants, ce chiffre est suffisamment inférieur à celui du fondeur pour donner place sur le marché à un nombre d’offreurs de processeurs plus élevé que le nombre des fondeurs. Néanmoins, il faut remarquer qu’aucun autre fournisseur qu’Intel n’a encore atteint ce seuil de 1 million de processeurs vendus. Les coûts de conception d’une puce peuvent rester relativement modestes dans un certain nombre de cas particuliers. Le plus évident est celui où une puce existante est simplement réalisée dans une technologie nouvelle ; nous avons vu que l’intérêt d’une telle opération reste limité, puisque d’autres contraintes comme celles de la dimension minimale empêcheront la nouvelle puce de tirer pleinement parti du potentiel de la nouvelle technologie, qui ne peut être exploité que par des puces de conception nouvelle. Néanmoins, cette approche permet de prolonger la vie commerciale des architectures existantes et de concurrencer les nouvelles architectures par des clones performants et bon marché d’architectures plus anciennes. Cette démarche peut également s’appliquer à des puces auxiliaires dont le contenu fonctionnel est figé et n’aurait rien à gagner d’une conception nouvelle. Enfin, un cas particulièrement intéressant est celui des processeurs spécialisés dans des traitements parallèles par nature, par exemple le traitement d’images. De telles puces sont formées de cellules identiques fonctionnant en parallèle, et s’apparentent donc sur ce plan aux puces mémoire ; chaque saut technologique n’impose pas de redessiner la cellule élémentaire de traitement, mais permet d’en loger un plus grand nombre sur la puce et ainsi de traduire de façon simple le progrès technologique en gain de coût et de performances. Pour les clones proprement dits, le prix de survie du cloneur est relativement élevé même si ses coûts de développement sont réduits, car son coût variable est élevé du fait qu’il sous-traite la production, et ses volumes faibles. Comme la puce copiée ne peut être que celle du leader ou à la rigueur du challenger, le prix de survie du cloneur risque d’être supérieur à celui de l’original, ou en tous cas voisin. Même si les prix de survie sont comparables, la vie utile du clone est nécessairement plus courte puisque leur mise sur le marché ne peut qu’être postérieure à celle de l’original, le délai constaté étant de l’ordre d’une année. Quand le leader a mis sur le marché le successeur du processeur cloné, il peut baisser les prix de ce dernier jusqu’au coût marginal si nécessaire, en tous cas jusqu’au prix de survie du cloneur, voire en dessous si le clone menaçait de prendre des parts de marché au nouveau processeur. Au total, ni la séparation des rôles de concepteur et de fondeur, ni le phénomène des clones ne modifient en profondeur la dynamique décrite ci-dessus. Il

cxl

s’agit de phénomènes dont la simple existence est significative car elle contribue à conserver au secteur un semblant de « contestabilité » au sens de Baumol, mais qui ne peuvent être que marginaux en volume.

Conclusions
Dans un secteur concentré comme les composants électroniques, les configurations stables sont inégalitaires. Tout avantage de part de marché tend à s’amplifier, si bien qu’un peu plus de chance ou de savoir-faire au départ, ou tout simplement être le premier, aboutit à une situation de domination, sauf si le leader commet de grosses erreurs ou si un de ses challengers consent les efforts nécessaires pour le détrôner. En tout état de cause, les configurations équilibrées sont instables par nature. C’est le challenger qui détient la clef de la stabilité. S’il décide de mener une stratégie agressive, ce qui suppose qu’il ait des raisons de penser que son prix de survie est particulièrement bas, il déclenchera une guerre de prix dont le premier effet sera d’accélérer l’élimination des offreurs marginaux. En termes de profitabilité, nous avons vu que les plus gros offreurs sont aussi les plus profitables. Comme de plus les parts de marché sont très inégales, la profitabilité moyenne du secteur est très élevée, ce qui ne veut pas dire que toutes les firmes opèrent à ce niveau de profit. Bien au contraire, les plus petites firmes survivent à la merci des leaders, et sont condamnées à disparaître à terme si ces derniers décident de se livrer à une concurrence par les prix. Répétons ici que cette inégalité n’est ni fortuite, ni le résultat de manœuvres déloyales de domination, mais constitue une caractéristique intrinsèque des structures concentrées. La concurrence dans le secteur des composants, comme dans tous les secteurs très concentrés, s’apparente à une compétition dont les prix sont connus d’avance : le premier prix est une part de marché supérieure à 70%, le deuxième prix 10 à 15%, et le troisième 5%. La seule incertitude porte sur l’ordre d’arrivée, qui résulte de l’action de la concurrence entre firmes. Qu’une firme occupe 80% du marché des composants est une conséquence inéluctable de la dynamique concurrentielle. Il se trouve que c’est Intel qui a gagné le gros lot. L’histoire aurait pu faire que ce soit IBM ou Motorola ou un autre ; mais elle n’aurait pas pu faire que cinq, dix ou cinquante fournisseurs se partagent le marché à parts égales. Le potentiel de progrès technologique donne en permanence à chacun des concurrents, voire à de nouveaux entrants, une possibilité de prendre l’avantage avec une nouvelle génération de puces plus puissantes et moins coûteuses. Autrement dit, même si le jeu de la concurrence conduit à désigner un vainqueur qui détiendra plus de 70% du marché, le titre est remis en jeu tous les deux ou trois ans. La mise est certes importante (et nous verrons qu’elle ne cesse d’augmenter à chaque manche), et le leader en place a plus de chances d’avoir pu la réunir ou de pouvoir l’emprunter. Mais tant qu’il reste un potentiel technologique inexploité et un challenger crédible, le leader est contraint à la modération dans ses prix et ne peut conserver sa place qu'en investissant sans cesse pour exploiter le potentiel de progrès technologique. Dans un secteur

cxli

concentré où existe un potentiel de progrès technologique, la concrétisation de ce potentiel est garantie par l'importance des enjeux pour le leader et ses challengers. La concurrence prend la forme de paris successifs où les challengers misent des milliards pour détrôner le leader, et ce dernier en fait autant pour conserver sa place. Il ne faut donc pas s’étonner de la situation de quasi-monopole ni de la profitabilité élevée dont jouit Intel, qui sont parfaitement conformes à la théorie économique. Il ne faut pas non plus croire que de telles parts de marché, que ce soit aujourd’hui Intel ou hier IBM, témoignent d’une volonté mégalomaniaque. En dehors des romans, aucune entreprise n’a pour objectif de dominer le monde. Mais la compétition étant ce qu’elle est, une d’entre elles gagnera nécessairement le gros lot et fera ensuite tout pour le conserver.

Perspectives
Perspectives technologiques
Le progrès technologique se traduit principalement par l'augmentation de la densité des circuits, la dimension des puces restant à peu près constante car déterminée par les contraintes du processus de fabrication d'une part, du raccordement au monde extérieur d'autre part. On attend vers la fin du siècle des puces mémoires de 256 millions de bits et des microprocesseurs de 30 millions de transistors, et le début du XXIe siècle verra des mémoires de 1 milliard de bits et des processeurs de plus de 100 millions de transistors. Pour que ce progrès soit effectif, encore faut-il que ce potentiel de transistors puisse être utilisé de façon économiquement efficace, soit pour augmenter la vitesse de traitement par un parallélisme accru, soit pour placer sur la puce des fonctions nouvelles. Dans le cas des mémoires, le progrès se traduit simplement par des capacités par puce croissantes à chaque génération, entraînant une décroissance des coûts de stockage par unité d’information. Pour les processeurs, l’exploitation du progrès technologique impose une nouvelle conception des puces à chaque génération. Une unité de calcul peut largement être réalisée avec quelques centaines de milliers de transistors. Les super-ordinateurs des années 60 en contenaient au total 150000, répartis entre de nombreuses armoires, et le processeur Intel 386SX, encore très répandu, en contient 275000. Jusqu’ici, l’évolution a consisté à intégrer sur un même composant des fonctions jusque-là implantées sur des puces distinctes, voire des cartes ou des meubles distincts. C’est ainsi qu’une puce de 1990 contenait dans 2 cm sur 2 toutes les fonctions qui emplissaient une salle des années 1960. Dans les processeurs les plus récents, le potentiel de transistors est utilisé de plusieurs façons. Tout d’abord pour augmenter le parallélisme et donc la performance, en traitant 64 bits en parallèle au lieu de 32, ou en traitant simultanément plusieurs instructions à des stades différents (architecture dite « pipeline »). Ces deux approches font passer le nombre de transistors par unité de calcul aux alentours de 1 million. Au-

cxlii

delà, on peut implanter sur la même puce deux ou trois unités de calcul et la logique nécessaire pour les gérer, comme dans le Pentium ou le PowerPC (architecture dite « superscalaire »), et utiliser ainsi 3 millions de transistors. Enfin, on peut intégrer à la puce des fonctions confiées jusque là à des composants séparés, comme le calcul en virgule flottante, ou entièrement nouvelles comme la gestion de l’énergie consommée. Il est clair que ce mouvement ne peut que continuer, et que des fonctions actuellement réalisées sur des composants séparés vont trouver leur place à l’intérieur du microprocesseur, en même temps que des fonctions nouvelles viendront s’y ajouter. Mais alors que la simple augmentation du parallélisme n’implique pas nécessairement de modifications dans les conventions de communication entre la puce et l’extérieur, c’est à dire son jeu d’instructions, son enrichissement fonctionnel exige un enrichissement parallèle de ce répertoire. Cette évolution inéluctable ramène à ses justes proportions le débat actuel entre les tenants des architectures dites Risc (« reduced instruction set ») contre Cisc (« complex instruction set »). Rappelons que vers le milieu des années 70, un courant de recherche s’est attaché à évaluer une nouvelle conception des ordinateurs où le répertoire d’instructions exécutables par le matériel serait réduit à sa plus simple expression, soit une dizaine d’instructions, toutes les opérations plus complexes étant réalisées par programmation. L’idée était de simplifier le matériel afin de le rendre aussi rapide et bon marché que possible, en espérant compenser ainsi le ralentissement qui résulterait de l’exécution d’une couche supplémentaire de logiciel. Ces idées ont été reprises dans les années 80 pour concevoir des microprocesseurs destinés à supporter le système d’exploitation Unix. Depuis lors la querelle entre Unix et les autres systèmes s’est doublée d’une querelle entre les tenants des machines Risc et les constructeurs d’autres machines, baptisées pour la circonstance Cisc. Au début des années 90, les puces Risc ont effectivement pris une génération d'avance dans l’exploitation des technologies, dont on a pu croire qu'elle consacrait une supériorité intrinsèque de l'approche Risc. Or il apparaît maintenant que cette avance était simplement circonstancielle. L'absence de contraintes liées à la compatibilité avec des processeurs existants ou à la nécessité de prévoir la production en volume ont permis de tirer pleinement parti de la simplicité architecturale inhérente au concept Risc pour concevoir de nouvelles puces et les mettre sur le marché selon un cycle très court. C'est donc dans des processeurs nouveaux de type Risc que se sont incarnées en premier les technologies submicroniques, mais il fallait s'attendre à ce que ces technologies s'étendent à toute la gamme. Le processeur Pentium d'Intel, mis sur le marché en 1993, comble cet écart en se situant au même niveau technologique et au même niveau de puissance, et en utilisant la philosophie de conception Risc dans la réalisation d'un processeur doté d'un jeu d'instructions riche et compatible avec ses processeurs existants. De leur coté, IBM, Apple et Bull associés avec Motorola dans Power Open ont décidé d'utiliser les mêmes composants Power dans des matériels de type PC et dans des matériels Unix. Le secteur des processeurs pour PC et celui des processeurs Unix sont en train de fusionner.

cxliii

Jusqu’alors, le secteur des composants Risc pouvait être considéré comme un secteur concurrentiel particulier d'où les processeurs de type Intel 80X86 étaient absents, et où la dynamique de concentration ne jouait qu'à l'intérieur d'un marché de taille encore faible. C'est maintenant dans un segment de marché unique allant des PC aux systèmes Unix, en attendant de s'étendre aux grands systèmes, que va jouer la dynamique concurrentielle de concentration caractéristique des secteurs fortement monopolistes. Le round suivant se jouera non plus sur l'opposition factice entre Risc et Cisc, mais sur la capacité des promoteurs des actuels Pentium, Power, Alpha, Sparc, PARisc et Mips à continuer d'investir les quelques milliards de $ nécessaires pour mettre sur le marché leurs successeurs. Il est clair que certains le feront, et offriront les processeurs du futur à des niveaux de prix qui resteront ceux des composants micros, c'est à dire de 200 à 400 $ indépendamment de leur contenu fonctionnel et de leurs performances. Seuls subsisteront les offreurs qui sauront atteindre une part de marché cohérente avec une échelle optimale de production qui se chiffre en dizaines de millions d'unités. Le débat Risc contre Cisc est donc en voie d’être rapidement dépassé. On voit d’ailleurs mal comment une puce de plusieurs dizaines de millions de transistors, plus riche en fonctions que tout un super-ordinateur des années 80, pourrait se contenter d’un jeu d’instructions « réduit ». Des deux efforts d’origine, réduire le nombre d’instructions différentes et simplifier la structure de chaque instruction, seul le second restera visible au niveau de la puce. En revanche, il est probable que chacun des blocs fonctionnels qui composent le processeur sera conçu selon la philosophie Risc avec un jeu d’instructions réduit. Autrement dit, le concept Risc restera comme un ensemble de principes architecturaux concernant la structure interne des processeurs, et non pas comme une caractéristique distinctive de certains. Les quelques microprocesseurs qui survivront seront en quelque sorte Risc à l’intérieur et Cisc à l’extérieur.

Perspectives industrielles
La dynamique concurrentielle garantit que l’exploitation du potentiel de progrès technologique, qui est encore considérable, va continuer pendant au moins les 10 prochaines années, au rythme d’un doublement des densités tous les deux ou trois ans. Cette évolution s’accompagne d’une complexité croissante des microprocesseurs et de contraintes de production de plus en plus draconiennes, ce qui entraîne une croissance des dépenses de R&D et des investissements de production, qui sont en gros doublés à chaque génération. Par contre, le coût marginal de production de chaque puce reste à peu près le même de génération en génération, et peut même tendre à baisser si l’amélioration des densités est en partie utilisée pour réduire les dimensions des puces et améliorer le rendement du processus de fabrication. La disproportion entre coût fixe et coût marginal de production s'aggrave donc avec le temps, ce qui fait croître l'échelle optimale de production et rend le secteur de plus en plus monopoliste. Notons au passage que l’émergence possible de technologies autres que celles du silicium, telles que l’arséniure de gallium, les supraconducteurs ou les technologies optiques, ne modifieraient pas substantiellement ces conclusions. La source des coûts fixes, est en effet la taille des traits et le nombre de couches, qui ont toutes chances de rester les mêmes quelles que soient les technologies. Des technologies alternatives

cxliv

peuvent éliminer les problèmes de rayonnement thermique ou autoriser de vitesses de commutation plus élevées, mais n’ont que peu de chances de réduire les coûts de fabrication, et exigeraient probablement des coûts de développement accrus. Face à l’accroissement inexorable du coût fixe des lignes de production, qui est d’ores et déjà voisin du milliard de $ et passera à coup sûr le cap des 2 milliards vers 1998, plusieurs acteurs explorent le potentiel de nouvelles technologies de production qui ramèneraient le coût unitaire des lignes de production en dessous des 500 millions de $, avec une capacité réduite dans des proportions voisines. Ces « minifabs » auraient en outre l’avantage de permettre des cycles de production beaucoup plus courts, et donc au total une plus grande souplesse et des échelles de production plus faibles. Dans la mesure où ces nouvelles technologies se révèlent viables, on peut néanmoins penser que leurs avantages porteront surtout sur les séries relativement courtes, et que les usines traditionnelles conserveront leur avantage économique pour les processeurs produits en très grande série. En tout état de cause, l’apparition des « minifabs » ne ferait probablement qu’introduire un palier de quelques années dans le processus, et leur coût lui-même reprendrait une croissance parallèle à celle des usines intégrées actuelles. Revenons sur la question de la configuration efficiente du secteur, où les parts de marché des acteurs successifs sont dans un rapport constant et où la part de marché du plus petit est suffisante pour le rendre économiquement viable, c’est à dire voisine de l’échelle optimale de production. Cette combinaison de conditions détermine le nombre de firmes du secteur. Supposons pour fixer les idées que le rapport des parts de marché entre deux concurrents successifs soit égal à 2 comme dans l’hypothèse de Henderson. Les parts de marché sont alors, par ordre croissant, dans les rapports 1, 2, 4, 8, 16, … Puisque la part du plus petit est cohérente avec l’échelle économique de production, on en conclut que deux firmes suffiront à couvrir le marché si celui-ci est égal à 3 fois l’EEP, trois firmes couvriront un marché égal à 7 fois l’EEP, quatre firmes 15 fois l’EEP, etc. Quelque approximatif que soit ce raisonnement, les conclusions auxquelles il conduit ne sont pas si éloignées de la réalité puisqu’une étude du groupe Dataquest estimait qu’en 1991 le nombre de lignes de fabrication nécessaires était de 48, ce qui selon le raisonnement précédent place le nombre efficient de firmes entre 5 et 6, ce qui est du même ordre de grandeur que le nombre réel de producteurs. Or la même étude estimait à 18 le nombre de lignes en 2001, ce qui correspond à 4 ou 5 firmes, et en extrapolant la tendance on trouve 7 lignes et donc 3 firmes en 2011. On est tenté de prédire que les années à venir verront le nombre de « fondeurs » diminuer de un pour chaque cycle de quelques années, et de raffiner notre modèle d’évolution des prix en disant que les prix finaux pour chaque génération s’établiront à un niveau qui permette la survie de tous les acteurs sauf un, le moins bien placé. Déjà Hewlett-Packard a jeté l’éponge en 1994 en s’alliant à Intel. Que ce soit le premier à abandonner, bien qu’il n’ait peut-être pas été le moins bien placé dans la course, s’explique par deux raisons : de tous les acteurs secondaires, c’est probablement celui dont la culture est la plus éloignée des exigences du métier des composants, et d’autre part c’est aussi celui à qui cet abandon pose le moins de problèmes stratégiques, contrairement à d’autres entreprises qui font reposer leur stratégie de matériel sur des composants spécifiques.

cxlv

Cette tendance à la réduction du nombre des acteurs ne peut être contrecarrée que par un élargissement du marché, ce qui explique les efforts des fabricants de composants pour leur trouver de nouvelles applications, que ce soit dans l’automobile, l’électronique domestique ou le multimédia. En plus des fournisseurs traditionnels que sont les USA et le Japon, des pays comme la Corée ou Taiwan investissent aujourd’hui massivement dans la construction d’usines de semi-conducteurs, le raisonnement économique des industriels étant faussé par d’importantes subventions publiques. Les seules usines en cours de construction à Taiwan en 1994 auront une capacité presque suffisante pour satisfaire la demande mondiale actuelle de puces mémoire. On peut donc s’attendre à ce que l’industrie connaisse une situation de surcapacité dans les années 1995-1996, entraînant d’une part une guerre des prix et d’autre part la recherche d’autres débouchés. Cette situation sera favorable aux concepteurs « fabless » et à une diffusion des composants, mémoire et processeurs, dans un nombre croissant d’applications autres que l’informatique au sens habituel. A l’inverse, la vive concurrence entre fabricants accélérera la disparition des moins performants, c’est à dire des plus petits. Certains de ceux qui conçoivent et fabriquent des microprocesseurs en abandonneront la fabrication pour la sous-traiter, comme l’a déjà fait Hewlett-Packard. D’autres mettront en commun leur capacité de fabrication à travers la formation d’alliances ou de filiales communes. Tant que cette situation de surcapacité durera, elle sera favorable au maintien d’un assez grand nombre de fournisseurs de microprocesseurs, pour la plupart « fabless ». Mais la génération suivante (1997 ?) verra sans doute par réaction une sévère sélection parmi les fabricants, pouvant même conduire vers 1998/2000 à une sous-capacité et par contrecoup à une importante mortalité des petits fournisseurs de processeurs. Que se passera-t-il lorsque le nombre de fournisseurs de microprocesseurs sera réduit à trois, voire deux, et que les microprocesseurs compteront cent ou deux cent millions de transistors, ce qui se produira très vraisemblablement entre 2010 et 2020 ? Subsistera-t-il une motivation concurrentielle pour investir les milliards de dollars nécessaires pour augmenter encore la densité ? Restera-t-il encore des fonctions candidates pour utiliser cent millions de transistors supplémentaires ? Au moment où ces lignes sont écrites, on est tenté de répondre par la négative et d’admettre que le progrès des composants s’arrêtera dans les vingt premières années du XXIe siècle. Mais rien n’est moins sûr. Peut-être la diffusion des composants électroniques dans un nombre croissant d’objets élargira-t-elle le marché au point de compenser, et au-delà, la croissance de l’échelle économique de production. C’est évidemment ce que souhaitent les acteurs de cette industrie, et l’un des enjeux fondamentaux des efforts actuels dans le domaine du multimédia.

cxlvi

Chapitre 8 Les matériels, un secteur dispersé
Emergence d’un secteur autonome. Composants, cartes et boîtiers. Les limites de l’automatisation. Un secteur dispersé. Inventaire des stratégies possibles. Segmentation du marché, niches et profitabilité. La supériorité du modèle PC. Innovation et foisonnement des matériels. Un secteur en pleine santé.

Les matériels, toutes tailles et toutes fonctions confondues, comptent pour environ 60% dans le chiffre d’affaires total de l’industrie informatique. Tout utilisateur d’informatique est nécessairement client d’un ou plusieurs fournisseurs de matériel, alors qu’il pourrait se passer assez largement des firmes de logiciel et surtout de services. De plus, à travers les phénomènes de compatibilité et de standards, les autres offres s’ordonnent autour des matériels, qui apparaissent d’une certaine façon comme le secteur central qui commande tout le reste. Dans le même temps, ce secteur des matériels est souvent considéré comme un secteur en difficulté, ou à tout le moins comme le plus touché par la crise qui secoue l’industrie informatique. On a même pu lire que les constructeurs de matériel sont condamnés à des marges nulles, et donc à disparaître à terme. Quelque hâtif et absurde que puisse être ce pronostic (peut-on imaginer une informatique sans un support matériel pour exécuter les programmes ?), il témoigne des interrogations que soulève l’évolution du secteur des matériels, auxquelles nous allons essayer de répondre dans le présent chapitre.

Historique
Les matériels ont longtemps été le centre de toute l’offre informatique. Les premiers acteurs étaient tous des constructeurs de matériel, et le matériel a été jusque vers 1970 la seule prestation facturable. Tout le reste, logiciels, services de maintenance, d’entretien, de formation, … était fourni gratuitement pour accompagner le matériel, et le coût en était couvert par la facturation de ce dernier. De plus, chacun des constructeurs offrait la panoplie complète des matériels et en assurait l’intégration chez le client. L’ensemble de l’industrie informatique se résumait donc à un secteur produisant des systèmes intégrés, dont le chiffre d’affaires était exclusivement assis sur le matériel, même si les fournisseurs exerçaient de nombreuses activités complémentaires nécessaires à la production de tels systèmes, dont celles de services et de développement de logiciels. Cette offre intégrée a commencé à se fissurer vers la fin des années 60 avec l’apparition des compatibles IBM. Certaines firmes ont alors entrepris d’offrir isolément certaines unités destinées à se substituer aux unités équivalentes d’IBM. L’offre de ces firmes pouvait se limiter strictement au matériel dans la mesure où elles pouvaient

cxlvii

compter sur IBM pour fournir les autres éléments sans lesquels leur offre n’aurait pas été viable, les logiciels et les services par exemple. C’est d’ailleurs souvent le refus (réel ou allégué) d’IBM de fournir ses services en relation avec d’autres matériels qui a provoqué les premiers procès intentés contre IBM dans cette période. Vers la même époque, et en relation avec la montée des compatibles, est intervenue la décision d’IBM de facturer séparément les progiciels et les divers services, suivie plus ou moins rapidement par les autres fournisseurs de systèmes. On a ainsi vu le chiffre d’affaires des constructeurs se scinder entre les rubriques matériels, logiciels et services, sans d’ailleurs que cela traduise une modification réelle de leurs activités ni une réorganisation interne qui rende ces activités plus autonomes. Les seules firmes véritablement spécialisées dans le matériel sont restées les constructeurs de compatibles, et ce secteur est resté relativement marginal car limité à la sphère IBM et soumis à la vigoureuse concurrence du constructeur dominant. L’arrivée du PC en 1981 s’accompagne d’une véritable révolution dans la répartition des rôles industriels. Dans l’univers de la micro-informatique compatible PC, l’adoption des systèmes d’exploitation développés par Microsoft et quelques autres entraîne la séparation entre le secteur des progiciels et le secteur des matériels. De même, l’utilisation généralisée des processeurs Intel réduit l’activité des constructeurs de PC à des opérations d’assemblage. D’autre part, la simplicité et la destination des produits dispensent les constructeurs de fournir des services, tandis que la nature du marché visé les invite à confier la commercialisation de leurs produits à des firmes de distribution spécialisées. Ces distributeurs peuvent jouer le rôle de prestataires de services et en particulier d’assembleurs de systèmes, ce qui autorise certains constructeurs à se spécialiser encore plus par type d’unité. On voit donc apparaître avec le PC un nouveau métier d’assembleur de matériel. Nous avons vu au Chapitre 4 que ce métier possède une structure de dépenses caractéristique : le coût des produits vendus dépasse typiquement 75% du chiffre d’affaires, dont 65 à 70% est constitué par des achats de composants ou de sousensembles à d’autres fournisseurs. Les dépenses de recherche et développement ne représentent que 2 à 4% du CA, tandis que les frais généraux, y compris les dépenses commerciales, tournent autour de 15%. Pour ces entreprises, le résultat net après impôts ne dépasse que très rarement 5% du chiffre d’affaires. Ces ratios sont très différents de ceux des constructeurs traditionnels chez qui la R&D représente 10 à 20% du CA et les frais généraux peuvent aller jusqu’à 40% pour couvrir en particulier une activité commerciale très développée. Ces chiffres traduisent bien deux métiers différents : d’une part la production de matériels standard à partir de composants du commerce, d’autre part la conception de matériels originaux demandant une production plus intégrée et des efforts de commercialisation importants. Nous avons également vu au Chapitre 4 que le modèle des assembleurs est largement représenté dans le domaine des PC et des périphériques, par de nombreuses firmes de taille très variable qui fournissent ensemble près de la moitié du CA matériels. En revanche, ce modèle est resté très marginal dans les autres domaines, où l’activité d’assemblage reste liée aux autres activités à l’intérieur de chaque firme. Il est donc important d’examiner d’abord isolément cette activité d’assemblage, telle qu’elle existe dans ces firmes spécialisées. Nous trouverons en effet dans cette analyse des raisons de

cxlviii

penser que le modèle de l’assembleur pur va se généraliser progressivement à tous les segments. La structure industrielle qui prévaut dans les micro-ordinateurs de type PC préfigure ainsi ce que sera demain toute l’industrie du matériel.

Technologie et économie
Examinons rapidement la structure physique d’un micro-ordinateur pour identifier les principaux niveaux d’assemblage qui conduisent des composants électroniques à un système complet. Les techniques utilisées sont d’ailleurs les mêmes que pour l’électronique professionnelle ou l’électronique grand public comme la haute-fidélité ou la télévision. Au niveau le plus bas, les composants sont placés sur des cartes de 10cm à 30cm de coté, qui reçoivent des puces de différentes sortes et supportent également les conducteurs qui relient les puces entre elles et les connecteurs qui relient la carte ellemême au reste de l’ordinateur. Ces composants sont le plus souvent soudés sur la carte, qui constitue un ensemble fonctionnel bien défini. Tout micro-ordinateur contient une carte-mère sur laquelle sont implantées les fonctions de base : processeur, mémoire principale, mémoire intermédiaire ou cache, adaptateurs pour les unités connectables, bus local pour gérer les échanges d’informations entre composants, éventuellement processeurs spécialisés. Elle peut être complétée par des cartes spécialisées qui réalisent des fonctions comme le contrôle des communications, les entrées et sorties graphiques, sonores ou vocales, etc. La carte mère est installée dans un boîtier qui contient également les unités internes comme les disques, l’alimentation électrique et le dispositif de refroidissement éventuel, ainsi que des emplacements pour des cartes d’extension et des unités additionnelles. Enfin, le système complet est généralement construit en interconnectant par des câbles des unités distinctes telles qu’une unité centrale, un clavier, un écran, une imprimante, etc. La fabrication des cartes ressemble un peu à celle des composants, si ce n’est que l’échelle est totalement différente : les conducteurs déposés ou gravés sur la carte ont une largeur de l’ordre du millimètre et les composants qui y sont insérés ont des dimensions de l’ordre du centimètre. Cette fabrication est largement automatisée, mais les techniques d’assemblage sont tout à fait courantes dans l’industrie électronique en général et ne sont pas spécifiques du secteur informatique. Les investissements correspondants restent raisonnables, conduisant à une échelle économique de production qui se chiffre en dizaines de milliers. L’assemblage final des unités à partir des cartes est par contre une opération essentiellement manuelle, qui peut être réalisée par du personnel d’installation ou d’entretien, voire par l’utilisateur lui-même, à l’exception de certains systèmes particuliers très miniaturisés. En 1974/1975, les tout premiers micro-ordinateurs ont été vendus en kit par des revues d’amateurs d’électronique. Aujourd’hui encore, on peut trouver dans les boutiques spécialisées tous les éléments nécessaires au montage d’un micro-ordinateur :

cxlix

processeur, puces mémoire, carte-mère, disques, clavier, écran, … qui sont vendus sous forme de kits ou individuellement. Même dans des ordinateurs fournis tout assemblés, il est possible aux utilisateurs d’ajouter ou de remplacer un grand nombre d’éléments comme la mémoire, des cartes d’extension, les unités de disques voire l’unité centrale, sans formation spéciale ni outillage spécial. L’assemblage d’un micro-ordinateur est une opération à la portée d’un amateur raisonnablement adroit, et ne demande que quelques heures. Selon le coût de la main d’œuvre utilisée, le coût d’assemblage manuel d’un micro-ordinateur se situe typiquement entre 100 et 200 francs, alors que le prix de revient des pièces achetées est de plusieurs milliers de francs selon la configuration. Il y a peu de moyens et peu de motivation pour réduire ce coût à travers des techniques d’automatisation, qui n’apporteraient pas d’avantage concurrentiel appréciable. En tout état de cause, choisir des modes de production n'exigeant que des investissements modestes et où l'essentiel des coûts est variable rend économiquement viable une échelle de production infime par rapport à la taille du marché. Au total, l’assemblage des matériels se décompose en deux opérations successives dont les logiques économiques sont différentes. Alors que la fabrication des composants s’apparente à une industrie lourde, celle des cartes obéit à la logique de la petite industrie et l’assemblage final des matériels relève de l’artisanat. Il est assez naturel que la structuration du secteur des matériels reflète ces différences d’échelle. On y trouve de grandes entreprises qui englobent la totalité de la filière, dont le nombre décroît au fur et à mesure que l’industrie des composants se concentre et devient plus autonome en amont. Une deuxième catégorie est formée d’entreprises grandes et moyennes, qui assurent toutes les étapes d’assemblage et conservent ainsi la possibilité d’offrir des produits originaux soit par certaines unités soit par les techniques d’assemblage ellesmêmes. Enfin, de nombreuses petites firmes sont spécialisées soit dans la fabrication des cartes, soit dans l’assemblage final. Pour ce dernier type de constructeurs, les coûts variables l’emportent de très loin sur les coûts fixes, et l’échelle de production peut être très réduite. L’assemblage de matériel se caractérise donc par une échelle économique de production faible, associée à de faibles barrières à l'entrée et à une banalisation ou une standardisation des produits qui facilite le changement de fournisseur en éliminant les coûts de transfert. Ces caractéristiques sont par excellence celles d’un secteur dispersé, dans lequel existent un grand nombre de firmes concurrentes qui n’atteignent que de faibles parts de marché. Dans ce secteur comme dans les autres industries dispersées, la firme la plus importante obtient rarement plus de 15% du marché et les 10 premières n’en totalisent le plus souvent pas 50%. De plus, la profitabilité potentielle et la profitabilité moyenne y sont également faibles, même pour les firmes les plus performantes qui atteignent tout juste 5%. De fait, alors que les fabricants de microprocesseurs ne sont pas plus d’une douzaine (et nous avons vu que ce nombre ne peut que se réduire), il existe des milliers de fournisseurs de micro-ordinateurs dans le monde. Certains ont une envergure mondiale, d’autres n’opèrent que dans une seule ville. Certains ont mis en place leur propre réseau de distribution, d’autres s’en remettent entièrement à des distributeurs spécialisés. L’existence d’une industrie des composants et de fournisseurs de progiciels

cl

indépendants a permis l’existence d’un grand nombre d’assembleurs qui mettent en œuvre des stratégies très diversifiées. Il est également important de noter que la faiblesse des obstacles à l’entrée dans le métier d’assemblage de matériels rend crédible toutes les menaces d’intégration. En amont, les fabricants de composants peuvent vouloir offrir des systèmes complets, comme le font d’ailleurs de façon limitée Intel pour les systèmes hautement parallèles et Motorola pour les systèmes de communication. Des sociétés de service ou de progiciels peuvent vouloir exploiter sous forme de matériel une compétence acquise dans leurs activités de base, en offrant par exemple des terminaux spécialisés par application. Les clients industriels importants peuvent également vouloir assembler les systèmes qu’ils utilisent, et éventuellement mettre ces produits sur le marché. Toutes ces menaces contribuent également à limiter la profitabilité du secteur.

Segmentation et options stratégiques
Stratégies concurrentielles
Revenons sur l’analyse des comportements concurrentiels présentée par Porter, dont nous avons introduit les grandes lignes au Chapitre 6. Quel que soit le secteur où elle opère, la firme doit y rechercher un avantage distinctif sur ses concurrentes, et pour cela doter ses produits de caractéristiques spécifiques qui donnent aux clients potentiels des raisons de les choisir de préférence à ceux des autres firmes. Le prix d’un produit par rapport aux produits concurrents est en règle générale le plus important facteur concurrentiel, et il intervient toujours dans le choix des clients quelle que soit la stratégie mise en œuvre par le fournisseur. L’entreprise peut donc choisir l'arme des prix comme avantage concurrentiel majeur. Au contraire, elle peut renoncer à pratiquer les prix les plus bas, mais doter ses produits de caractéristiques exceptionnelles qui justifient leur achat par une partie au moins de la clientèle. On parle alors d’une stratégie de différenciation. Deuxièmement, l’entreprise peut rechercher un avantage concurrentiel qui soit applicable à la totalité du marché, ou au contraire qui soit propre à un segment limité. Dans le premier cas, elle met en œuvre ce que Porter appelle une stratégie de domination, dans le second cas une stratégie de concentration. De la combinaison de ces deux choix naissent quatre stratégies de base : domination globale par les coûts, domination globale par les produits, concentration sur la base des coûts, concentration sur la base des produits. Dans sa mise en œuvre, chaque stratégie requiert des moyens, des compétences, une organisation et des systèmes de management particuliers. Chaque firme doit donc opter pour l’une ou l’autre des quatre stratégies de base, et toute tentative de poursuivre une stratégie mixte, que ce soit par absence de décision ou de propos délibéré, conduit nécessairement la firme à une situation de faiblesse. Nous développerons aux Chapitres 9 et 14 ces problèmes de compatibilité de stratégies et de produits différents au sein d’une même firme.

cli

Stratégies de base
Nature de l'avantage Domaine de l'avantage
tout le secteur produi t coûts

différenciation

domination par les coûts

un segment

concentra tion fondée sur les pr oduits

concent ration fondée sur les coûts

Voie médiane = enlisement

Dans les secteurs dispersés, où opèrent par définition un grand nombre de firmes, la plupart adopteront une stratégie de concentration sur un segment particulier du marché. Si d’aventure certaines choisissent une stratégie de domination globale, elles auront du mal à réussir, car elles se heurteront dans chaque segment à des firmes spécialisées mieux adaptées aux besoins particuliers. La domination globale par les produits est vouée à l’échec dans un marché vaste et varié, tandis que les tentatives de domination globale par les coûts ne réussiront au mieux que dans certains segments sensibles aux coûts. Il peut néanmoins arriver que le caractère dispersé d’un secteur soit purement circonstanciel et ne s’appuie sur aucune caractéristique structurelle, auquel cas une stratégie de domination peut réussir. Mais dans tous les cas où le secteur est dispersé pour des raisons structurelles telles qu’une échelle économique de production faible ou une demande très diversifiée, on peut considérer que les stratégies de domination ne sont pas viables. Tous les acteurs adopteront des stratégies de concentration, qui ne diffèrent que par le choix des critères de segmentation et pourront de ce fait viser des segments de tailles très différentes.

Les stratégies possibles
La décomposition du marché en segments peut se faire selon plusieurs dimensions. Un premier ensemble de critères se rattache au produit lui-même : nature fonctionnelle du produit (systèmes complets ou unités isolées comme les cartes d’extension, les imprimantes ou les écrans), standards adoptés, catalogue de fonctions, niveau de performances, plage de prix, modularité ou intégration, portabilité, dimensions, aspect, etc. Un deuxième type de critères a trait au type de client visé : particulier ou entreprise, secteur d'activité, type d'utilisation, processus d'achat, etc. Enfin, la segmentation peut intégrer d’autres considérations comme le circuit de distribution utilisé ou la localisation géographique de la clientèle. Dans les segments retenus, l’offreur pourra opter entre les deux stratégies fondamentales de concurrence : par les prix ou par les qualités du produit. Le caractère essentiellement manuel des opérations d’assemblage donne peu de possibilités de réduire les coûts en investissant dans les équipements de production. Les firmes qui optent pour la concurrence par les prix décideront donc le plus souvent de se limiter à l’assemblage de produits relativement banalisés à partir de composants standard du marché, afin d’éviter les frais de recherche et de développement. En revanche, les

clii

firmes qui choisissent la concurrence par les produits devront consentir des dépenses de recherche et développement plus élevées afin de définir des produits spécifiques, voire concevoir et produire elles-mêmes certains composants ou sous-ensembles en partie originaux. Pour ces raisons, les obstacles à l’entrée ainsi que l’échelle économique de production sont en règle générale plus élevés pour les stratégies de spécialisation que pour la concurrence par les prix. Ceci pose de façon aiguë le problème de la distribution : alors que les firmes offrant des produits banalisés à bas prix peuvent s’en remettre à des circuits généralistes, les constructeurs spécialisés doivent être sûrs que les circuits qu’ils utilisent sont bien capables d’atteindre et de convaincre le segment de marché particulier qu’ils visent. Avant l’arrivée des micro-ordinateurs, la distribution informatique spécialisée n’était représentée que par quelques précurseurs comme les sociétés de crédit-bail ou les revendeurs d’occasion. Par contre, des distributeurs de matériel électronique comme Tandy ont été au point de départ de la vague micro à la fin des années 70. Aujourd’hui, les canaux de distribution utilisés par la micro-informatique se sont considérablement diversifiés. Certains constructeurs pratiquent la vente directe par correspondance ou dans des boutiques à leur marque. Selon leurs cibles de marché et leur stratégie, les autres constructeurs utilisent soit des distributeurs spécialisés dans le matériel informatique, soit les canaux de la grande distribution généraliste, soit des sociétés de services informatiques qui intègrent leurs produits dans des systèmes complets. La diversité des modes de distribution complète naturellement la diversité des stratégies des constructeurs et la diversité du marché. Pour les offreurs qui ont choisi une stratégie de spécialisation, les sources potentielles d'avantage concurrentiel peuvent être très diverses et variables d'une firme à l'autre : fonctions, performances, qualité, délai de livraison, mais aussi apparence, esthétique ou dimensions. L’objectif de chaque offreur est de réussir à isoler suffisamment les segments de marché où il opère et de les protéger par des obstacles à l’entrée suffisants. Ces segments peuvent alors devenir des pseudo-secteurs où joue une dynamique interne de concentration, et où il sera possible de retrouver de meilleurs niveaux de profitabilité. L’action conjuguée des acteurs spécialistes tend ainsi à fragmenter le marché en segments dont la taille est un petit multiple de l’échelle économique de production, et à faire du secteur dispersé la juxtaposition d’un grand nombre de sous-secteurs concentrés. Mais les obstacles à la mobilité entre segments, qui jouent dans ce cas le rôle des obstacles à l’entrée, sont le plus souvent relativement faibles et peu défendables. De plus, le grand nombre de dimensions possibles de segmentation fait de chaque client potentiel la cible de plusieurs stratégies, et l’oblige à arbitrer entre des offres qui vont des systèmes banalisés bon marché à des systèmes personnalisés plus onéreux. En particulier, les stratégies de concurrence par des critères généraux comme les prix sont présentes, et souvent efficaces, dans presque tous les segments. La pression sur les prix est générale, et les profits ne sauraient beaucoup s’écarter de la moyenne, même pour les firmes qui réussissent le mieux une stratégie de spécialisation. Il en résulte

cliii

également qu’une stratégie de prix bas bien exécutée conduit à des volumes élevés alors même que le volume ne constitue pas en soi un avantage. En effet, la clé du succès n'est pas nécessairement la part de marché. La règle du jeu concurrentiel n'est plus de chercher à offrir la meilleure de toutes les solutions possibles afin de conquérir l'ensemble du marché informatique, mais de définir pour un segment identifié du marché une offre telle que la firme puisse tirer d'une ou plusieurs de ses caractéristiques propres un avantage concurrentiel vis à vis de ce segment. La seule condition liée à la part de marché est que la taille du segment visé doit être en proportion avec l'investissement nécessaire pour obtenir l'avantage concurrentiel. Pour un offreur donné, le choix d’un ou plusieurs segments et d’une stratégie doit reposer sur des avantages propres à la firme. Un faible coût de main d’œuvre orientera naturellement la firme vers une stratégie de concurrence par les prix. De même, la maîtrise d’une technologie orientera vers une concentration sur des produits et des segments où cette technologie peut être exploitée pour créer un avantage, et une familiarité exceptionnelle avec une classe d’utilisateurs poussera la firme à se spécialiser dans les besoins de ce segment de marché. Encore faut-il que les caractéristiques distinctives sur lesquelles repose l’avantage concurrentiel ne puissent pas être reproduites à l’identique par les concurrents, et correspondent donc à un savoirfaire particulier de la firme. L’éventail des stratégies viables dépend du segment et de l’offreur. Il n’y a pas de bons et de mauvais segments indépendamment de l’offreur, et il n’y a pas de stratégie qui soit bonne ou mauvaise indépendamment du segment et de l’offreur. Autrement dit, la question « quelle est la bonne stratégie pour un constructeur de matériel ? », comme la question « quelle est la bonne formule de distribution ? » n’admet pas de réponse générale. Des stratégies diverses et opposées coexistent et continueront de coexister.

Les caractéristiques du secteur
Au total, les règles du jeu qui gouvernent le métier d’assembleur de matériel sont caractéristiques d’un secteur dispersé. En toute rigueur, la production de matériel comprend plusieurs secteurs différents suivant la nature du matériel. Nous avons centré la discussion précédente sur l’assemblage des unités centrales, qui englobent souvent les unités de stockage sur disques. Les mêmes considérations s’appliqueraient mutatis mutandis aux différents périphériques, eux-mêmes produits en assemblant des composants de nature diverse dont certains se rattachent à l’industrie électronique tandis que d’autres relèvent de la mécanique de précision ou de la micromécanique. Certains secteurs comme celui des PC impliquent une activité de pur assemblage et donc une échelle de production faible. Ces secteurs sont peuplés de nombreuses firmes dont les plus importantes occupent moins de 15% du marché. La profitabilité de ces firmes se situe dans une fourchette étroite, dont le niveau moyen est cohérent avec celui des autres industries d’assemblage, c’est à dire quelques points de pourcentage, typiquement entre 4% et 6% pour les firmes qui réussissent le mieux. La concurrence

cliv

est vive et se traduit à la fois par l’apparition fréquente de produits nouveaux selon un cycle de l’ordre de l’année, et par une guerre des prix continuelle. Cette concurrence remet constamment en question les positions acquises, sans que la part de marché confère un avantage concurrentiel définitif. Les positions relatives des firmes changent donc d’année en année, la mortalité est importante comme d’ailleurs la natalité. Cette dynamique sectorielle se situe ainsi à l’exact opposé de celle qui régit le secteur des composants. Certains constructeurs consentent une activité de développement plus importante, soit que le secteur où ils opèrent le demande, comme c’est le cas pour les cartes électroniques ou certains types de périphériques, soit qu’ils adoptent une stratégie de différenciation par les produits dans des secteurs dispersés. Dans le premier cas, on voit apparaître des structures sectorielles plus concentrées et des profitabilités plus dispersées, voire dans des cas extrêmes de haute technologie, comme les blocs d’impression laser ou les écrans plats, une situation d’oligopole asymétrique qui rejoint celle des microprocesseurs. Le second cas peut apporter à l’entreprise des marges supérieures à la moyenne du secteur dans la mesure où ses investissements de différenciation lui donnent un avantage décisif sur un marché isolé et porteur, comme les micro-ordinateurs de haut de gamme. D’une façon générale, les progrès de la standardisation abaissent les obstacles à l’entrée et favorisent la multiplication des purs assembleurs, en même temps qu’ils réduisent le nombre des secteurs où un effort de recherche et développement est nécessaire. On peut donc s’attendre à ce que l’industrie du matériel prenne un caractère de plus en plus dispersé, ce qui implique en particulier que les positions y soient en permanence instables et que les profits supérieurs à la normale y soient de plus en plus rares.

La miniaturisation et ses limites
Nous avons vu qu’au niveau le plus élémentaire le progrès technologique se traduit par une augmentation de la capacité de chaque puce, qu’il s’agisse de mémoire ou de fonctions de traitement. Il en résulte que la réalisation d’un niveau donné de fonctions et de performances requiert de moins en moins de composants. Dans les ordinateurs les plus récents, le microprocesseur incorpore des fonctions jusque là réalisées par des puces spécialisées distinctes implantées sur la carte mère, par exemple le calcul en virgule flottante, la gestion de l’alimentation électrique ou les mémoires cache. Parallèlement, en même temps que des fonctions migrent de la carte vers le microprocesseur, d’autres, comme le traitement du son et de l’image, migrent vers la carte mère à partir des cartes additionnelles en attendant de finir un jour incorporées au microprocesseur. Au total, pour un niveau donné de fonction et de puissance, le nombre de pièces distinctes se réduit et l’assemblage devient de plus en plus simple. Ce mouvement continuel d’intégration n’est d’ailleurs pas nouveau. Il n’y a pas si longtemps, la richesse fonctionnelle et la performance qui tiennent aujourd’hui dans un boîtier de 40 cm de coté demandaient plusieurs armoires installées dans une grande pièce climatisée.

clv

Cette évolution d’ensemble peut être exploitée de deux façons : ou bien réduire le nombre de niveaux d’assemblage, ou réduire la complexité et les dimensions de chaque niveau. En suivant la première voie, l’unité centrale des micro-ordinateurs comparables aux machines courantes actuelles se réduira bientôt à deux puces sur une carte, plus une ou deux unités de disque et quelques connecteurs externes, mais la modularité et la capacité d’évolution du système seront alors limitées. Adopter la seconde voie permet de conserver la modularité et la possibilité d’extension et de remplacement de fonctions. Dans cet esprit, les constructeurs peuvent délibérément choisir d’implanter des fonctions optionnelles sur des cartes séparées ou des composants amovibles sur la carte mère. Si la miniaturisation des circuits est l’essence même du progrès des composants, elle se heurte aux autres niveaux à des limites externes. Nous avons vu qu’il n’est guère utile de fabriquer des puces de dimension inférieure à 1 cm ; De la même façon, une carte amovible doit pouvoir être facilement manipulée et assez grande pour ne pas se perdre. Quant à la miniaturisation des systèmes, elle est limitée par les contraintes de la communication homme-machine, qui imposent aux claviers une taille compatible avec celle des doigts, aux écrans des dimensions cohérentes avec les contraintes de la vision humaine, et aux imprimantes la taille de la page imprimée. Les dimensions des matériels ne sauraient donc descendre en dessous de certaines limites définies par des considérations totalement étrangères à l’informatique, donc indifférentes aux développements technologiques dans ce domaine. C’est ainsi que les standard dimensionnels des matériels informatiques se rapprochent de standards déjà reconnus dans d’autres domaines voisins : le format carte de crédit pour les cartes amovibles (format PCMCIA), et le format A4 pour les ordinateurs portables. Par ailleurs, réduire les dimensions ne constitue pas toujours un avantage concret. Un ordinateur de bureau doit être doté d’un écran et un clavier de bonne taille, et les autres unités peuvent être placées à un endroit où elles ne gênent pas. Pour un même ensemble de fonctions, différentes formes de réalisation sont possibles, et donc plusieurs systèmes différents répondant au même besoin fonctionnel peuvent être proposés. Dans un secteur dispersé à faible échelle économique de production, on peut prévoir que toutes les offres correspondantes coexisteront et que le client aura le choix.

Evolution des structures industrielles
Alors que, depuis les années 60, l’industrie informatique traditionnelle réunissait chez les mêmes acteurs tous les rôles allant de celui de fabricant de composants à celui d’assembleur de systèmes, le monde du PC s’est construit d‘emblée sur une séparation nette de ces rôles, qui y sont joués par des secteurs distincts. Cette répartition des rôles, qui permet à chaque acteur d’aller jusqu’au bout de sa logique économique propre, explique tout à la fois la vitalité du secteur des matériels, le nombre des fournisseurs, la guerre des prix et l’amélioration continuelle du rapport prix/performances, la variété des offres, le gouffre qui sépare le ratio prix/performances des micro-ordinateurs de celui des systèmes conventionnels, mais aussi la rentabilité modeste et le taux de mortalité des entreprises du secteur.

clvi

Rappelons une fois encore que les différences entre le monde des microordinateurs et celui de l’informatique traditionnelle ne sauraient s’expliquer par des raisons techniques. En réalité, ce sont les mêmes technologies qui sont exploitées dans les deux cas, et les causes des différences doivent être recherchées dans les structures industrielles respectives. Peut-on alors penser que le monde des moyens et grands systèmes, qui a jusqu’ici conservé pour l’essentiel sa structure intégrée, et celui des stations de travail qui s’est construit sur le même modèle, vont se convertir à cette séparation des rôles qui fait le dynamisme du monde micro-informatique ? Dans le même temps où l’assemblage des micro-ordinateurs se simplifie, les techniques d’assemblage actuelles permettront d’assembler des systèmes de haut de gamme au même coût que les petits systèmes d’aujourd’hui. On pourra en particulier placer plusieurs microprocesseurs sur la même carte et plusieurs de ces cartes dans un même boîtier, afin de constituer des systèmes multiprocesseurs dont la puissance sera un multiple de celle des processeurs élémentaires et dépassera celle des plus gros ordinateurs actuels pour le prix d’un PC actuel. On pourra par exemple, sans modifier le boîtier ni les techniques d’assemblage, loger deux processeurs sur chacune des quatre cartes qui composent souvent un PC, et passer ainsi d’un processeur de 20 Mips à 8 processeurs de 200 ou 300 Mips, pour une augmentation relativement faible du coût total.
40

Les paramètres physiques qui déterminent les coûts d’assemblage, c’est à dire les dimensions des cartes, des puces et des conducteurs, restent stables dans le temps car les conséquences du progrès technologique sont purement internes à la puce. Contrairement au cas des composants, les mêmes techniques d’assemblage peuvent être utilisées pour des générations différentes, et l’échelle économique de production des cartes ou des systèmes complets reste à peu près constante. Dans un marché en expansion, il y a donc place pour un nombre croissant de concurrents, et la dispersion et la variété du secteur auront tendance à augmenter. Les matériels produits selon le modèle des PC, et même les constructeurs actuels de PC, entreront donc de plus en plus en concurrence directe avec des ordinateurs traditionnels en jouissant d’avantages considérables dans le domaine des prix et de la variété de l’offre. Cette concurrence se situe aujourd’hui à la limite basse des miniordinateurs, où les micros de haut de gamme ne cessent de progresser. Dans le domaine des stations graphiques, les particularités des processeurs Risc maintiennent encore une frontière avec les micro-ordinateurs, mais la fusion imminente des processeurs en un seul secteur va permettre aux PC de devenir directement concurrentiels. En se structurant comme le monde du PC, ce nouveau segment combiné des microordinateurs et des stations acquerra encore plus de vigueur pour concurrencer les matériels traditionnels, y compris par des multiprocesseurs à base de moteurs bon marché du commerce. Il existe d’ailleurs déjà dans le haut de gamme des segments isolés comme celui des grands ordinateurs massivement parallèles ou des serveurs de fichiers construits à partir de puces standard, qui constituent autant de foyers à partir

40

millions d’instructions par seconde

clvii

desquels le modèle PC se propagera dans toute la gamme des fonctions et des puissances. A terme, aucun segment du marché ne sera épargné par cette dynamique. La fragmentation extrême du secteur des PC s'étendra ainsi à l’ensemble de l’informatique, Simultanément, la concurrence très vive entraînera une baisse des prix et des marges qui généralisera à toute l'informatique les pratiques du monde PC, en particulier le rapport prix/performances caractéristique du monde micro. Anticipant sur cette évolution prévisible, IBM a d’ailleurs déjà annoncé que toute sa gamme reposerait à terme sur le PowerPC. En résumé, les offreurs qui choisissent d’utiliser les composants du marché et de se limiter à l’assemblage des matériels peuvent concentrer leurs efforts sur la réduction des prix d’une part, la satisfaction des besoins de segments particuliers d’autre part. Ce faisant, ils ne cessent d’accroître l’avantage concurrentiel des produits conçus selon ce modèle et d’en étendre le succès à tout le marché, supplantant ainsi les offreurs conformes au modèle traditionnel. La concentration du secteur amont des composants et la standardisation des microprocesseurs a ainsi pour contrepartie l’extrême dispersion et la diversité du secteur aval des matériels. Dans ce dernier, chaque attribut du produit ou du système de distribution devient un facteur possible de différenciation et de concurrence, et de ce fait un domaine potentiel d'innovation. Les acteurs y sont poussés à innover en permanence, en identifiant des segments de marché qui présentent des besoins spécifiques et en développant des produits diversifiés en étroite adéquation avec ces besoins. Tout le secteur des matériels devient une machine à dénicher et à satisfaire les besoins particuliers au prix le plus bas possible, ce qui conduit à la fois à une réduction continuelle des prix, une amélioration des fonctions et des performances, et une diversification des offres. Cette dynamique déborde le secteur de l’informatique au sens strict. La baisse continue du coût des composants conduit à intégrer l'informatique à un nombre croissant de produits industriels. C'est depuis longtemps le cas pour des objets coûteux comme les avions, les engins militaires ou certaines machines-outils, plus récemment pour des appareils plus courants comme les appareils photo, la haute fidélité ou les automobiles. A l'exemple des calculatrices ou des jeux électroniques, on voit apparaître des objets nouveaux de nature informatique comme des agendas électroniques ou des répertoires de poche. Ce phénomène se répandra progressivement dans tous les secteurs, et tendra à estomper les frontières entre l’informatique et les autres industries.

Un secteur en pleine santé
Cette vision d'un secteur des matériels extrêmement vivant et créatif est à l'opposé des idées à la mode qui voient dans la crise actuelle les prémices d'un effacement progressif des constructeurs de matériel derrière les offreurs de logiciel et de services, voire de leur disparition à terme.

clviii

Ce pronostic défavorable est doublement superficiel. Le secteur des matériels représente en 1992 plus de 200 Milliards de $ soit 64% du CA total, en croissance de 5.7% par rapport à 91. Même si le secteur des progiciels (12% du total avec 37 Milliards de $) et celui des services (16% avec près de 50 Milliards) croissent plus vite, le matériel reste de loin le secteur le plus important. En tout état de cause, il est bien difficile d'imaginer une informatique sans matériels pour l'exécuter, ou des matériels sans constructeurs pour les produire. Le secteur des matériels n'est aucunement menacé de disparition. L’origine de l’erreur réside dans une analyse superficielle des phénomènes de transition entre la structure ancienne et la nouvelle structure, dont nous parlerons en détail au Chapitre 15. Trois aspects inhérents à une structure de secteur dispersé sont en cause. Premièrement, les parts de marché et les profits y sont normalement moins élevés que dans le secteur concentré qu’était l’informatique traditionnelle, donnant l’impression d’une régression. Deuxièmement, les positions y sont par nature plus volatiles et le taux de mortalité des entreprises y est élevé, mais il est compensé par un taux de natalité également élevé. Enfin, les media exposent largement les difficultés des grands offreurs traditionnels, qui doivent tout à la fois s’adapter à des parts de marché et des rentabilités en baisse et souvent abandonner certaines de leurs activités où ils ont cessé d’être concurrentiels. Mais tout cela n’empêche pas la prospérité de firmes qui savent agir conformément aux règles de la nouvelle structure sectorielle, sans nécessairement atteindre des parts de marché qui les rendraient visibles. En tout état de cause, la santé d’une industrie ou d’un secteur industriel doit s’apprécier non pas à la seule aisance matérielle des acteurs qui la constituent, mais principalement selon leur capacité collective à satisfaire la demande du marché. En outre, les difficultés financières voire la disparition de telle ou telle entreprise ne sont pas nécessairement des signes de mauvaise santé de l’ensemble de l’industrie. Pas plus que dans l’étude des espèces vivantes, il ne faut confondre la santé de l’espèce des constructeurs de matériel informatique avec celle de chaque individu pris isolément. Mesurée comme il se doit à l’aune de l’introduction de produits nouveaux et à l’évolution des prix et des performances, l’industrie des matériels informatiques est éclatante de santé, même si sa nouvelle logique ne lui permet plus les marges confortables dont jouissaient naguère certains généralistes.

clix

Chapitre 9 La différenciation des entreprises
Des caractéristiques différentes selon l’activité. Les sept S de McKinsey. L’approche relativiste de Lawrence et Lorsch. Segmentation, différenciation et intégration. L’incertitude et les limites de la rationalité. Cycles, horizon et culture. Les options de segmentation et la structure d’ensemble. Segmentation et personnalité. Les personnalités par secteur. Les conséquences de l’inadéquation.

Dans les deux chapitres précédents, nous avons vu que des productions différentes par leur structure de coûts donnent naissance à des structures sectorielles différentes : secteur concentré quand le ratio des coûts fixes aux coûts variables unitaires est élevé, secteur dispersé dans le cas inverse. Le secteur des matériels apparaît alors comme un secteur hétérogène, à l’intérieur duquel la fabrication des composants d’une part, l’assemblage des matériels d’autre part obéissent à des logiques de production et à des dynamiques concurrentielles radicalement différentes. La structure des coûts de production, et singulièrement le rapport des coûts fixes aux coûts variables, jouent un rôle fondamental en déterminant le degré de concentration, le potentiel de profitabilité et la diversité du secteur, ainsi que la viabilité des choix stratégiques ouverts à chacun des acteurs. Nous verrons plus tard comment ces mêmes considérations s’appliquent aux activités de logiciel et de services prises isolément. Auparavant, nous allons compléter cette distinction entre secteurs concentrés et secteurs dispersés en recherchant dans quelle mesure des différences entre formes de production peuvent entraîner des différences dans les caractéristiques internes des entreprises. Il est par exemple probable que les méthodes de gestion et les qualités requises pour réussir dans un secteur concentré sont différentes de celles qui permettent de réussir dans un secteur dispersé. Si tel est bien le cas, une même firme pourra difficilement opérer avec succès dans les deux environnements à la fois, et il existera donc des incompatibilités entre prestations de natures différentes. Le survol de l’ensemble de l’industrie informatique, que nous avons effectué dans les cinq premiers chapitres, nous laisse supposer que les paniers de prestations des différentes firmes ne s’organisent pas au hasard. Certaines combinaisons sont très fréquentes, d’autres très rares, et l’industrie dans son ensemble s’organise autour d’un petit nombre de modèles d’entreprise. Des offreurs traditionnels généralistes, c’est à dire diversifiés et intégrés, coexistent aujourd’hui avec un nouveau monde du PC essentiellement formé de firmes spécialisées. Le modèle généraliste est le plus ancien, mais aussi le moins nombreux et celui qui comporte le plus d’entreprises en difficulté. On constate également que les quelques firmes réellement mixtes, c’est à dire dont l’offre est formée à parts voisines de prestations de nature différente, sont toujours moins performantes que les firmes spécialisées dans chacune des composantes de leur offre. D’une façon générale, l’ensemble de l’industrie informatique évolue vers une spécialisation plus poussée des entreprises, et non vers la diversification de leur offre et

clx

l’intégration verticale des étapes de fabrication, contrairement aux conceptions habituelles des économistes. Ces questions de diversification et d’intégration sont en général abordées de façon purement quantitative à partir d’une comparaison des avantages et des coûts respectifs, et en supposant implicitement que rien ne s’oppose a priori à ce que des productions variées coexistent de façon efficace au sein de la même organisation. Nous pensons au contraire que pour réussir dans des productions de nature différente, les entreprises doivent posséder des qualités suffisamment différentes pour rendre incompatibles certains types de produits au sein d’une même organisation, au point que les entreprises qui tentent malgré tout ces combinaisons de produits échouent nécessairement à être concurrentielles dans l’un ou l’autre, voire dans la totalité des marchés concernés. En cherchant systématiquement, pour chaque type élémentaire de production, à identifier quelles caractéristiques des entreprises sont liées au succès concurrentiel dans les secteurs correspondants, nous pourrons aborder les problèmes liés à la coexistence de productions différentes dans une même entreprise. Nous éclairerons ainsi les aspects de la structure industrielle qui concernent la diversification ou la spécialisation des entreprises, l’intégration ou la « dés-intégration » des productions. Les offreurs intégrés traditionnels vont-ils continuer leur mouvement de dés-intégration ? L’industrie informatique va-t-elle conserver les spécialisations actuelles, évoluer vers de nouvelles combinaisons comprenant par exemple une forte composante de services comme les commentateurs l’annoncent souvent, ou au contraire se spécialiser encore plus ?

La personnalité des entreprises
Porter avait déjà noté que des stratégies différentes demandent des qualités différentes et incompatibles. Une stratégie reposant sur le contrôle des coûts exige une supervision constante à des niveaux très détaillés, des objectifs quantitatifs stricts et une psychologie qui valorise le sens de l’économie. Au contraire, une stratégie reposant sur les qualités du produit exige d’encourager la créativité et l’autonomie individuelle par un système de mesure plutôt qualitatif, et par un style général propre à attirer des professionnels de haut niveau. A ces stratégies correspondent des personnalités d’entreprise incompatibles, au point qu’une entreprise qui négligerait de choisir clairement entre les deux serait vouée à l’échec, ce que Porter appelle « enlisement dans la voie médiane ».

clxi

Facteurs Stratégiques
stratégie "produits" Investissements Compétences Culture recherche recherche vente créativité risque vision souple délégation long terme qualitatifs stratégie "coûts" production production distribution économie discipline sens du détail hiérarchique contrôle central court terme quantitatifs

Organisation Mode Gestion Motivations Objectifs

Si de telles différences se rencontrent dans un même secteur d’activité entre firmes qui choisissent des stratégies différentes, on peut s’attendre a fortiori à ce que les qualités qui font le succès des entreprises soient radicalement différentes selon qu’elles opèrent dans un secteur concentré ou dans un secteur dispersé. Par exemple, dans la production de composants, il s’écoule une durée importante entre les décisions de conception d’une nouvelle puce et d’investissement dans de nouvelles lignes de production d’une part, la mise sur le marché et la production de revenu pas ces mêmes puces d’autre part. Les décisions courantes engagent dans l’immédiat des investissements lourds, et entraînent des conséquences lointaines qui seront devenues irréversibles quand on pourra les constater. Il est donc vital de faire apparaître tous les problèmes potentiels le plus tôt possible, de leur trouver des solutions par avance. Pour cela, il faut expliciter des plans à long terme, les soumettre à la critique, encourager les conflits tant que les décisions ne sont pas irréversibles, et disposer d’un système de gestion des conflits assez efficace pour produire des résultats positifs. Un tel système de gestion est nécessairement coûteux en ressources, car l’entreprise passe un temps appréciable à résoudre par avance des problèmes qui ne se poseront peut-être jamais dans la réalité. Ces réflexions demandent des délais qui ne se conçoivent que dans des activités à cycle long où on a du temps devant soi, mais peuvent également introduire par elles-mêmes des retards dans l’aboutissement des projets. Ce mode de fonctionnement implique une culture d’entreprise où l’expression des désaccords est encouragée tant que le débat reste ouvert, mais où tout le monde doit se ranger derrière les décisions de l’entreprise quand elles sont arrêtées. C’est par exemple l’image du système de gestion traditionnel d’IBM jusque dans les années 80. Au contraire, dans l’activité d’assemblage de matériels, le cycle de développement et de production est court, et une décision qui se révélerait insatisfaisante à l’épreuve du marché peut être corrigée rapidement. Les décisions courantes engagent donc relativement peu l’avenir. De plus, arriver le premier sur un

clxii

nouveau marché, offrir le premier un nouveau produit et opérer au moindre coût sont autant d’avantages concurrentiels qui peuvent être déterminants. Une stratégie possible est donc de consacrer aux études préliminaires aussi peu de temps et d’efforts que possible, et de laisser le marché porter un jugement sur les produits. Dans la mesure précisément où les investissements spécifiques ont été faibles et où un produit nouveau peut être rapidement mis sur le marché en cas d’échec du précédent, cette stratégie peut être gagnante sur un marché très mobile. Le système de gestion correspondant doit laisser la bride sur le cou à l’innovation tout en limitant sévèrement les investissements préliminaires, mais mesurer en temps réel la réponse du marché et la rentabilité de chaque produit. La culture d’entreprise doit valoriser le profit à court terme, l’audace dans l’innovation mais aussi la soumission aux caprices du marché et la capacité de réagir immédiatement aux signaux externes, y compris pour abandonner sans états d’âme les produits qui ne rencontrent pas le succès espéré. On devine qu’une entreprise bien adaptée à l’une de ces deux activités sera ipso facto mal adaptée à l’autre.

Les Sept S de McKinsey
Pour analyser les caractéristiques internes des entreprises, qui gouvernent leur comportement et forment en quelque sorte leur personnalité, nous utiliserons le modèle des « sept S’s » proposé par McKinsey . Dans cette représentation, les constituants de la personnalité de l’entreprise sont :
41

–la stratégie (Strategy), ensemble de plans et de règles d’action préparés pour atteindre les objectifs de la firme, –la Structure, qui définit l’affectation et l’articulation des responsabilités à l’intérieur de la firme, –les systèmes de gestion et les procédures (Systems), c’est à dire les mécanismes formels d’information et de prise de décision, –le Style, c’est à dire les habitudes et les modes de comportement qui prévalent à l’intérieur et à l’extérieur de l’entreprise, –les personnels (Staff) –les compétences et le savoir-faire (Skills) –les valeurs partagées, les modèles de comportement, les références communes (Shared Values). Un thème central du livre de Peters et Waterman est que les facteurs les plus informels (« soft ») et les moins directement contrôlables, c’est à dire ceux qui constituent les valeurs partagées, la culture et le style de management, sont aussi ceux qui ont la plus grande influence sur le comportement des personnes et donc le succès de la firme. Un rôle essentiel du management consiste donc à modeler indirectement la culture d’entreprise et le style de management à travers son propre comportement et par

41

Peters TJ, Waterman RH : In Search of Excellence (Harper & Row, 1982)

clxiii

des actions de nature symbolique, plus que d’intervenir directement dans les décisions. Cette vue s’oppose à celle de l’école rationaliste incarnée par Taylor. Notre propos n’est pas de résumer cet ouvrage, qui a eu en son temps un assez grand retentissement et a soulevé de nombreuses critiques. Pour certains chefs d’entreprise, il ne fait qu’expliciter leur expérience quotidienne. Pour d’autres au contraire, ses thèses relèvent de la rêverie et sont dangereuses pour l’entreprise. Nous pensons que la diversité des réactions s’explique en partie par le fait que le poids relatif de chacun des Sept S dans le succès de l’entreprise varie selon le type d’activité, ce que nous cherchons précisément à montrer, et que Peters et Waterman n’ont pas abordé dans leur ouvrage. Autrement dit, certaines formes d’activité demandent une forte implication de chaque collaborateur et peuvent largement se passer de systèmes formalisés, alors que d’autres exigent des systèmes de contrôle très rigoureux qui font passer au second plan les motivations individuelles. Nous reviendrons plus loin sur cette idée.

Organisation, culture et personnalité
Les facteurs « Staff » et « Skills », c’est à dire l’inventaire du personnel et de ses compétences, décrivent en quelque sorte la matière brute de l’entreprise, alors que les autres facteurs sont le ciment qui unit les personnes autour d’objectifs communs et en fait une entreprise plutôt qu’une foule amorphe. Il est clair que l’activité de l’entreprise dicte la nature des compétences qui doivent y être présentes, et qu’ainsi les compétences caractérisent d’une certaine façon un métier. Mais ce qui nous intéresse, c’est de voir comment des organisations ou des cultures différentes peuvent être associées à des formes de production différentes, et à la limite différencier deux firmes dotées à la base de personnels de compétences identiques en deux entreprises de métiers différents. Par exemple, une entreprise de progiciel et une société d’assistance à la programmation sont toutes deux formées de programmeurs, mais diffèrent par leur organisation et leur culture. En ce sens, le métier de l'entreprise est distinct du métier des individus qui la composent. Par ailleurs, toute entreprise regroupe des personnels de différentes compétences, comme des ingénieurs, des commerçants et des comptables. On pourrait donc penser qu’il doit être toujours possible de faire coexister les personnels et les compétences nécessaires à n’importe quelle combinaison de prestations. S’il doit y avoir incompatibilité ou conflit, il faut en rechercher l’origine dans le style ou les valeurs propres à chacune des populations concernées. Comme la structure et les systèmes de gestion, la stratégie est par excellence le domaine de la Direction. Néanmoins, nous ne la considérerons pas comme une caractéristique intrinsèque de l’entreprise, mais plutôt comme un outil de gestion permettant de rassembler un ensemble de décisions en un tout cohérent éclairé par une perspective à long terme. Pour jouer un rôle utile, la stratégie doit nécessairement s’incarner par des décisions opérationnelles ou des actions relevant des autres domaines, par exemple une politique de recrutement qui affectera les facteurs « staff » et « skills ». Elle peut aussi se concrétiser dans le choix d’une structure et de systèmes de management.

clxiv

Dans la plupart des entreprises, la structure et les systèmes font l’objet de descriptions formelles établies sous le contrôle de la Direction et publiées sous forme d’organigrammes et de manuels de procédure. La conformité à ces descriptions est contrôlée en permanence, quelquefois par des services spécialisés d’audit, et tous les changements font l’objet d’études approfondies et d’actions de mise en œuvre spécifiques. Structure et systèmes forment donc des composantes très formalisées de la personnalité de l’entreprise, placées sous le contrôle direct et explicite de la Direction. Nous appellerons organisation d’une entreprise la combinaison de sa structure et de ses systèmes d'information et de management, qui déterminent les modalités de prise de décision et d'exécution des décisions. Systèmes et structure sont fortement interdépendants. La structure est l’anatomie de l’entreprise ; elle dit comment l’entreprise est construite et comment sont affectées les tâches et les responsabilités. Les systèmes en sont la physiologie ; ils disent comment l’entreprise fonctionne et quels sont ses processus de décision et d'information. En elle-même, la structure définit par défaut un système hiérarchique qui peut être suffisant dans une petite entreprise simple. Dans une organisation plus complexe, des systèmes sont nécessaires pour définir en plus les relations horizontales entre pairs, les relations transversales entre unités lointaines et les processus globaux (« business processes »).

Les sept S revisités

Secteur

Strategy

Staff

Structure

Systems

Organisation

Skills

Shared Values

Style

Culture

Contrairement à l’organisation, les valeurs partagées et les styles de comportement se forment essentiellement par l'effet involontaire et inconscient de l'histoire de l'entreprise. A aucun moment la culture ne peut faire l’objet d’une décision globale. Tout au plus la sélection des personnes à l’embauche peut-elle privilégier un certain mode de pensée et de comportement, et le système de récompenses et de sanctions peut-il jouer un rôle de conditionnement interne à l’entreprise. Mais c’est l’histoire accumulée de la firme qui crée les légendes, les héros et les méchants, autrement dit la mythologie par laquelle s’exprime le système de valeurs et sur laquelle se modèlent les comportements des individus.

clxv

Nous appellerons culture de l’entreprise la combinaison de son style et de ses valeurs, c'est à dire l’ensemble de références, de valeurs partagées et de normes de comportement qui gouvernent, consciemment ou inconsciemment, les actions de chaque individu y compris les dirigeants et tous les autres responsables, et sur lesquels la Direction n’a qu’une influence indirecte et limitée. L'organisation et la culture forment ensemble la personnalité de l'entreprise.

L’approche relativiste de l’organisation
Considérons d’abord le niveau de l’organisation, qui a donné lieu à de très nombreux travaux et à de multiples théories souvent contradictoires. Dans leur immense majorité, ces travaux se préoccupent de définir des lois ou des règles empiriques applicables à toutes les entreprises dans toutes les situations, quelle que soit en particulier la nature de leurs productions. Cette orientation revient à postuler que les règles d’organisation sont indifférentes à la nature de l’activité de l’entreprise. Plusieurs auteurs ont contesté ce postulat à partir des années 60, mais il a fallu attendre 1967 pour que soient exprimées et développées dans l’ouvrage maintenant classique de Lawrence et Lorsch les idées fondatrices de l’école « relativiste » ou « de la contingence », pour laquelle il n’existe pas d’organisation ni de système de management qui soit meilleur que les autres quelles que soient les circonstances. Pour Lawrence et Lorsch, « le type d’organisation requis varie suivant la nature des biens ou services fournis, les moyens mis en œuvre et l’environnement économique à un moment donné », et la question à laquelle leurs travaux cherchent à répondre est « quelle sorte d’organisation doit-on choisir en fonction des variables économiques et des conditions du marché ? ».
42

C’est sur ces travaux que nous nous appuierons dans la suite, pour deux raisons essentielles. Premièrement, en tout état de cause, la théorie relativiste nous semble seule conforme à la réalité de l’expérience des dirigeants qui ont eu l’occasion de connaître des environnements suffisamment différents. En second lieu, la présentation et les éléments d’explication proposés par Lawrence et Lorsch forment une bonne base pour notre propos, qui est de caractériser les formes organisationnelles les mieux adaptées aux différents secteurs d’activité.

La segmentation et la différenciation
L’organisation a pour objet de distribuer le travail de l’entreprise de façon efficace entre les employés de l’entreprise ou de l’unité concernée. On peut la représenter en première analyse comme une répartition des activités, des ressources et des responsabilités de chaque unité entre des sous-unités de niveau inférieur, ce processus de fractionnement se déroulant de façon récursive à partir du niveau global de l’entreprise, jusqu’à ce que les unités élémentaires deviennent indivisibles en se réduisant à un individu ou un équipement élémentaire.

42

Lawrence PR, Lorsch JW : Organization and environment (Richard Irwin, 1967)

clxvi

Ce fractionnement, que la plupart des auteurs appellent segmentation, conduit à créer une hiérarchie d’unités, dotées chacune de ressources et de responsabilités, et où les responsabilités de chaque unité sont la réunion des responsabilités des sous-unités qui la composent. La segmentation, en introduisant des différences d’activités et d’objectifs entre les unités, induit également des différences d’attitudes et de comportement. Outre les objectifs eux-mêmes, ces différences concernent principalement : –l’« orientation temporelle », c’est à dire la façon dont les cadres projettent leurs actions dans le temps, en particulier le poids relatif du court terme et du long terme, –l’« orientation interpersonnelle », c’est à dire l’importance relative accordée par les cadres à l’exécution des tâches d’une part, aux relations avec leurs collègues d’autre part. Cet ensemble de différences induit à son tour des différences dans l’organisation interne de chaque unité, telle qu’elle résulte du niveau suivant de segmentation.

Différenciation et incertitude
incertitude faible Pouvoir Structure Nb de niveaux Procédures Objectifs Relations Type d' Organisation dirigeants stricte élevé formelles court terme centrées sur les tâches mécaniste incertitude élevée réparti souple faible indicatives long terme centrées sur les personnes organique

De leurs études expérimentales, Lawrence et Lorsch dégagent la conclusion que les différences d’objectifs, d’orientation temporelle et interpersonnelle, ainsi que d’organisation interne, constatées entre unités, s’expliquent par trois critères : la clarté de l'information disponible pour les décisions, la probabilité des relations causales qui relient les décisions à leurs conséquences, et le temps de réponse de l'environnement aux actions de l’unité. Ces trois facteurs caractérisent le degré d'incertitude de l’environnement dans lesquels évolue l’unité. Dans un environnement relativement certain, les objectifs à court terme dominent, les collaborateurs sont plus motivés par l’exécution correcte de leurs tâches que par les relations personnelles, et l’organisation tend à être très formelle ; au contraire, dans un environnement incertain, les objectifs sont à long terme, la qualité des relations personnelles devient une motivation importante, et l’organisation est plus informelle.

clxvii

L’intégration
Pour que l’organisation fonctionne correctement, les activités de ses différentes unités doivent être intégrées grâce à des mécanismes de coordination. D’une façon générale, le besoin d'intégration croît avec le niveau de différenciation des unités concernées, mais les dispositifs d’intégration ne sont pas nécessairement formels. Ils peuvent emprunter exclusivement la voie hiérarchique ou reposer sur des contacts directs entre unités. Leur mise en œuvre peut n’impliquer que les représentants des unités concernées, ou être confiée à des unités d’intégration spécialisées. Les méthodes de résolution des conflits peuvent être diverses : confrontation, éludation, arbitrage, décisions imposées par la hiérarchie, etc. Par exemple, des unités qui auraient en commun, malgré la différenciation de leurs objectifs, une culture favorisant le dialogue et une forte adhésion aux objectifs généraux de l’entreprise, auraient probablement une tendance naturelle à résoudre leurs conflits par contact direct sans avoir besoin de procédures formalisées. Les mécanismes d’intégration sont efficaces lorsque chacune des décisions de résolution des conflits est prise au point de l’organisation où sont réunis le pouvoir de faire appliquer la décision, l’information nécessaire et la compétence nécessaire à la prise de décision. Le niveau de décision optimal varie donc selon les situations, l’origine et la volatilité de l’information, la complexité et le degré de spécialisation des activités concernées, etc. Pour Lawrence et Lorsch, « dans les environnements les moins incertains, les conflits doivent être liquidés et l’intégration atteinte aux niveaux les plus élevés par la voie hiérarchique ; dans les plus incertains, ce doit être aux plus bas niveaux de commandement ». Cette différence explique les différences entre les personnalités les mieux adaptées à l’environnement. Au total, une organisation est adaptée à sa mission et à son environnement si d’une part son niveau de différenciation est suffisant pour lui permettre d’exécuter correctement sa stratégie compte tenu des incertitudes de l'environnement, et si d’autre part son niveau d'intégration est à la mesure de son niveau de différenciation. L’entreprise pourra alors non seulement fonctionner de façon efficace dans son environnement, mais aussi trouver les réponses correctes pour s’adapter aux évolutions de l'environnement. Les conclusions de Lawrence et Lorsch réconcilient les thèses traditionnelles et celles de l’école des relations humaines en constatant que l’organisation hiérarchique autocratique recommandée par l’école classique est adaptée aux environnements stables et certains, tandis que l’organisation souple et participative prônée par les seconds est adaptée à des environnements changeants et incertains.

Incertitude, organisation et culture
Rapprochons les concepts de segmentation, différenciation et intégration du modèle des Sept S que nous avons présenté ci-dessus. La démarche qui conduit à l’organisation d’une entreprise peut se schématiser comme suit. A chaque niveau successif, en descendant à partir du sommet de

clxviii

l’entreprise, la Direction prend des décisions de segmentation, qui créent des unités de rang immédiatement inférieur, dotées chacune d’objectifs spécifiques et d’un environnement local. La spécificité des objectifs et des environnements entraîne une différenciation culturelle entre les unités, dont la Direction doit tenir compte dans la mise en place des dispositifs formels d’intégration qui constituent le système de management. Dans la mesure où les unités ainsi constituées doivent se segmenter à leur tour, leur culture propre et leur environnement local interviendront dans leurs décisions d’organisation, éventuellement de façon conflictuelle avec la culture des échelons supérieurs. La segmentation résulte de décisions de direction conscientes et contrôlées. Elle définit la structure au sens des 7S. Par contre, la différenciation se forme spontanément dans chaque unité en fonction de sa définition formelle par la segmentation d’une part, de son environnement d’autre part. La différenciation est donc de nature culturelle. Le mécanisme de segmentation, en affectant à chaque unité des missions spécifiques, lui confie le soin d’une partie spécifique de l’environnement externe, tandis que pour chacune des unités, les autres unités forment un environnement interne à l’entreprise. L’environnement caractéristique d’une unité se compose ainsi de tout ou partie de l’environnement externe à l’entreprise, des autres sous-unités et de l’échelon supérieur commun aux sous-unités de même niveau. L’environnement interne comporte généralement une part conventionnelle plus ou moins formalisée constituée par des normes, des standards, des procédures, … définies par l’échelon supérieur ou les autres sous-unités. Par exemple, le catalogue de produits est un élément de décision pour l’entreprise, alors qu’il fait partie de l’environnement de son service commercial. Les mécanismes de coordination peuvent être plus ou moins formels. Leur part formalisée constitue les systèmes au sens des 7S, tandis que leur part informelle relève de la culture. Autrement dit, les systèmes de management peuvent être définis comme la partie formelle des mécanismes de coordination, tandis que la culture regroupe en particulier l’orientation temporelle, qui dépend du cycle de l’activité, l’orientation interpersonnelle et la part informelle des mécanismes de coordination. Bien qu’ils aient noté que « le type d’organisation requis varie suivant la nature des biens ou services fournis... », Lawrence et Lorsch ont surtout pris en compte l’influence de l’environnement externe et de la fonction dans l’entreprise (recherche, vente, production...), et se sont peu occupés de rattacher l’organisation aux biens et services produits. Nous nous proposons de montrer maintenant comment l’organisation et la culture d’une entreprise sont influencées par les caractéristiques de sa production, en particulier : –la relation temporelle entre les dépenses et les recettes, c’est à dire la durée des cycles fondamentaux de production, –l’échelle de production, dont nous avons montré qu’elle dépend du rapport des frais fixes aux frais variables. Autant qu’à l’environnement, les facteurs de différenciation se rattachent à la nature de l’activité de l’unité ou de la firme. Deux firmes évoluant dans le même environnement mais dont les cycles de production sont différents peuvent avoir des

clxix

orientations temporelles différentes. En effet, « l’orientation temporelle est liée au temps de réponse des résultats définitifs » , c’est à dire au délai nécessaire pour connaître le résultat réel des décisions qu’on a prises. Nous verrons plus loin que ce délai, qui constitue en quelque sorte la portée temporelle des décisions ou l’horizon de l’organisation, est une bonne expression de l’incertitude, et contribue fortement à modeler l’organisation et la culture des entreprises.
43

Les limites du modèle rationnel
La plupart des théories, qu’il s’agisse d’organisation, de gestion ou d’économie, reposent explicitement ou implicitement sur une image de l’« Homme Rationnel ». Au moment de prendre une décision, celui-ci est supposé connaître l’ensemble complet des possibilités d’action parmi lesquelles il choisira son acte. Deuxièmement, les conséquences des différentes actions possibles sont connues avec certitude au moment de la décision, ou à tout le moins peuvent être affectées de coefficients de probabilité. Lorsque l’incertitude est prise en compte, c’est en affectant les valeurs futures de coefficients d’ajustement qui les rendent équivalentes à des valeurs actuelles certaines. Troisièmement, celui qui choisit peut, dés le moment de la décision, classer toutes les séries de conséquences possibles des plus souhaitables aux moins souhaitables. L’« Homme rationnel » est alors censé prendre chacune de ses décisions en comparant entre elles les conséquences des diverses actions possibles. Les théories de la décision peuvent se concentrer sur les techniques de comparaison entre les décisions concurrentes. Or l’expérience de la vie des entreprises n’est pas conforme à ce modèle rationnel. D’une part, un très grand nombre de décisions sont prises sans analyse détaillée, de façon en quelque sorte réflexe. Dans chaque organisation existent des schémas d’action préétablis liés à certaines situations ou problèmes plus ou moins récurrents, et ces schémas sont exécutés lorsque les symptômes perçus ressemblent suffisamment aux symptômes répertoriés. Lorsque ces schémas sont explicites, ils font le plus souvent partie du système de management de l’entreprise. Ils peuvent aussi être implicites voire inconscients et faire alors partie de la culture. D’autre part, dans la vie réelle, ni les coûts ni les bénéfices d’une décision ne peuvent être connus avec certitude au moment où cette décision doit être prise. Leurs valeurs et les probabilités attachées aux conséquences des actions ne représentent que des estimations fortement subjectives. Enfin, il est généralement admis que « la plupart des prises de décision humaines se rapportent à la découverte et à la sélection de choix satisfaisants et non de choix optimaux » .
44

Ces phénomènes expliquent la place relativement modeste de la pure rationalité économique dans la réalité de la vie industrielle, et limitent considérablement l’intérêt pratique des modèles mathématiques élaborés, ainsi que leur pertinence dans l’explication des phénomènes micro-économiques. Ils donnent en revanche une place
43

Lawrence et Lorsch, op cit

44 March JG, Simon HA : Les Organisations (Dunod, 1969) - traduction de « Organizations » (John Wiley and Sons, 1958)

clxx

primordiale aux facteurs culturels qui forment la personnalité de l’entreprise dans son fonctionnement quotidien. En effet, les décisions réflexes sont déterminées par des règles empiriques, des consignes et des échelles de valeurs qui appartiennent pour l’essentiel à la culture du décideur. Lorsqu’elles sont le résultat d’un travail conscient de la Direction, ces règles et ces valeurs peuvent exprimer une rationalité conforme aux intérêts de l’entreprise. Mais elles peuvent aussi bien en être indépendantes, et restent de toute façon de nature générale et essentiellement qualitative. Pour les décisions les plus importantes, qui font l’objet d’une étude spécifique, les facteurs culturels interviennent encore pour éliminer d’emblée les lignes d’action qui ne seraient pas conformes à la personnalité de l’entreprise telle qu’elle est perçue par les décideurs. Enfin, même pour les actions dont les conséquences peuvent être exprimées sous forme de flux financiers, la décision ne peut reposer sur la connaissance exacte de flux certains, mais seulement sur des prévisions de dépenses et de recettes, affectées toutes deux d’un coefficient d’incertitude. Toute décision comporte un risque qui ne peut être apprécié que de manière subjective. Certes, le décideur prudent chargera des experts de lui préparer les prévisions aussi élaborées et aussi argumentées que possible. Ceux-ci peuvent même avoir la sagesse de les présenter sous forme de plages de variation ou de scénarios alternatifs assortis de coefficients de probabilité (qui leur sont largement dictés par leur propre subjectivité). Il n’en reste pas moins qu’à l’instant de la décision, le responsable se détermine à partir de sa propre intuition de ce qui est pour lui le plus probable. Sa décision doit au moins autant à ses préjugés, à son expérience, à ses souhaits ou à son affectivité qu’au raisonnement économique. Confrontés à des choix identiques, les responsables ne prendront pas les mêmes décisions dans une organisation dont la culture valorise la prise de risque et dans une organisation qui pousse à la prudence, ou dans une organisation qui exalte la responsabilité individuelle et une autre qui prône la responsabilité partagée. Si les conséquences d’une décision pouvaient être connues avec certitude, la décision deviendrait automatique à partir du moment où l’information serait disponible. A condition que les objectifs de l’entreprise soient clairs pour tous, la décision serait la même quel que soit le point où elle serait prise. Outre son aspect hiérarchique, l’organisation se réduirait à un problème de circulation de l’information, et les différences culturelles éventuelles seraient sans importance. Dans la réalité au contraire, l’organisation doit se préoccuper à la fois de préciser qui doit intervenir dans chacune des décisions, et donc y faire intervenir sa culture personnelle, et de faire en sorte que la culture de chacun soit cohérente avec la rationalité de la firme dans le domaine où il aura à intervenir. La qualité de l’organisation et la validité de la culture conditionnent donc la pertinence et l’efficacité des décisions et des actions de l’entreprise. En particulier, en cas de changement dans la stratégie ou l’environnement, la personnalité acquise par une entreprise continue à lui dicter une part importante de sa conduite, même si une analyse rationnelle conduirait à adopter une conduite significativement différente.

clxxi

Recettes, dépenses et incertitude
Puisqu’il faut admettre que presque toutes les décisions de l’entreprise reposent sur des données incertaines et comportent un risque réel d’erreur, il faut attacher une importance primordiale aux possibilités de corriger une décision lorsqu’il apparaît que ses conséquences réelles ne sont pas conformes aux prévisions ou aux attentes qui l’avaient motivée. Ceci soulève deux questions : comment se crée l’information qui permet de mesurer les conséquences réelles d’une décision ? et dans l’hypothèse où une décision se révèle incorrecte, que peut-on faire à ce moment là pour la corriger ? Ces deux questions renvoient à la relation temporelle entre la formation des dépenses et la formation des revenus, dont nous avons évoqué au Chapitre 5 l’importance dans les possibilités de réaction de l’entreprise à la conjoncture. Outre que, pour une décision ou un produit donné, la réalité des coûts (le flux de dépenses) comme celle des bénéfices (le flux de recettes), sont toutes deux inconnues au moment de la décision, il se trouve que pour la plupart des décisions, les dépenses doivent être engagées en partie avant que les recettes correspondantes ne soient acquises. Autrement dit, les dépenses précèdent chronologiquement les recettes. En ce sens, presque toutes les décisions importantes de l’entreprise impliquent donc des investissements, même si le vocabulaire comptable réserve cette dénomination aux dépenses dont les bénéfices attendus se situent dans des exercices comptables ultérieurs. Au niveau d’un produit et par rapport au cycle de production habituel qui mène de la recherche au développement, à la production et à la commercialisation, les flux de dépenses se situent à tous les stades, les flux de recettes seulement à celui de la commercialisation. De plus, les dépenses résultent d’une décision unilatérale de l'entreprise, même si leur montant exact peut dépendre de facteurs extérieurs. Les recettes, par contre, dépendent non seulement de la qualité et du prix du produit, dont l’entreprise a le contrôle, mais aussi de facteurs extérieurs tels que la conjoncture, les actions des concurrents, les décisions des clients, etc. Les coûts sont immédiats et quasi certains alors que les bénéfices sont au moins en partie futurs et incertains. Autrement dit, les décisions ont en général un premier effet direct sur les dépenses, tandis que leur effet sur les recettes est indirect, aléatoire et tardif. On contrôle les dépenses, on espère les recettes. Pour les décisions relevant de cycles courts, leurs conséquences apparaissent rapidement, et il existe des moyens d’agir rapidement sur les dépenses sans entraîner de conséquences à long terme. Pour les cycles longs au, contraire, les conséquences apparaissent longtemps après la décision, alors que beaucoup de dépenses ont déjà été encourues, sur lesquelles il est trop tard pour agir. Quelles que soient les modalités des nouvelles décisions prises pour corriger l’effet des décisions antérieures, elles ne pourront en aucun cas annuler ces dépenses. Au contraire elles entraîneront le plus souvent dans un premier temps de nouvelles dépenses tout aussi irrécupérables, dont les fruits éventuels ne seront à leur tour connus qu’au bout d’un délai qui peut se chiffrer en mois ou en années. L’horizon d’une décision peut être défini comme le temps nécessaire pour en constater les conséquences, ou plus précisément pour comparer ses conséquences réelles

clxxii

aux prévisions qui l’ont motivée. Une décision peut en effet s’appuyer sur des prévisions pluriannuelles, et bien que certaines de ses conséquences apparaissent rapidement, ce n’est alors qu’après quelques années qu’il est possible de juger si les prévisions qui la motivaient sont validées.

Cycles, organisation et culture
Un type de production ou une activité peut être caractérisée par la durée du plus long des cycles qui la gouvernent. Par exemple, dans les activités fonctionnelles, la vente est une activité à cycle court et la R&D une activité à cycle long. Le cycle propre de l’activité de production est très variable selon les types de production. Il peut être aussi court que le cycle de vente pour les services de conseil ou d’assistance ou encore l’assemblage de matériels. Il peut être très long pour la fabrication de composants, le développement de logiciels ou les services de télécommunications ou de traitement. Plus le cycle d’une activité est long, ou plus son horizon est lointain, et plus l’environnement est évolutif, plus incertaines sont les décisions. En effet, chaque décision s’appuie largement sur les conséquences observées des décisions passées similaires. Si le cycle est court et l’environnement stable, les conséquences des décisions récentes seront connues et constitueront une bonne base de prévision pour les nouvelles décisions. Si au contraire le cycle est long, ou si l’environnement est changeant, les conséquences des décisions passées seront ou bien encore inconnues, ou bien trop anciennes pour servir de référence dans le nouvel environnement, et les décisions courantes devront être prises dans une situation de grande incertitude. La durée du cycle d’une activité est donc un facteur déterminant de l’incertitude au sens de Lawrence et Lorsch, et donc de la différenciation entre unités.

Horizon et culture
cycles courts
résultats proches des décisions responsabilités claires réalisme réactivité contrôle ajustement organisation mécaniste type L ventes assemblage de matériel conseil, assistance

cycles longs
résultats éloignés des décisions responsabilités diffuses vision planification confiance persévérance organisation organique type T R&D composants, progiciels services de télécommunications

Dans une unité à cycles courts, les résultats sont proches des décisions, et de ce fait les responsabilités sont claires. Les erreurs éventuelles peuvent être corrigées sans délai, et pour autant que les responsables soient attentifs aux réactions du marché et agissent rapidement en cas de problème, le marché lui-même peut servir de moyen de

clxxiii

contrôle opérationnel. La clé de la bonne gestion est d’ajuster en permanence les coûts aux revenus réels. Au contraire, dans une unité à cycles longs, les résultats sont éloignés des décisions et les responsabilités diffuses. Les erreurs peuvent difficilement être corrigées, et de toute façon lentement. Il est donc vital d’en commettre le moins possible, et pour cela de procéder à des études internes assez poussées pour analyser correctement les besoins, les opportunités, les risques et les différentes lignes de conduite envisageables. La sanction du marché intervient trop tard dans le cycle pour que le marché puisse servir de base au contrôle opérationnel. La clé de la réussite est de commettre moins d’erreurs stratégiques que les concurrents. Ce souci risque d’être coûteux en contrôles, vérifications et assurances diverses, et entraîner des réactions plus lentes aux aléas de l’environnement.

Personnalités et structure
Examinons maintenant l’influence de l’activité de l’entreprise sur les décisions de segmentation qui définissent sa structure d’ensemble en répartissant les activités, les ressources et les responsabilités de chaque unité entre des sous-unités de niveau inférieur. Dans l’ensemble de l’entreprise, l’organisation résulte de l’application récursive du processus de segmentation depuis le sommet jusqu’aux individus. A chaque niveau, la segmentation peut être « homogène » si chacune des sous-unités a des activités homologues à celles de l’unité globale mais un domaine d’action réduit (la généralisation de la segmentation spatiale ou d’une organisation en divisions) ; la segmentation sera « hétérogène » si chacune des sous-unités a pour objectifs une partie des objectifs de l’unité globale, mais le même domaine d’action (la généralisation de la segmentation fonctionnelle). Dans la structure globale, des segmentations de type homogène et des segmentations de type hétérogène peuvent alterner aux différents niveaux de la hiérarchie. Par exemple, une direction commerciale, qui résulte d’une segmentation fonctionnelle hétérogène, peut être organisée par régions, c’est à dire segmentée sur le mode géographique homogène. Chaque région peut à son tour être organisée sur le mode fonctionnel en unités de vente, de promotion, d’administration, de logistique, de support clients, etc. Ces segmentations successives devront respecter l’échelle économique d’exercice des différentes activités. A chaque niveau de la structure, la nature de la segmentation, fonctionnelle ou spatiale, induit des différences notables dans les relations entre les niveaux hiérarchiques successifs et entre les unités de même rang, et donc dans le contexte des segmentations ultérieures. Pour l’ensemble de l’entreprise, la prédominance de l’une ou l’autre forme de segmentation, en particulier aux niveaux les plus élevés, induit des différences dans les systèmes de management et la culture de l’entreprise. La segmentation est nécessaire pour distribuer le travail de façon efficace, mais elle peut avoir également pour objectif de fractionner une unité à cycles longs de façon à ce que certaines des sous-unités fonctionnent selon des cycles plus courts. En effet, le dirigeant d’une organisation souhaite généralement la structurer de façon à clarifier les

clxxiv

responsabilités de ses subordonnés et à faciliter le contrôle et les ajustements. Un moyen d’y parvenir est d’isoler les activités à cycle long au niveau de l’état-major de l’unité globale ou dans une ou plusieurs unités spécialisées si nécessaire, afin que les autres unités fonctionnent selon des cycles plus courts. Les options de segmentation dépendent ainsi de l’activité à travers son échelle économique, qui détermine la viabilité économique des fragmentations éventuelles, et à travers son cycle, qui peut orienter la définition des sous-unités.

L’organisation homogène
Dans une segmentation « homogène », les différentes unités ont des activités, des objectifs et des environnements de même nature, et des cycles de fonctionnement voisins. Il en résultera très probablement des cultures voisines, et semblables ellesmêmes à la culture des dirigeants de l’entreprise. Une segmentation homogène favorise ainsi la diffusion dans toute l’entreprise des valeurs et des modèles de comportement propres aux dirigeants, sans que cette diffusion demande d’actions particulières. En contrepartie, la culture homogène qui se crée ainsi a de fortes chances d’être peu tolérante envers les autres cultures qui pourraient néanmoins être favorables à certaines activités. Opérant dans des champs d’action différents, les unités n’ont que peu d’occasions et de motivations pour collaborer entre elles. Elles sont juxtaposées plutôt qu’interdépendantes. Au contraire, comme les résultats de chaque unité s’expriment de la même façon et sont facilement comparables tout en étant indépendants les uns des autres, des relations de concurrence et de rivalité pourront facilement se développer. La direction commune peut d’ailleurs les favoriser et les exploiter pour augmenter la performance globale. Les résultats de l'unité globale sont purement et simplement la somme des résultats des sous-unités, et son succès ne dépend que du succès des sous-unités. Il n’existe pas d'activités propres au niveau global, et donc pas de besoin d’un état-major de taille notable. Les seuls besoins de coordination consistent à éviter que la conjonction d'actions des sous-unités ne soit préjudiciable à l'ensemble, par exemple sous la forme de propositions ou de produits concurrents, et éventuellement à imposer un minimum de coopération entre les sous-unités en cas de besoin. La différenciation entre sous-unités étant faible, le besoin d’intégration est limité. En revanche, puisque la culture naturelle ne pousse pas au dialogue entre unités, les mécanismes de coordination devront être formalisés. Au total, le système de management d’une organisation homogène sera un système simple mais relativement formel. Pour cet ensemble de raisons, la direction d’une unité organisée sur le mode homogène peut s’accommoder d’un grand nombre de sous-unités, ce qui favorise les structures « plates ».

L’organisation hétérogène
Les unités qui résultent d’une segmentation hétérogène ont par définition des activités et des objectifs différents dont la réunion forme les objectifs globaux de l’unité

clxxv

de rang supérieur. Elles ne sont concernées que par une partie limitée de l’environnement de l’entreprise, et évoluent dans un environnement propre qui comprend un grand nombre d’éléments déterminés de façon plus ou moins conventionnelle par les autres unités de l’entreprise. Elles peuvent fonctionner selon des cycles très différents, certaines selon des cycles notablement plus courts que celui de l’entreprise. Ces unités développeront donc très probablement des cultures locales différenciées, dont les valeurs et les modèles de comportement pourront être assez différentes de ceux des dirigeants de l’entreprise. Maintenir une identité culturelle d’entreprise et un niveau suffisant de motivations communes pour résoudre les conflits nécessitera des actions spécifiques de la part des dirigeants, faute desquelles l’entreprise risque des dysfonctionnements. En revanche, si cette culture globale est suffisamment vivace, l’organisation sera tolérante vis à vis de différences culturelles locales entre sous-unités. Il est plus facile à une unité résultant d’une segmentation hétérogène de se décomposer de façon homogène que l’inverse. Les unités sont interdépendantes, ce qui implique nécessairement des conflits, et doivent développer entre elles des relations de coopération. Selon que la direction aura ou non réussi à insuffler à l’ensemble une culture de dialogue et une conscience claire de l’intérêt général – ce qui répétons-le ne se réalise pas de soi-même sans actions spécifiques – la résolution des conflits se fera plus ou moins spontanément par confrontation et contact direct, ou exigera au contraire des procédures formelles et une implication constante de la direction. Le succès de l'unité globale dépend non seulement du succès des sous-unités, mais aussi de la qualité de l’intégration et donc des actions qui sont propres au niveau global. Cette intégration peut demander des équipes d’état-major étoffées, voire des départements spéciaux d’intégration. Chaque échelon de la structure ne peut contrôler efficacement qu’un nombre limité de sous-unités, ce qui tend à favoriser une structure d’autant plus « pointue » que la direction de l’unité globale est plus fréquemment impliquée dans les actions d’intégration et de résolution des conflits. Un nombre élevé de niveaux hiérarchiques étant un facteur d’inefficacité, on retrouve par ce biais l’intérêt d’une culture permettant de résoudre les conflits à des niveaux inférieurs.

La structure d'ensemble de l'entreprise
Au niveau global de l’entreprise, on peut imaginer de répartir les activités entre grandes unités selon trois dimensions : –par produits si la gamme des productions de l’entreprise est vaste et diversifiée, –par grandes fonctions (Recherche, Développement, Production, Ventes, Personnel, Finance, Administration, ...) –par marché ou zone géographique d’activité. Puisque notre propos est de rattacher des personnalités d’entreprise à des formes de production, nous nous intéresserons pour le moment au seul cas des entreprises offrant un type de produit unique ou à tout le moins une gamme suffisamment homogène, en laissant de coté le cas des entreprises diversifiées. C’est précisément la connaissance des implications organisationnelles des différentes formes de production

clxxvi

qui nous permettra d’évaluer dans quelle mesure elles peuvent coexister au sein d’une organisation unifiée, ou si au contraire il existe des incompatibilités suffisamment fortes pour ne laisser d’autre choix que la segmentation par produits, qui équivaut en fait à un conglomérat d’entreprises indépendantes sur le plan opérationnel. Avec cette réserve, le choix majeur se situe entre une segmentation fonctionnelle et une segmentation par marché, en quelque sorte spatiale. Dans la segmentation fonctionnelle, chaque sous-unité est chargée d’une partie des activités de l’entreprise et les exerce pour la totalité du champ d’action, marché et lieux, où l’entreprise est présente ; les cycles des sous-unités peuvent être différents du cycle global, et différents entre eux. Dans la segmentation spatiale, chaque sous-unité exerce la totalité des fonctions principales de l’entreprise dans une partie seulement du champ d’action de celle-ci, par exemple dans certaines limites géographiques ; le cycle de chaque sousunité est le même que celui de l’ensemble. L’activité de l’entreprise intervient de façon déterminante dans ce choix à travers l’échelle économique de production propre à l’activité. Si en effet la segmentation devait conduire une des sous-unités à exercer son activité à une échelle inférieure à l’échelle économique de production, cette unité et donc l’entreprise perdrait un avantage concurrentiel déterminant. Si donc le champ d’action d’une unité est juste suffisant pour lui permettre d’atteindre l’échelle économique de production, sa segmentation doit laisser entier l’appareil de production, et ne peut donc être que fonctionnelle. Ceci reste d’ailleurs vrai si on considère d’autres fonctions que la production, dès que le champ d’action d’une unité est juste suffisant pour que l’une de ses fonctions importantes atteigne son échelle économique de fonctionnement. C’est pourquoi, pour une entreprise dont la production est homogène, la segmentation la plus naturelle est fonctionnelle. En effet, au moins la définition des produits ne peut être faite qu’à l’échelle de l’entreprise tout entière. La segmentation spatiale n’est une alternative viable au plus haut niveau que si deux conditions sont satisfaites : d’une part la définition des productions ne requiert que très peu de ressources qui peuvent être gérées comme une activité d’état-major, et d’autre part la production peut être réalisée de façon économique à une échelle inférieure à celle de l’entreprise. Cette dernière condition revient à dire que l’entreprise opère dans un secteur dispersé et y occupe une part de marché importante. Cette combinaison de conditions se rencontre rarement dans les activités de production industrielles, mais est fréquente dans de nombreuses activités de service. Parallèlement, une entreprise dont le cycle de production est long sera plus encline à adopter une segmentation fonctionnelle qui raccourcira le cycle de certaines de ses unités constitutives, alors qu’une entreprise à cycle court s’orientera plus volontiers vers une segmentation spatiale.

Divisions et filiales
Ayant dans ce qui précède examiné la personnalité des entreprises offrant des produits homogènes, nous pouvons revenir sur les firmes diversifiées et l’organisation en divisions de produits. Ce type d’organisation repose sur une segmentation de nature

clxxvii

homogène, puisque chacune des divisions est responsable de l’ensemble des activités concernant son ou ses produits. La différenciation entre divisions repose principalement sur l’échelle et les cycles de production associés aux produits de chacune, et éventuellement sur les marchés dans la mesure où les produits des divisions s’adressent à des marchés différents. Il résulte des considérations ci-dessus que pour ne pas être pénalisée par rapport à ses concurrents plus spécialisés, une même division doit comporter des produits de cycle voisin, faute de quoi l’organisation et la culture de la division seront nécessairement mal adaptées à une partie de ses activités. Par exception, une division principalement responsable de produits à cycle long peut aussi se charger de produits annexes à cycle court. Sa compétitivité sera alors réduite pour ces produits et devra être compensée par des avantages d’intégration significatifs ou par des subventions internes, qui grèvent d’autant la compétitivité des produits principaux. Dans quelle mesure cette spécialisation des divisions doit-elle se concrétiser par une séparation en entités juridiques distinctes ? Autrement dit, des divisions de personnalités différentes peuvent-elles efficacement coexister à l’intérieur d’une même entreprise au sens juridique du mot ? La réponse est théoriquement oui, à condition que les dirigeants de l’entreprise soient conscients des différences de culture et non seulement acceptent mais respectent les différences d’organisation et de système de management. Remplir ces conditions demande des qualités tout à fait exceptionnelles. Un dirigeant élevé dans un environnement à cycles longs répugnera à se montrer aussi tatillon voire mesquin que l’exige la bonne gestion d’une activité à cycles courts ; à l’inverse, un dirigeant habitué aux cycles courts interviendra plus qu’il ne convient dans des activités à cycle long et s’aliénera rapidement les personnes clé. Il est difficile d’attendre du même dirigeant, réputé responsable ultime, qu’il adapte son comportement à des activités aussi différentes. Il peut à la rigueur forcer son talent pour contrôler le détail d’une activité si c’est nécessaire, mais se retenir d’intervenir serait un comportement proprement surhumain pour un dirigeant autocratique. Bien que ce ne soit en rien une garantie, introduire la protection d’une personnalité juridique distincte, et surtout la distance d’un conseil d’administration entre des dirigeants et des activités mutuellement incompatibles semble en tous cas une sage précaution.

Personnalités par secteur
Nous pouvons maintenant résumer les choix d’organisation et les traits de personnalité qui caractérisent les principaux types de prestations et de métiers, tels que nous les avons identifiés au Chapitre 6, et les rattacher au type de secteur associé. Pour les métiers des composants et des matériels, que nous avons déjà analysés, nous pourrons ainsi décrire les modèles d’entreprise que l’on rencontre dans le secteur des matériels et évaluer leur viabilité passée et présente. Nous verrons au passage dans quelle mesure une personnalité inadéquate risque de se traduire par un handicap concurrentiel, selon la situation de l’environnement.

clxxviii

Pour les autres métiers, en particulier ceux du logiciel et des services, nous reparlerons des questions de personnalités d’entreprise dans les chapitres qui leur sont consacrés. Remarquons tout d’abord qu’il existe une correspondance étroite entre l’échelle de production et la durée du cycle. Un cycle long implique en effet généralement qu’une part importante des dépenses entraînées par une décision, par exemple la mise en place d’une production, est engagée de façon irréversible longtemps avant que se matérialisent les revenus correspondants, et en particulier avant que ne soient fixés les volumes de production. Les activités à cycle long connaissent également des investissements et des coûts fixes importants, et donc une échelle de production relativement élevée. Il est d’ailleurs difficile d’identifier dans la réalité, voire d’imaginer des activités qui présenteraient à la fois un cycle de production long et une échelle économique faible, alors que le cas inverse semble possible. En tout état de cause, ni l’un ni l’autre ne se présentent dans l’industrie informatique.

Les secteurs concentrés
Dans les secteurs concentrés, dont l’industrie des composants est un exemple extrême, on compte un petit nombre d’entreprises relativement importantes, mais de tailles très différentes. Les cycles de production sont longs et l’échelle économique est élevée, ce qui conduit à une domination de la segmentation hétérogène de type fonctionnel. L’entreprise est un assemblage complexe d’unités différenciées, liées entre elles par un système de gestion élaboré, et pilotées par rapport à un plan d’ensemble qui s’inscrit lui-même dans un système de planification à long terme cohérent avec la durée du cycle de base. Les objectifs, la culture et les motivations sont différents suivant les fonctions, et la cohésion d'entreprise doit être assurée par une forte culture d'entreprise transcendant les cultures fonctionnelles. La culture d’une entreprise à cycles longs doit valoriser la planification, la vision à long terme, la confiance et la persévérance. Le héros type en est le visionnaire infaillible. Lorsque les dirigeants de l’entreprise n’appartiennent pas eux-mêmes à cette catégorie, ce qui est le cas dans un grand nombre de grandes entreprises, il peut y avoir hiatus voire conflit entre leur culture propre et la culture dominante dans l’entreprise. D’une façon plus générale, une organisation à cycles longs doit pour fonctionner efficacement être capable d’intégrer des unités de culture différentes, et elle tolérera généralement bien la présence de sous-unités adaptées à des cycles courts. Les qualités d’une entreprise adaptée aux cycles longs sont cohérentes avec celles que Porter estime nécessaires à une stratégie reposant sur les qualités du produit : encouragement à la créativité et l’autonomie individuelle, organisation souple, délégation, motivation à long terme, système de mesure plutôt qualitatif. A une concurrence accrue, une telle entreprise réagira donc spontanément en cherchant à améliorer les qualités de ses produits. En revanche, mener une stratégie de concurrence par les coûts se heurte à des obstacles culturels profonds. Si l’entreprise décide de s’engager dans cette stratégie, par exemple pour répliquer à la concurrence dominante, ceci exigera une action vigoureuse de la direction sur l’organisation et la culture. Pour

clxxix

réussir dans des délais acceptables, cette action gagnera à être isolée dans une partie spécialisée de l’organisation. Cette personnalité d’entreprise est typique des activités de production industrielle à grande échelle, mais nous verrons qu’elle est aussi celle qui convient au développement de progiciels, et même à certaines activités de services comme les télécommunications ou le traitement, dont la logique est celle de secteurs concentrés.

Les secteurs dispersés
Dans les secteurs dispersés comme l’assemblage de matériels à partir de composants standards, on rencontre un grand nombre d’entreprises occupant des parts de marché relativement faibles, mais néanmoins suffisamment différentes pour que les entreprises soient très différentes en taille. Parmi ces entreprises, les petites ont une taille voisine de l’échelle économique de production, quelque faible que soit celle-ci. Leur segmentation se fait donc sur le mode fonctionnel hétérogène, mais leur taille réduite limite les effets de différenciation et leurs conséquences en termes de système de gestion. Le chef d’entreprise ou le petit groupe de dirigeants peut prendre toutes les décisions importantes et traiter ainsi les cycles les plus longs, et créer la culture d’entreprise par son exemple et son action directe. Dans un tel secteur dispersé, la taille des grandes entreprises est par définition supérieure à l’échelle économique de production. La tendance la plus naturelle sera de privilégier une segmentation homogène par marchés, en unités réunissant commerce et production et assez petites pour permettre le rapprochement des fonctions et le contrôle au plus près du terrain, sur la base d’un compte d'exploitation semblable à celui de l'entreprise elle-même. Si la direction recherche néanmoins des économies d’échelle, production et commerce pourront être séparés, mais un système de management adéquat devra alors permettre des ajustements rapides de l’un à l’autre. Pour que l’entreprise fonctionne correctement, sa culture doit valoriser la rigueur des contrôles et la capacité d’ajustement rapide à la réalité. Le modèle de comportement – le héros dans cette culture — est le gestionnaire réaliste et sans état d’âme. La capacité de vision à long terme et la persévérance dans la fidélité à une idée sont plutôt mal vues car inutiles et à la limite susceptibles de retarder les ajustements à la situation réelle. Cette culture est homogène dans toute l’organisation et facilite grandement les relations entre les responsables, quel que soit leur niveau hiérarchique. A l’inverse, cette culture est d’autant plus intolérante envers des cultures différentes qu’elle est homogène dans toute l’entreprise. Une organisation adaptée aux cycles courts aura donc le plus grand mal à tolérer en son sein une organisation qui serait adaptée à des activités à cycles longs. Les qualités de l’entreprise adaptée aux cycles courts sont cohérentes avec celles que Porter considère comme adaptées à une stratégie reposant sur le contrôle des coûts : psychologie qui valorise la discipline et le sens de l’économie, supervision constante à des niveaux très détaillés, centralisation, objectifs quantitatifs à court terme. Face à une intensification de la concurrence, une telle entreprise aura naturellement tendance à

clxxx

réagir par une stratégie de concurrence par les coûts, quelle que soit la nature de l’attaque concurrentielle. Si l’entreprise décide de s’engager dans une concurrence par les qualités du produit, non seulement il lui faut modifier en profondeur son organisation et sa culture, mais sa personnalité peut décourager les professionnels de haut niveau qui seraient alors nécessaires. Cette personnalité d’entreprise se rencontre dans de très nombreuses activités de services à caractère professionnel comme le conseil et l’assistance. Le caractère homogène et contraignant de la culture d’entreprise, surtout dans des firmes de petite taille, rend difficile d’y tolérer des unités obéissant à une autre logique qui serait par exemple adaptée au développement de produits selon un cycle long. C’est pourquoi, alors que des firmes de produits offrent souvent des services avec succès, il est extrêmement rare que des firmes de services réussissent dans des activités de production industrielle, y compris dans le progiciel.

Les problèmes d’adaptation
La nature de l’activité et la stratégie choisie pour l’entreprise conduisent la Direction à des choix d’organisation (structure et systèmes) qui d’une part forment la part contrôlable de la personnalité de l’entreprise, et d’autre part contribuent à forger sa culture. Il est clair que l’entreprise ne peut par définition avoir qu’une seule organisation, ou alors elle se sépare en deux organisations différentes qui forment un conglomérat et non une entreprise. Une première façon de poser le problème de la compatibilité entre productions est donc la suivante : dans la mesure où les choix d’organisation auraient été différents pour une autre activité ou une autre stratégie, dans quelle mesure l’entreprise peut-elle se contenter d’une organisation hybride ou doit-elle opter entre deux solutions incompatibles ? Autrement dit, dans quelle mesure des activités ou des stratégies s’excluent-elles mutuellement en demandant des organisations différentes ? Un problème analogue se pose à un deuxième niveau si l’entreprise veut changer d’activité, ou entreprendre une nouvelle activité. L’organisation qui existe à ce moment est supposée convenir aux productions courantes, mais ne convient pas nécessairement aux autres productions envisagées. Si un changement d’organisation (structure ou systèmes de management) est nécessaire pour les nouvelles productions, l’organisation peut être ajustée instantanément, mais la nouvelle organisation ne fonctionnera que si elle est compatible avec la culture existante. Or la culture est l'élément le plus stable de l'entreprise, parce qu'elle y est diffuse et implicite. La culture d'une entreprise n'existe par définition que dans la tête de chacun de ses collaborateurs, et peut être extrêmement différente d'un groupe à l'autre. Agir sur la culture d'entreprise consiste à agir sur les représentations et les systèmes de valeurs implicitement présents dans la mentalité de chaque collaborateur. La Direction n'a que peu de moyens d'agir directement sur elle, et doit se contenter de l'influencer à travers l'exemple de son propre comportement et la sélection des comportements qu'elle souhaite encourager. En tout état de cause, la culture est une donnée de fait pour la plupart des décisions.

clxxxi

Quelles que soient les actions entreprises, la culture de l’entreprise ne se modifie que très lentement. Si un changement d’activité ou de stratégie se heurte à des incompatibilités culturelles, que ce soit directement ou à travers les changements d’organisation qu’il induit, ces incompatibilités subsisteront longtemps. Il est probable que pendant ce temps l’entreprise ne sera pas compétitive pour ses nouvelles activités, et risque même de voir sa compétitivité se dégrader dans ses activités existantes. Le temps d’adaptation sera d’autant plus long que l’entreprise est importante et que son ancienne personnalité l’a rendue plus florissante. Si la concurrence est assez vive pour éliminer du marché les entreprises mal adaptées, les stratégies ou les orientations contraires à la culture existante sont ainsi vouées à l’échec, et les incompatibilités culturelles doivent en pratique être considérées comme rédhibitoires. Force est de constater qu’en pratique, un grand nombre de chefs d’entreprise ne sont pas sensibles à ces problèmes, et croient que les formes d’organisation, les méthodes de gestion et les styles de management qui conduisent au succès sont les mêmes dans toutes les activités, ou plutôt que ce qui leur a permis de réussir jusque là continuera de fonctionner quoi qu’ils entreprennent. On peut donc s’attendre à ce que toutes les combinaisons de prestations soient expérimentées, y compris les plus aberrantes. Là encore, c’est la concurrence sur chacun des marchés concernés, en particulier avec les entreprises spécialisées, qui déterminera la réussite ou l’échec des entreprises mixtes, éliminera celles qui offrent des combinaisons incompatibles, quelles que soient les raisons de cette incompatibilité, et sélectionnera ainsi les combinaisons viables. Que se passe-t-il quand une organisation adaptée à un certain type de cycle entreprend des activités relevant d’un cycle très différent ? Une organisation adaptée à des cycles longs a nécessairement un coût de fonctionnement plus élevé et une inertie plus grande. Appliquée à des activités de cycle court, elle aura tendance à offrir des produits tardifs et moins bien adaptés à l’actualité de la demande qu’une organisation adaptée à des cycles courts, tout en ayant à couvrir des frais de fonctionnement plus élevés. Une telle organisation sera donc désavantagée au point d’être condamnée à l’échec si les produits à cycle court constituent l’essentiel de ses revenus et si la situation est fortement concurrentielle. Si par contre les productions à cycle court sont à la fois secondaires et fortement liées à des productions principales à cycle long, elle peut néanmoins fonctionner de façon relativement satisfaisante quitte à subventionner les productions annexes. De plus, il est toujours possible de mettre en place à l’intérieur de l’organisation « longue » une organisation « courte » pour ces prestations secondaires. A l’inverse, une organisation adaptée à des cycles courts sera impatiente de mettre des produits sur le marché sans avoir pris tout le temps nécessaire pour les études préalables et en limitant les investissements au minimum. Elle comportera de toute façon peu de collaborateurs capables d’analyses et de prévisions à long terme. Il risque d’en résulter des produits mal conçus et de qualité insuffisante, et un appareil de production adapté préférentiellement aux séries courtes donc plus coûteux pour la production en grande série. Si les produits relèvent réellement de cycles longs, l’entreprise ne pourra pas corriger rapidement ces désavantages concurrentiels au moment où elle les constatera, et sera totalement désarmée pour résister à ses

clxxxii

concurrents. Au total, entreprendre des activités à cycle long dans une organisation adaptée aux cycles courts est voué presque sûrement à l’échec, d’autant plus qu’une telle organisation ne pourrait s’accommoder de sous-unités possédant l’organisation et la culture requises par les cycles longs. En résumé, le jeu de la concurrence et le phénomène de sélection naturelle qui en résulte ont pour effet d’associer étroitement certaines formes de production et certaines personnalités d’entreprise. Une entreprise adaptée aux cycles longs ne pourra réussir dans de nouvelles productions que si leur cycle est de même nature ou s’il s’agit de productions secondaires dont elle ne cherche pas à tirer un profit important. Une entreprise adaptée aux cycles courts n’a pratiquement aucune chance de réussir dans des activités à cycle long. Nous verrons que c’est probablement la raison pour laquelle aucune société de services n’a jamais réussi dans le progiciel.

Les manifestations de l’inadaptation
Dans notre souci d’analyser la structuration de l’industrie, nous avons cherché à mettre en lumière la relation entre les formes de production et les personnalités d’entreprise. Mais dans le façonnage de cette personnalité, la nature de la production n’est pas le seul facteur. Pour être efficaces, l’organisation et la culture doivent également être adaptées à l’environnement, et au premier chef à la situation du marché et aux conditions locales, ainsi qu’à la position de la firme dans son cycle d’évolution (démarrage, croissance, maturité, déclin), et à l’intensité et à la forme de la concurrence. En situation faiblement concurrentielle, la plus ou moins grande adaptation, des firmes peut n’avoir que peu de conséquences. Si la concurrence n’est pas assez intense pour éliminer ou contraindre au changement les firmes les moins bien adaptées, des firmes de personnalités radicalement différentes pourront continuer à coexister dans un même secteur. A la limite, dans une situation de faible concurrence, un secteur pourra même être dominé par des firmes mal adaptées si toutes les firmes concurrentes sont construites sur le même modèle. Ce dernier cas est par exemple celui des prestations annexes, tant qu’elles sont annexes pour toutes les entreprises concurrentes et qu’aucune entreprise spécialisée n’aborde ce marché avec une personnalité adaptée. Les inadéquations entre la production et la personnalité peuvent ainsi ne pas avoir d’effets immédiats, et ne se manifester au détriment de l’entreprise que lorsque se produisent des événements extérieurs comme une intensification de la concurrence ou l’apparition de concurrents spécialisés mieux adaptés. A l’inverse, l’événement révélateur peut être d’origine interne, comme le lancement d’une nouvelle production ou le désir de rendre plus rentable une activité existante, ou encore la mise en œuvre de nouvelles techniques de production qui en modifient l’échelle ou l’horizon. Enfin, une personnalité inadéquate peut être imposée de façon intempestive par un nouveau dirigeant en provenance d’un autre type de secteur, par la société-mère à la suite d’une acquisition ou simplement faute d’avoir suffisamment tenu compte des facteurs culturels à l’occasion de changements de structure.

clxxxiii

Les généralistes traditionnels
Cet ensemble de considérations nous aide à interpréter l’évolution passée de l’industrie informatique. Jusque vers la fin des années 60, celle-ci est entièrement dominée par des généralistes offrant chacun une palette de prestations diversifiées mais dominées par le matériel. Le logiciel, la maintenance et les autres services sont considérés comme des prestations annexes nécessaires à la commercialisation du matériel et fortement liées à celui-ci. La concurrence porte sur un panier de prestations similaire pour tous les offreurs, qui constitue en fait un produit intégré unique. L’informatique constitue donc alors un secteur unique dont les caractéristiques sont celles de la production dominante le matériel : investissements forts, échelle élevée et cycle long en font un secteur concentré où s’affrontent un nombre d’acteurs relativement faibles et où les parts de marché sont très inégales conformément à la dynamique caractéristique de ce type de secteur (voir chapitre 7). Les personnalités des entreprises concurrentes sont adaptées au cycle long de leur production principale, qui est d’ailleurs la seule facturée jusqu’à la fin des années 60. L’introduction de la facturation séparée en 1969 ne modifie pas radicalement cette situation. Une concurrence indépendante sur les prestations annexes n’apparaît que très lentement, et ces prestations restent plus ou moins largement subventionnées par le revenu du matériel. L’inadéquation aux cycles courts des généralistes traditionnels ne se traduit pas pour eux par un véritable handicap faute de concurrents spécialisés sur le marché des services. Par contre, lorsque apparaissent des firmes spécialisées dans les matériels compatibles vers 1975, puis des spécialistes de micro-informatique à partir de 1981, ces firmes représentent une menace d’autant plus grande qu’ils choisissent des modes de production fondamentalement différents correspondant à des personnalités radicalement différentes, c’est à dire à cycle court et/ou à échelle économique faible. Une stratégie gagnante pour ces nouveaux entrants est de se spécialiser dans l’assemblage pur d’un type unique de matériel et de se garder d’entreprendre des productions à cycle long comme les composants ou le développement de matériels originaux. En adaptant leurs ressources, mais aussi leur organisation et leur culture à ce type d’activité, ils peuvent alors tirer un avantage substantiel de leurs plus faibles coûts et de leur capacité d’ajustement et de réactions rapides. Quand les généralistes veulent répliquer, leur personnalité se révèle un handicap sérieux qui explique en grande partie leurs difficultés et leur place plus effacée dans la micro-informatique. Il leur faut d’abord accepter l’idée que les principes d’organisation et les techniques de management qui ont fait leur fortune dans les passé sont en train de les conduire à l’échec dans le nouvel environnement. Ils doivent ensuite trier leurs activités selon leurs échelles et leurs cycles respectifs, et provoquer les mutations d’organisation et de culture correspondantes. Pour cela, il est nécessaire de segmenter l’organisation selon ces échelles et ces cycles, et d’accepter que le système de management et la culture d’entreprise jusque là homogènes se résolvent en soussystèmes et en sous-cultures différenciés. Au passage, certaines des unités ainsi

clxxxiv

constituées peuvent se révéler non compétitives sur leurs marchés, ce qui oblige à abandonner les activités correspondantes, à commencer par les plus concentrées comme les composants. Au total, l’apparition de spécialistes contraint les généralistes à une véritable révolution organisationnelle et culturelle qui vient s’ajouter à la réduction de leurs parts de marché et de leurs marges due aux progrès des spécialistes. Cette révolution exige des délais d’autant plus longs que la taille de l’entreprise est grande et sa culture traditionnelle homogène et bien ancrée, ce qui tend à expliquer pourquoi IBM et Digital Equipment sont restées plus longtemps en difficulté que Unisys ou ICL. Enfin, cette remise en cause des grands généralistes les conduit à abandonner certaines de leurs activités, ajoutant ainsi au phénomène de spécialisation qui est à l’origine de leurs difficultés. Le cas de Hewlett-Packard conforte a contrario cette thèse : cette entreprise fonctionne en effet sur un modèle où des divisions spécialisées par produit visent l’accomplissement d’objectifs individuels plus que la cohérence de l’ensemble de la gamme offerte par l’entreprise. L’entreprise fonctionne ainsi comme la juxtaposition d’entreprises spécialisées et sa personnalité est donc plus proche de proche de celle qui convient aux cycles courts et aux petites échelles. Jadis relatif désavantage, ce trait de personnalité est devenu un avantage qui explique en partie que Hewlett-Packard n’ait connu ni les chutes de performance ni les révisions déchirantes des autres grands constructeurs.

clxxxv

Troisième partie L’immatériel
Le moment est venu, dit le Morse, de parler de beaucoup de choses : de souliers, de bateaux et de cire à cacheter, ... de choux et de rois. Lewis Carroll

Nous avons sacrifié à la mode en intitulant « l’immatériel » cette partie consacrée au logiciel et aux services. Beaucoup de commentateurs aiment en effet à regrouper dans une même catégorie toutes les activités productives qui n’aboutissent pas à un bien matériel tangible, et à prêter à cet ensemble des propriétés qui d’une part seraient communes à tous ses constituants, et d’autre part les sépareraient radicalement des produits matériels. Notre démarche sera plus circonspecte. Croyant avec Descartes qu’il convient de « diviser chacune des difficultés... en autant de parcelles... qu’il serait requis pour les mieux résoudre », nous inclinons à penser que les discours globalisants sont une variété d’obscurantisme. Les chapitres précédents nous ont montré que les activités de production de matériels informatiques se décomposent en secteurs possédant des caractéristiques opposées : un secteur des composants de nature concentrée et un secteur de l’assemblage de nature dispersée. Ces secteurs se différencient par le nombre et la taille des firmes qui y sont présentes, par l’éventail de stratégies qui y sont viables et les modèles de comportement concurrentiel correspondants, ainsi que par les mécanismes de formation des prix et de répartition des parts de marché. Nous avons également vu qu’à des secteurs différents et à des stratégies différentes sont associés des types d’entreprise différents par leurs formes d’organisation et leurs cultures. On parle souvent d’un secteur des logiciels et services. Cet ensemble est-il donc suffisamment homogène pour constituer un secteur au sens de Porter, c’est à dire un ensemble des firmes offrant des produits substituables, ou bien un « métier » comme nous l’avons défini au chapitre 6, c’est-à-dire un ensemble de secteurs obéissant à une même logique de production ? Sinon, est-il possible d’y discerner facilement des secteurs ou des métiers homogènes ? Autrement dit, puisque la structure des coûts de production apparaît pour notre étude comme un facteur explicatif puissant, existe-t-il des éléments de cette structure qui soient caractéristiques du logiciel par opposition au matériel, ou des services par opposition aux produits ? Pour répondre à ces questions, nous appliquerons au logiciel et aux services les outils d’analyse des structures industrielles que nous avons introduits dans la deuxième partie, c’est à dire les notions de secteur concurrentiel et les concepts de concentration et de dispersion, ainsi que de différenciation des entreprises. Nous verrons ainsi qu’il existe à l’intérieur de ce pseudo-secteur « immatériel » des différences internes bien plus fortes que les ressemblances entre les diverses prestations qui le composent, et que l’opposition avec le « matériel » est plus factice que réelle.

clxxxvi

Pour y voir clair, il sera d’abord nécessaire d’examiner de façon critique les distinctions traditionnelles entre « produits » (ou « biens ») et « services ». Cette analyse nous conduira à conclure que cette distinction est sans grand rapport avec les caractéristiques économiques du processus de production qui gouvernent la structuration de l’industrie et la dynamique concurrentielle. Quant au logiciel, omniprésent dans toute l’informatique, il englobe une gamme d’activités extrêmement diverses allant des produits logiciels aux services de développement à façon, parmi lesquelles la production de progiciel est en tout point assimilable, sur le plan économique, à celle des produits industriels. Nous serons donc amenés à traiter à part l'industrie du progiciel (Chapitre 11), qui est elle-même formée d’un complexe de sous-secteurs de type plus ou moins fortement concentré, individuellement soumis à leur propre dynamique concurrentielle, et en forte interaction les uns avec les autres. Parmi ces sous-secteurs, celui des systèmes d’exploitation (Chapitre 12) est particulièrement critique, et se rapproche de celui des composants électroniques tant par sa place centrale dans l’ensemble de l’informatique que par sa dynamique fortement monopoliste. Enfin les véritables services, loin de constituer un secteur homogène même après que le progiciel en ait été séparé, forment en réalité un ensemble de secteurs où jouent des logiques économiques variées.

clxxxvii

Chapitre 10 Le labyrinthe du logiciel et des services
A la recherche d’une définition des services. Immatérialité, indissociabilité, intangibilité, variabilité, périssabilité,… Une typologie des produits et des services. Une distinction sans grand objet. Qu’est-ce que le logiciel ? La programmation et l’écriture. Combien coûte un programme ? Variétés de logiciel et diversité des acteurs. Le progiciel est un produit.

Dans les chapitres précédents, nous avons vu sur l’exemple du matériel que l’analyse de la dynamique concurrentielle rend correctement compte des phénomènes de structuration de l’industrie, à condition d’être conduite secteur par secteur, un secteur étant défini comme l’ensemble des firmes offrant des produits substituables. Il nous a fallu reconnaître (cf. le chapitre 6) que cette notion de « substituabilité » est toute relative, et que donc la définition des secteurs ne peut pas être rigoureuse. Il nous est néanmoins clairement apparu que la prise en compte des structures sectorielles possède un pouvoir explicatif fort, et que dans la réalité, la spécialisation des entreprises selon ces logiques de production influence de façon déterminante le fonctionnement général de l’industrie et l’évolution des produits. Nous avons également vu, dans le chapitre qui précède, que le comportement des entreprises, et en particulier celui qui se traduit par la mise sur le marché de leurs produits, est déterminé par un ensemble de facteurs internes qui font partie de la « personnalité » de chaque entreprise. Nous avons également vu que le marché, en sélectionnant les produits les mieux adaptés à la demande, sélectionne aussi les personnalités d’entreprise les plus aptes à satisfaire cette demande. En situation de forte concurrence, la sanction du marché associe étroitement personnalité d’entreprise d’une part, secteur et stratégie d’autre part, au point de forcer les firmes mixtes à la spécialisation ou à l’éclatement, comme on le constate dans l’histoire de l’informatique des dix dernières années. Il nous reste à examiner avec la même approche et les mêmes outils les autres secteurs de l’industrie informatique. L’analyse des statistiques industrielles, que nous avons abordée au chapitre 4, peut nous fournir quelques pistes. Une majorité des acteurs, toutes spécialités confondues, déclare exercer des activités de logiciel, la plupart en tant qu’activité secondaire représentant moins de 30% de leur CA. Mais il existe également de nombreuses firmes spécialisées dans le logiciel, pour qui cette activité représente plus de 70% de leur chiffre d’affaires. On retrouve les mêmes constatations pour les services, aux chiffres près. Les activités de logiciels et de services sont donc exercées aussi bien en tant qu’activité secondaire par de nombreux offreurs non spécialisés que comme activité principale par des offreurs spécialisés dans l’un ou dans l’autre.

clxxxviii

Certaines firmes spécialisées dans le logiciel offrent également des services à titre d’activité secondaire et vice versa, mais les spécialistes du service et les spécialistes du logiciel forment deux populations pratiquement disjointes. Dans l’échantillon de 110 entreprises que nous avons analysé aux chapitres 4 et 5, seules cinq offrent du logiciel et des services de façon à peu près équilibrée (Finsiel, Nynex, Dun & Bradstreet, Ask et Sterling Software), et aucune de ces cinq entreprises n’est véritablement un acteur majeur dans l’un ou l’autre des deux secteurs. Aucun des grands du progiciel (Microsoft, Computer Associates, Novell, Lotus, Oracle, …) n’a d’ailleurs jamais été une société de services. Nous avons également constaté que les firmes spécialisées dans le progiciel ont une structure de dépenses caractéristique, avec des coûts de production très faibles, des coûts de R&D élevés et des coûts commerciaux et généraux hypertrophiés. Quant aux firmes spécialisées dans le service, il en existe des types différents au vu de la structure de dépenses : la plupart se situent exactement à l’opposé des spécialistes du logiciel, avec une part très élevée des coûts de production et des coûts de R&D et de commercialisation très faibles, tandis que celles dont la structure de coûts se rapproche de celle du progiciel exercent typiquement des activités de traitement. L’ensemble de ces constatations tend à faire penser d’une part qu’il existe de nombreuses formes de service, et que donc l’activité de service ne représente ni un secteur ni un métier homogènes, et d’autre part que le développement industriel de logiciel, habituellement désigné par le terme de progiciel, est une activité radicalement différente d’une activité de service.

Services et produits
Critique des définitions courantes
Cherchons tout d’abord à préciser ce qui distingue un service d’un produit. Ni le dictionnaire, ni la littérature économique ne proposent de définition pleinement satisfaisante des services. En effet, pour chacune des définitions proposées, il est facile de trouver des exemples d’activité que les classifications des statistiques officielles, tout comme notre intuition, rangent parmi les services, et qui ne satisfont pourtant pas la définition considérée. Matérialité et dissociabilité Le Larousse nous donne « produit de l’activité de l’homme destiné à la satisfaction d’un besoin, mais qui ne se présente pas sous l’aspect d’un bien matériel », et le Robert « activités qui représentent une valeur économique sans correspondre à la production d’un bien matériel ». Où ranger alors les services d’une couturière, d’un entrepreneur de travaux publics ou d’une entreprise de presse, que la nomenclature officielle range parmi les services bien que leur production soit tout à fait matérielle ? Ces exemples violent aussi une autre caractéristique dite d’« indissolubilité » souvent attribuée aux services, qui seraient un produit non dissociable de l’outil de production. Or dans les exemples ci-dessus, le produit de l’activité de services non seulement continue d’exister lorsque l’activité de production a cessé, mais peut même faire l’objet

clxxxix

de nouvelles transactions indépendamment du producteur initial : la robe, la villa ou le livre peuvent être revendus par leur acquéreur à un tiers. Une solution simple serait de considérer que de telles activités doivent en réalité être rangées parmi les produits, et que la nomenclature officielle est erronée. Cette approche aurait l’inconvénient de masquer des différences importantes avec les produits industriels habituels, par exemple que le bien est désigné comme la propriété de son acquéreur avant même qu’il existe, que sa définition est négociée entre le producteur et l’acquéreur, et que l’acte de production ne commence le plus souvent pas avant l’établissement du contrat entre le vendeur et l’acquéreur. Mais ces caractéristiques elles-mêmes s’appliquent aussi à certaines formes de production où l’acquéreur peut choisir parmi un grand nombre d’options, par exemple les automobiles ou les ordinateurs. Bref, où que l’on place la frontière entre produits et services, on trouvera toujours des offres qui se situent à cheval sur cette frontière. On est donc tenté de penser que la réalité ne peut pas être décrite comme la juxtaposition d’un monde de services et d’un monde de produits bien distincts, mais comme un continuum où les différents types d’offres peuvent se ranger quelque part entre des produits « purs » et des services « purs », et cela suivant une ou plusieurs dimensions. Certaines règles des marchés administratifs distinguent d’ailleurs entre « fournitures », « travaux » et « services », les fournitures correspondant aux produits standard alors que les travaux peuvent impliquer le transfert au client d’un bien défini par lui. Devant cette impossibilité de définir de façon rigoureuse une frontière entre produits et services, plusieurs économistes ont cherché à introduire d’autres critères que la matérialité ou la « dissociabilité » de l’objet de la transaction. Aucune de ces tentatives ne permet d’établir une dichotomie qui soit conforme au langage courant ou à la nomenclature officielle, mais leur examen permet de préciser les critères possibles, et donc les dimensions du continuum produit-services que nous évoquons plus haut. Les définitions des économistes Dans son ouvrage de référence sur le marketing , Kotler propose la définition suivante des services : « activité ou satisfaction soumise à l'échange, intangible et qui ne donne lieu à aucun transfert de propriété (« does not result in the ownership of anything »). Il développe cette définition en suggérant que les services se distinguent des produits par quatre caractéristiques principales qui sont :
45

–l’intangibilité : on ne peut voir un service avant de l’acheter ; –l’indissolubilité : un service est inséparable de celui qui le propose, il n'existe pas hors de la présence de sa source ; –la variabilité : un service n’est pas le même selon la personnalité de son fournisseur et le moment de sa production ; –la périssabilité : un service ne se stocke pas.

45

Kotler P : Principles of Marketing [Prentice Hall, 1980]

cxc

Il est évidemment très facile d’illustrer chacun de ces critères par des exemples appropriés, voire de présenter des exemples qui satisfont l’ensemble des quatre critères. Mais il est tout aussi facile de trouver pour chaque critère des exemples d’activités de service qui ne le satisfont pas, et on peut même penser que rares sont les services qui respectent pleinement l’ensemble des critères. Notons au passage que, comme les définitions du dictionnaire, la définition de Kotler est en quelque sorte négative, et définit les services par le fait qu’ils ne possèdent pas certaines caractéristiques des produits. Les tentatives de définition positive ne sont guère plus satisfaisantes. Citons à titre d’exemple la définition proposée par Peter Hill en 1977 : un service est « la transformation de la condition d’un individu, ou d’un bien appartenant à un agent économique quelconque, résultant de l’activité d’un autre agent économique, à la demande ou avec l’agrément du premier agent ». Une telle définition ne peut pas s’appliquer à l’hôtellerie, au service téléphonique, à toutes les formes de location, aux services d’intérim, … sauf à considérer qu’un service d’hôtellerie consiste à « transformer une personne dans la rue en une personne hébergée ». Mais même si on accepte de se laisser aller à ce genre d’acrobaties verbales, force est de constater qu’elles pourraient aussi bien s’appliquer aux produits les plus incontestables (« transformer une personne ne possédant pas de voiture en personne possédant une voiture »). Bref, si cette définition a le mérite de préciser les agents et le type de relations qui les unissent dans une transaction, elle ne permet toujours pas de distinguer à coup sûr un service d’un produit. Transfert de propriété Traditionnellement, les constructeurs informatiques ont donné à leurs clients, pour le même équipement, le choix entre location, crédit-bail et achat. Opèrent-ils pour autant dans des secteurs différents ? Peut-on réellement dire qu’ils offrent un produit dans le cas de la vente et un service dans le cas de la location, et que dire alors du crédit-bail ? Dans la réalité, l’essentiel de leurs activités est identique quelle que soit la formule de financement retenue. Quant au client, son choix porte d’abord sur le matériel, et le mode de financement est une décision de second ordre. Dans ce cas, la transaction porte sans ambiguïté sur un produit, et le service éventuel de location est une modalité de la transaction plutôt qu'un service distinct. Ni la matérialité de l’objet de la transaction, ni la possibilité de le dissocier de sa source, ni les modalités du transfert entre le vendeur et l’acheteur ne constituent des critères permettant de distinguer à coup sûr les produits des services. En revanche, ces considérations peuvent se synthétiser en un critère que nous appellerons « modalités de transfert » et qui constitue une des dimensions de classement pertinentes. A l’une des extrémités du continuum se trouve le cas des produits « purs » qui font l’objet d’un véritable transfert de propriété du vendeur à l’acheteur. Remarquons au passage que ce transfert n’est possible que pour des biens matériels dissociables de leur source. A l’autre extrémité se trouveront les services « purs » qui n’ont pas d’existence matérielle et ne peuvent donc faire l’objet d’une appropriation ni a fortiori d’un transfert de propriété.

cxci

Entre ces deux extrêmes se situent les cas très fréquents où la transaction consiste à accorder au client un droit d’usage sur un bien appartenant au fournisseur. Ce bien peut être parfaitement matériel et plus ou moins dissociable de sa source, et le droit d’usage peut être plus ou moins limité, dans le temps ou dans l’étendue des droits accordés au client. Par exemple, un service de location d’outillage correspond à un transfert temporaire de droit d’usage sur un bien matériel dissociable ; l’hôtellerie comprend un transfert temporaire de droit d’usage sur un bien matériel indissociable (la chambre), un service de personnel intérimaire peut être assimilé à un transfert temporaire de droit d’usage portant sur des personnes. Un cas propre à l’informatique est celui du progiciel, dont le contrat de licence accorde à l’utilisateur un droit d’usage définitif, sans lui en transférer la propriété dans la mesure où il ne peut le revendre à un tiers. Dans la réalité, mis à part cette interdiction d’ailleurs peu contraignante, les clients ignorent cette subtilité contractuelle et tout se passe comme s'il y avait transfert de propriété. Intangibilité et variabilité Certains services ont un aspect tangible. Par exemple, il est possible de visiter une chambre d'hôtel avant de la louer. Certaines chaînes hôtelières se font même une règle d’offrir exactement les mêmes aménagements dans tous leurs établissements du monde entier, donnant ainsi à leur offre de services un caractère invariable dans le temps et dans l’espace qui est habituellement considéré comme caractérisant un produit. Autrement dit, certains services ont en commun avec les produits d’être définis a priori par l'offreur et répertoriés dans un catalogue, et de ne pouvoir être offerts que sous cette forme standard. Par exemple, l’autobus est un service sur catalogue, alors que le taxi est un service sur mesure. Une voie couramment utilisée pour améliorer la productivité dans le domaine des services est d’ailleurs de standardiser ou de systématiser tout ou partie de la prestation, ce qui peut aussi répondre au souhait du consommateur de disposer d’une description fiable du service qu’il envisage d’acquérir. Quelles qu’en soient les motivations, une telle démarche tend à conférer aux services certaines des caractéristiques d’invariabilité des produits. On utilise d’ailleurs couramment le terme de « produit » pour désigner un service défini a priori par son fournisseur et susceptible d’être rendu de façon identique à tous les acquéreurs. On pourra objecter que, même s’il est défini de façon formalisée par son prestataire, le service réellement rendu peut s’écarter de cette description et varier selon le client et les circonstances. En particulier le contrat peut contenir la description du résultat visé, mais garantir seulement que le prestataire s’efforcera de parvenir à ce résultat, et non la conformité du produit final à sa description contractuelle. L’existence d’une telle incertitude ne permet pas pour autant de différencier à coup sûr les services des produits, car les produits les mieux définis peuvent aussi se révéler non conformes à leur spécification. Il existe là encore une possibilité de variation continue entre des biens tangibles définis de façon précise et dont la conformité à leur spécification est considérée comme certaine, et des services intangibles dont la définition est purement indicative. Cette

cxcii

définition peut elle-même exister a priori dans le catalogue du fournisseur sans variation possible, être établie par choix entre des options prédéfinies ou par combinaison d’éléments prédéfinis et d’éléments spécifiques, ou résulter entièrement d’une négociation spécifique entre le client et le fournisseur. Comme pour le critère de matérialité et de séparabilité, il n’y a pas dichotomie entre des produits décrits sur catalogue ne varietur et des services toujours intangibles et incertains, mais une gamme continue de formes de définition sans que l’on puisse faire passer à quelque endroit que ce soit une frontière qui séparerait sans ambiguïté les services des produits. Remarquons que ce critère du mode de définition est indépendant du critère précédent qui concerne les modalités de transfert. Il est certes peu probable qu’un bien défini de façon seulement indicative donne lieu à transfert définitif de propriété ou même d’usage, mais un bien défini par négociation ou sur catalogue peut s’accommoder des différentes modalités de transfert. Relation client-fournisseur Chacun des deux critères relatifs à la transaction que nous avons retenus ci-dessus a une incidence sur la durée et la nature de la relation entre le client et le fournisseur, et peut de ce fait exercer une influence sur l’organisation et la culture de l’entreprise productrice. Pour un bien défini sur catalogue comme d’ailleurs pour un service défini de façon purement indicative, aucune relation durable n’est nécessaire à la spécification de l’objet de la transaction alors qu’une telle relation est obligatoire si la définition est négociée. Alors qu’un transfert définitif de propriété ou d’usage n’exige qu’une relation ponctuelle au moment du transfert, un transfert temporaire implique une relation permanente entre le fournisseur et l’acquéreur pendant la durée de ce transfert d’usage. Les échanges ne donnant lieu à aucun transfert correspondent à la définition de Hill et impliquent une forme de coopération entre le fournisseur et le client pendant le temps où le service est rendu. Dans la définition restrictive implicitement admise par la plupart des auteurs et des commentateurs, un bien défini sur catalogue et faisant l’objet d’un transfert définitif de propriété peut sans ambiguïté être appelé un produit. La seule caractéristique distinctive des services serait alors la durée de la relation entre le producteur et le consommateur, ainsi que le fait que cette relation implique le système de production de l’offreur. Ce trait peut influencer de façon déterminante l’organisation et la culture de l’entreprise, par exemple en interdisant de séparer la fonction commerciale de la fonction production ou en imposant aux organes de production une capacité de négociation et d’adaptation sans commune mesure avec celle qui caractérise les usines dans les industries conventionnelles. Périssabilité On caractérise souvent les services par le fait qu’ils doivent être produits à chaque fois qu’ils sont consommés et au moment même de leur consommation. Ce critère peut être interprété de deux façons : d’une part il va de soi pour les services qui ne peuvent

cxciii

être dissociés de leur source, et vu sous cet angle il est équivalent au critère de nondissociabilité que nous avons examiné plus haut. Quand au contraire un service donne naissance à un bien matériel transférable, ce bien a toutes les caractéristiques d’un produit et peut de la même façon être périssable ou non. Un service non transférable, par exemple un cours ou un spectacle, sera par contre périssable au sens ci-dessus. Mais ce critère de périssabilité a aussi une traduction économique : les coûts de production sont encourus par le vendeur même si le service n'est pas consommé, et la valeur de la production non vendue est nulle. Sous cet angle, le critère de périssablité concerne l’économie de la production, et est donc en relation possible avec les questions d’échelle de production et de structure sectorielle. Encore une fois, si ce critère s’applique à la majorité des activités de services, il peut tout aussi bien être satisfait par de nombreux produits et ne peut donc servir de discriminant entre produits et services. Tout d’abord, il existe aussi des produits périssables, ou dont la valeur décroît rapidement avec le temps. D’une façon plus générale, pour les produits comme pour les services, la part des coûts qui est formée par les coûts fixes de production est encourue quel que soit le volume produit et vendu. Pour les produits dont les coûts fixes sont très supérieurs aux coûts variables, c’est donc comme pour les services la quasi-totalité des coûts qui est encourue même si la production n’est pas vendue. A l’inverse, comme pour les produits, le coût des services peut se répartir de différentes façons en coûts fixes et coûts variables, en coûts récupérables et irrécupérables. Les investissements matériels peuvent aller de presque rien comme pour les services de conseil à des volumes considérables pour les télécommunications ou les transports aériens. De nombreux services comprennent une part de vrais coûts variables comme les fournitures, les consommables, etc. Enfin, si la part de personnel dans le coût des services est souvent importante, certains services comme les télécommunications sont fournis pour l’essentiel par des moyens matériels automatisés. En tout état de cause, ces critères liés à la forme de l’échange sont sans rapport avec les facteurs structurants des secteurs. Classer une production parmi les services ou parmi les produits selon ces critères ne dit rien quant à la structure des coûts de production ni l’échelle de production, pas plus que sur les obstacles à l’entrée et à la sortie, toutes considérations qui gouvernent la dynamique sectorielle. L’analyse de Porter en fonction des forces concurrentielles s’applique aussi bien pour les services que pour les produits, et il existera des secteurs concentrés et des secteurs dispersés aussi bien dans les services que dans les produits.

Une typologie des services et des produits
En résumé, si nous posons en principe que la distinction entre produit et service concerne la transaction entre le producteur et le consommateur, distinguer un service d’un produit suppose de répondre aux questions suivantes : –sur quoi la transaction porte-t-elle (un bien matériel, un changement de condition de l’acquéreur, d’un bien lui appartenant) ?

cxciv

–comment l’objet de la transaction est-il défini ? (unilatéralement par l’offreur, par négociation plus ou moins ouverte) ? –quelles garanties offre le producteur (aucune, de moyens, de résultat plus ou moins conforme) ? –en quoi consiste la transaction (transfert de propriété, définitif d’usage, temporaire d’usage, pas de transfert) ? Ces quatre critères sont largement indépendants les uns des autres, et chacun est susceptible de recevoir plus de deux réponses. Les combinaisons possibles de réponses sont donc nombreuses, même si certaines apparaissent comme improbables. Quelquesunes correspondent sans ambiguïté à la notion intuitive de produit (bien matériel défini unilatéralement par le producteur, dont la conformité est garantie et la propriété transférée), et d’autres à des formes de prestations que le sens commun range parmi les services. C’est par exemple le cas de l’accès à une compétence définie unilatéralement sans garantie (conseil) ou encore d’un changement de condition sans transfert de propriété ou d’usage, que la définition en soit unilatérale (transports en commun), négociée (taxis, maintenance) ou pratiquement inexistante (soins médicaux). Mais d’autres combinaisons pourtant courantes sont plus ambiguës, par exemple le cas de transfert d’usage temporaire d’un bien matériel défini unilatéralement et de conformité garantie (location, hôtellerie, promotion immobilière) ou celui de transfert de propriété d’un bien matériel défini de façon négociée (entreprises de construction). La figure suivante représente ce continuum de façon simplifiée en le ramenant à deux dimensions. Pour cela, nous n’avons retenu que les modalités de définition (indicative, négociée ou par catalogue), en y rattachant les questions relatives aux garanties de conformité, et d’autre part les modalités de transfert (de propriété, d’usage définitif, d’usage temporaire ou pas de transfert), qui dépendent elles-mêmes de l’objet de la transaction. Sur la carte ainsi obtenue, les purs produits se positionnent en haut à droite (définition par catalogue, transfert de propriété), les purs services en bas à gauche (définition indicative, pas de transfert), mais il existe une grande variété de combinaisons illustrée ici par les services informatiques les plus courants.

Le continuum produits-services
transfert propriété définitif usage définitif usage temporaire pas de transfert développement intégration système matériel

progiciel location temps partagé télécoms formation définition par catalogue

assistance

backup

maintenance conseil définition indicative

FM définition négociée

cxcv

On notera en particulier que le progiciel est extrêmement proche d’un produit pur, dont il ne se distingue que par les modalités contractuelles de transfert, et par contre aussi éloigné que possible de services tels que l’assistance ou le conseil. Nous verrons plus loin que de ce point de vue comme de celui de sa logique économique et de la structure industrielle associée, le progiciel doit être classé résolument parmi les produits et non parmi les services.

Conclusions
Au total, la prétendue dichotomie entre produits et services est une vue beaucoup trop simpliste de la réalité. En ce qui concerne les modalités de la transaction, il existe des formes d’échange intermédiaires entre celle du pur produit et celle du pur service, qui s’analysent selon plusieurs dimensions indépendantes et représentent une grande variété de prestations. En ce qui concerne les logiques économiques, il n’existe pas de dynamique industrielle propre aux services et qui serait différente de celle (ou de celles) des produits. On observera en réalité dans les services une variété de dynamiques et de structures comparable à celle qui prévaut pour les produits, et les mêmes types de structure s’appliqueront aussi bien à des services qu’à des produits. Les services ne forment pas un secteur au sens de Porter (« ensemble des firmes produisant des biens étroitement substituables ») car même réduits aux services informatiques, les services sont trop divers pour être tous substituables les uns aux autres. Il y a de nombreux secteurs dans les services. De même, les services ne constituent pas un métier au sens que nous avons introduit au chapitre 6, c’est à dire un ensemble de secteurs qui auraient assez de traits communs pour être régis par la même dynamique industrielle. Concernant les firmes productrices elles-mêmes, certaines formes de service appellent des structures et des cultures d'entreprise proches de celles qui sont propres aux produits industriels, tandis que d'autres appellent des structures et des cultures radicalement différentes. Certaines formes de service sont moins compatibles entre elles qu'elles ne le sont avec certaines formes de produits. Il est certes toujours possible de convenir de frontières plus ou moins arbitraires qui permettraient de ranger chaque activité, chaque entreprise ou chaque métier dans l’une ou l’autre des deux catégories. Mais outre que la classification qui en résulte ne satisfait pas toujours le sens commun, la véritable question est de savoir en quoi une telle dichotomie aiderait à comprendre les mécanismes économiques. Il faudrait pour cela que l’ensemble des « services » et celui des « produits » ainsi définis possèdent chacun des caractéristiques communes à tous leurs éléments et distinctes de celle de l’autre ensemble, autrement dit que chacun des « produits » soit plus voisin de tous les autres produits que d’un quelconque des « services ». Nous avons vu que ce n’est pas le cas. Concluons donc qu’introduire une distinction fondamentale entre produits et services n’apporte rien à l’étude des structures industrielles. La seule véritable différence que nous ayons pu reconnaître est que, dans ce qu’il est convenu d’appeler les services, l’acte de production implique toujours plus ou moins directement le client. De ce fait, l’appareil de production de la firme est directement

cxcvi

exposé au regard et au jugement du marché. Dans une activité de produits, les attributs des produits mis sur le marché sont dissociés de ceux de l’organisation qui a servi à les produire, par exemple au travers de la description commerciale ou contractuelle qui les accompagne. Il est également assez facile d’éviter que des dysfonctionnements éventuels de la production n’apparaissent sur le marché sous la forme de produits défectueux. Pour les services au contraire, la qualité même de l’appareil de production est visible, tous les ratés éventuels sont perçus par le client, et donc des structures ou une culture non adaptées sont rédhibitoires en situation concurrentielle. Autrement dit, l’adaptation de la personnalité d’entreprise à la nature de sa production et aux attentes du marché revêt dans le domaine des services une importance encore plus déterminante que pour les produits. Nous verrons au chapitre 13 combien ces problèmes contribuent à structurer le secteur des services et à en expliquer les difficultés d’ajustement à l’évolution des besoins. Malgré l’absence d’une définition satisfaisante des activités de services et leur caractère foncièrement hétérogène, plusieurs auteurs ont proposé des thèses ambitieuses portant sur la place des services dans l’économie, que l’on retrouve parfois chez divers commentateurs de l’évolution informatique. Une opinion courante est que les services sont intrinséquement plus profitables que les produits, se développent plus rapidement et finiront par les remplacer. Cette thèse se rattache au courant « postindustriel » illustré principalement par Daniel Bell et Jean Fourastié. Elle soutient que la part des services dans l’économie augmente inéluctablement, si bien que le développement des services peut être considéré comme un indicateur de progrès économique. Cette thèse se retrouve souvent travestie sous la forme : « un secteur est mature quand les services l'emportent sur le matériel », et invoquée par certains commentateurs informatiques pour prédire la suprématie définitive des services et l’effacement voire la disparition des constructeurs de matériel.
46

A l’opposé se trouve la thèse dite « néo-industrielle », dont l’inspiration remonte à la conception classique de la valeur et dont les principaux tenants actuels se rattachent au courant marxiste. Cette thèse postule avec Adam Smith que seule la production de biens matériels est une activité réellement productive, et que donc les activités de services sont par définition improductives. Les services parasitent donc en quelque sorte l’économie, leur croissance n’est en aucune façon un signe de progrès et doit être contrôlée sinon combattue. Outre que la thèse « néo-industrielle » repose sur une conception arbitraire et erronée de la formation de la valeur, comment peut-on énoncer ce genre de conclusions en l’absence d‘une définition a priori des services ? Dans la pratique, on constate que les auteurs en question éludent le problème en ne retenant comme exemples de services que les activités dont les caractéristiques viennent à l’appui des thèses qu’ils souhaitent démontrer, soulignant ainsi involontairement la grande diversité des services et des dynamiques qui les régissent.
Bell D : The Coming of Post-Industrial Society [Basic Books, 1973] traduction française Vers la Société Post-Industrielle [Laffont, 1976]
46

cxcvii

De plus, ces théories répondent le plus souvent à des préoccupations de sociologues qui cherchent à caractériser les activités des individus, plutôt que d’économistes qui s’intéressent aux entreprises et à leurs productions. Or une grande partie voire la majorité des travailleurs du « tertiaire » exercent leur activité dans des entreprises industrielles. La multiplication des « travailleurs du savoir » ne permet en aucune façon de conclure à l’avantage des entreprises de services sur les entreprises industrielles. Enfin, même s’il apparaît que les prestations de services prennent une place croissante dans l’économie considérée dans sa totalité, il n’en résulte pas que les services se substituent aux produits à l’intérieur de chacun des secteurs pris en particulier. Il existe au contraire de nombreux exemples du mouvement inverse, par exemple le remplacement des employés de maison par les appareils électroménagers. Pour le cas précis de l’informatique, nous reviendrons aux chapitres 13 et 15 sur la concurrence entre produits et services et sur la validité potentielle de la thèse « postindustrielle » souvent présentée comme allant de soi.

Les diverses formes de logiciel
Le logiciel est l’essence même de l’informatique. Il est omniprésent à tous les niveaux : les puces logiques elles-mêmes contiennent des microprogrammes, ainsi que la plupart des unités fonctionnelles comme les imprimantes ou les cartes d’extension. A un niveau plus global, les fonctions d’un système informatique sont définies par des programmes, qu’il s’agisse des fonctions générales offertes par les systèmes d’exploitation et les utilitaires, ou des fonctions particulières qui constituent les applications et confèrent au système son utilité. Le développement de programmes forme le cœur de l’activité des informaticiens, et de nombreux services consistent en grande partie en développement de logiciel. Le logiciel est au sens propre l’âme du matériel, c’est à dire ce qui l’anime. Un ordinateur peut être défini comme « une machine à exécuter des programmes », et le matériel n’est qu’un corps vide inerte capable de recevoir une grande variété d’âmes sous forme de programmes. Dans ce qui suit, nous allons tenter d’analyser les caractéristiques technicoéconomiques des activités liées au logiciel, afin d’identifier des types d’acteurs, leur place dans l’industrie et la dynamique économique à laquelle ils obéissent. Cette dynamique permet-elle aux activités de logiciel de se rattacher aux autres activités des acteurs qui les utilisent ? Existe-t-il pour les logiciels une ou plusieurs activités dotées de caractéristiques économiques propres qui les font obéir à une dynamique industrielle spécifique ? La dynamique correspondant aux logiciels représente-t-elle un facteur de structuration de l’industrie informatique ?

Les caractéristiques du logiciel
Indispensable pour définir les fonctions des matériels et des systèmes informatiques, et de ce fait omniprésent, le logiciel peut revêtir des formes multiples. Qu’y a-t-il de commun entre quelques lignes de Fortran écrites par un ingénieur pour ses besoins propres, le microcode du processeur Pentium, le système d’exploitation Windows distribué à des millions d’exemplaires, les logiciels de contrôle de la navette

cxcviii

spatiale, un programme de jeu électronique et le système de gestion d’une grande entreprise ? Toutes ces formes de logiciel expriment des consignes par lesquelles l’homme dicte un comportement à une machine. Autrement dit, le logiciel est une forme d’expression humaine à destination d’une machine. Les nombreux travaux qui ont abouti à fixer les règles de protection juridique du logiciel ont d’ailleurs abouti à assimiler le logiciel à une œuvre de l’esprit au même titre qu’une œuvre littéraire ou artistique, en lui étendant la législation du copyright et des droits d’auteur. De la forme d’expression humaine la plus voisine qui est l’écriture, l’activité de programmation a l’infinie diversité et le caractère immatériel. Comme l’écriture habituelle, le développement de logiciel est une activité purement intellectuelle qui n’exige pas d’autres outils que le crayon et le papier. Les programmeurs actuels travaillent le plus souvent directement à l’écran d’un ordinateur et bénéficient de nombreuses aides à la rédaction de programmes, mais il n’y a pas si longtemps toute la phase créative de la programmation ne faisait appel qu’au papier et au crayon, l’utilisation de l’ordinateur intervenant dans une seconde phase de traduction et de tests. L’écriture de programmes est donc une activité accessible à un individu isolé, sans investissements préalables importants. Même avec les techniques de programmation récentes, un micro-ordinateur simple permet de disposer des outils de programmation les plus puissants. De sa destination, qui est d’être interprété par une machine, le logiciel tire deux caractéristiques fondamentales qui le différencient des autres formes d’expression humaine. Premièrement, il est extrêmement facile de le reproduire. Le logiciel est en effet porté par les mêmes supports que les autres informations traitées par l’ordinateur, et peut être lu et écrit par les mêmes dispositifs. De ce fait, tout outil permettant d’exécuter un programme permet aussi de le reproduire, plus facilement et plus exactement même que pour l’écriture normale. Une personne capable de lire un texte est en général capable de le recopier, mais c’est une opération longue, sujette à erreur, et dont le résultat diffère de l’original au moins dans la forme. Au contraire, un ordinateur peut reproduire des millions de caractères en quelques minutes, sans risque d’erreur et dans une forme identique à l’original, donc en particulier susceptible d’être reproduite à son tour. Cette reproduction peut sans difficulté comporter un changement de support ou une transmission à distance à travers des moyens de télécommunications. Certaines formes de supports, comme le CD-ROM ou les autres formes de mémoire morte, ne permettent que la lecture et ne permettent donc pas une reproduction intégrale à l’identique, mais il reste très facile d’en extraire le contenu et de le copier sur un support inscriptible traditionnel. Il existe certes des moyens de protection qui visent à empêcher ou à rendre plus onéreuse la reproduction des programmes, mais ces dispositifs sont artificiels, coûteux et généralement peu efficaces. L’extrême facilité de reproduction est une caractéristique fondamentale du logiciel. Pour l’activité commerciale, ceci a pour conséquence un niveau extrêmement bas des coûts variables de production, qui donne à la production de logiciel les caractéristiques d’un secteur concentré. Par ailleurs, la possibilité de reproduction par n’importe quel utilisateur soulève le problème difficile de la protection de la propriété du logiciel. Deuxièmement, étant destiné à être interprété par une machine de façon aveugle (« machinale » au sens propre du mot), le logiciel a des exigences de rigueur et de

cxcix

fiabilité rarement rencontrées pour les autres écrits. Avant d’être utilisé, tout logiciel dépassant la demi-douzaine d’instructions simples devra être soumis à des tests permettant de vérifier que le comportement réel d’un ordinateur qui exécute le programme est conforme en tout point aux intentions de son auteur et aux attentes de ses utilisateurs. Il faut s’attendre à ce que ces essais révèlent des erreurs qui devront être corrigées, ce qui exigera une nouvelle vérification du programme, et ainsi de suite. Le développement de logiciel est ainsi une opération cyclique où les opérations d’écriture et de correction alternent avec les essais sur ordinateur. Sa durée, sa difficulté et son coût sont en proportion directe de la taille et de la complexité du programme concerné. Or la variété des formes de logiciel est aussi grande que celle des formes et des utilisations possibles de l’écriture. Le programme de quelques lignes de Fortran que l’ingénieur écrit pour ses besoins propres est l’analogue de la note manuscrite qu’il laisse à un collègue ou du post-it qu’il colle sur son réfrigérateur. Le petit programme a un destinataire connu et une utilité précise et limitée ; il est destiné à une seule utilisation et sera oublié après usage ; sa préparation ne coûte que quelques minutes à son auteur, mais il n’a pas de sens ni d’utilité en dehors du contexte spécifique des relations entre l’auteur et le destinataire ; il n’a pas de valeur marchande et aucune intention lucrative ne préside à sa préparation. A l’opposé, un système d’exploitation ou un grand progiciel du commerce est l’analogue d’une encyclopédie. Il représente de nombreuses années de travail, qui ne peuvent se justifier que par l’espoir d’un revenu résultant de la commercialisation de l’œuvre ; mais cet objectif lui-même impose des exigences de qualité portant aussi bien sur la forme que sur le contenu, qui ajoutent au temps et au coût de préparation, et demandent l’intervention de corps de métier spécialisés qui font du produit une œuvre collective. Entre ces deux extrêmes, le logiciel peut tout comme l’écriture revêtir de nombreuses formes correspondant à de nombreux usages. Le système de gestion d’une grande entreprise s’apparente à un recueil des procédures, des formulaires et des informations de gestion propres à l’entreprise et préparés spécifiquement pour elle. Un programme de jeu électronique est l’analogue d’un livre illustré pour enfants. Un programme innovant traduisant d’une activité de recherche en informatique est l’analogue d’une communication scientifique en ce qu’il a pour but prouver la validité d’une idée et pas nécessairement d’en être la réalisation industrielle. Toutes ces activités ont en commun de se traduire in fine par du logiciel, de même que la rédaction du post-it, de l’encyclopédie, des procédures de gestion, du livre pour enfants et de la thèse aboutissent à un texte écrit. Mais comme pour l’écrit, les contextes de préparation et d’utilisation, les motivations, les modalités de production et l’économie générale de l’opération introduisent entre ces activités des différences infiniment plus significatives que ne l’est le point commun de la production de logiciel. Autrement dit, la production de logiciel est une activité aussi variée que peut être l’écriture, et il n’y a pas plus une industrie du logiciel qu’une industrie de l’écriture. Il faut considérer le logiciel non pas comme un produit en soi, mais comme un matériau utilisé isolément ou en combinaison avec d'autres. Dans les produits où il entre, le logiciel peut être un composant secondaire, auquel cas le produit obéira à sa dynamique industrielle propre. D’autres activités industrielles ont comme production principale des logiciels, mais selon la nature et l’utilisation de ces logiciels, la nature de l’activité varie

cc

grandement et peut correspondre à des logiques économiques et concurrentielles différentes, donc à des structures industrielles différentes. Enfin, le progiciel est par excellence le matériau de la complexité et de l’innovation. Contrairement au matériel, il reste modifiable à tout moment et convient de ce fait à l’expérimentation et au développement progressif de fonctions nouvelles. De fait, toute idée nouvelle ou toute exploration d’un nouveau domaine ou d’un nouveau mode d’utilisation se traduit d’abord par le développement de programmes avant de donner éventuellement naissance à des circuits ou des matériels spécialisés. Ce n’est que lorsque ce domaine aura été suffisamment exploré, et la complexité des traitements maîtrisée, qu’il deviendra envisageable de figer dans le silicium certaines des fonctions nécessaires. On déplore quelquefois que le logiciel soit plus complexe et plus difficile à maîtriser que le matériel, en oubliant que c’est la nature même du logiciel de réaliser ce qui est trop complexe pour le matériel.

Les facteurs de la complexité et du coût
Au total, si nous exceptons les programmes très simples, la préparation d’un programme comprend trois étapes : la conception d’ensemble, la rédaction et les tests. La conception du logiciel porte évidemment sur les algorithmes, c’est à dire les méthodes de manipulation de l’information qui seront mises en œuvre par le programme, mais aussi sur les structures de données utilisées, les modalités des échanges entre le programme et ses utilisateurs, les liaisons avec les autres programmes, etc. Une grande partie de ces éléments peut être reprise de réalisations antérieures, mais d’autres peuvent présenter un caractère original, voire constituer de véritables inventions qui nécessitent un travail de recherche, de mise au point et de validation spécifique. Même à partir de bases connues, l’écriture d’un programme de quelque importance reste une opération délicate. Tous ceux qui ont touché à la programmation, de près ou de loin, ont appris à leurs dépens que l’ordinateur ne tolère pas la moindre erreur. Plus exactement, il interprète littéralement chacune des instructions qu’il rencontre, même si elles ne représentent pas exactement les intentions du programmeur. Or de nombreuses erreurs d’écriture peuvent échapper à une relecture même attentive, et le seul moyen de vérifier l’exactitude d’un programme reste de l’exécuter sur l’ordinateur auquel il est destiné. Des résultats inattendus, ou un comportement anormal de l’ordinateur durant l’exécution, constituent des symptômes d’erreurs dans le programme. Remonter de ces symptômes aux causes d’erreurs s’avère souvent aussi difficile que d’identifier le coupable dans un roman policier. Quand on pense avoir enfin localisé et corrigé l’erreur, la seule vérification possible consiste à exécuter de nouveau le programme corrigé, ce qui conduit le plus souvent à de nouvelles surprises. Même pour un programme relativement simple, ce processus itératif peut se révéler long et coûteux. On peut tenter de le raccourcir en apportant un soin tout particulier à la première rédaction, mais ceci contribue également au coût et au délai de développement.

cci

De plus, un logiciel de quelque importance n’est jamais formé d’une simple suite d’instructions qui s’exécutent dans un ordre immuable. Il contient aussi de nombreuses instructions de tests qui, selon la valeur courante de telle ou telle variable ou selon l’état de tel ou tel indicateur, font sauter ou exécuter telle ou telle séquence ou renvoient à un autre point du programme. Il existe ainsi un grand nombre de cheminements possibles dans le programme, qui doivent tous avoir été exécutés avec succès pour que le programme puisse être considéré comme correct. Or, quand la taille d’un programme croît, ce n’est pas tellement la longueur moyenne des séquences comprises entre deux aiguillages qui augmente, mais bien le nombre d’aiguillages, si bien que le nombre de chemins possibles croît comme une puissance (le carré ?) de la taille du programme. Le temps nécessaire aux tests augmente donc très rapidement avec la taille des programmes, et dépasse rapidement le temps de rédaction initiale, même si cette dernière a été effectuée avec tout le soin nécessaire pour minimiser le nombre d’erreurs. Notons au passage qu’il n’existe pas de moyen de certifier qu’un programme ne contient aucune erreur, ni a fortiori de prévoir le temps nécessaire pour éliminer l’ensemble des erreurs contenues dans un programme. L’expérience montre d’ailleurs que malgré des mois de tests intensifs préalables à leur diffusion, des programmes complexes comme les systèmes d’exploitation contiennent encore des erreurs plusieurs mois après leur mise en service. L’effort nécessaire pour développer un logiciel varie dans de très larges proportions suivant la nature, le contenu fonctionnel et la destination de celui-ci. Pour fixer les idées, on peut estimer que pour les activités de rédaction et de test, la productivité va de 60 instructions (testées) par jour-homme pour un programme simple à moins de 2 instructions par jour-homme pour des systèmes complexes. Un programme de plusieurs millions d’instructions, comme en contiennent les grands systèmes du commerce, nécessite donc un effort de développement de plusieurs milliers d’annéeshomme, qui exige une véritable organisation industrielle.

Types de logiciel et types d’acteurs
En plus du volume proprement dit du programme, de la difficulté intrinsèque des traitements et de la richesse fonctionnelle recherchée, d’autres facteurs liés aux modalités d’exploitation tendent à accroître les coûts de développement en exigeant une discipline industrielle. Citons en particulier la variété des configurations de matériel sur lesquelles le programme est destiné à être exécuté, la diversité des utilisateurs et des modes d’utilisation, ainsi que la nature des relations entre les auteurs et les utilisateurs du logiciel. On peut schématiser ces divers contextes de développement par trois modes principaux, qui font apparaître une gradation des niveaux de complexité, et en parallèle une gamme d’acteurs de « professionnalisme » croissant. Une première catégorie d’acteurs est constituée par des individus ou de petits groupes qui développent du logiciel pour leurs besoins propres. A cette extrémité du spectre l’écriture de logiciel est une activité annexe subordonnée à une autre activité professionnelle. Elle peut aussi, comme toute activité de l’esprit, être entreprise pour la seule satisfaction de son auteur, c’est à dire en amateur au sens propre du mot : celui qui aime. Rappelons que c’est ainsi qu’a commencé la micro-informatique, et que les

ccii

premiers micro-ordinateurs des années 1975-1980 étaient conçus par et destinés aux amateurs de programmation, qui sont restés nombreux encore de nos jours. Dans ce contexte, la seule source de difficulté est la complexité intrinsèque des traitements. Le programme est destiné à être exécuté sur une seule configuration machine bien connue, celle dont dispose l’auteur/utilisateur. Ce dernier n’a que des exigences modestes en matière de convivialité et de fiabilité, n’a pas besoin de formation ni de documentation et saura par définition faire preuve d’une grande tolérance vis à vis de la qualité du logiciel. Très souvent même, il n’utilisera le programme qu’un petit nombre de fois dans un petit nombre de cas particuliers et ne se souciera jamais de savoir si le programme fonctionne correctement dans tous les cas possibles. Une variante de cette situation est celle d’un organisme de recherche pour lequel le logiciel est un instrument de validation et de preuve, par exemple dans les domaines du calcul numérique, des techniques de l’ingénieur et des sciences appliquées. Vérifier ou prouver une théorie peut demander des programmes très complexes sur le plan algorithmique, mais s’accommoder d’un logiciel rudimentaire en termes de facilité d’utilisation. Un contexte différent est celui où un logiciel doit être développé pour répondre aux besoins d’une population d’utilisateurs distincte, dont l’auteur ne fait généralement pas partie. Pour ces utilisateurs, qui ne possèdent souvent que des connaissances limitées en informatique, le logiciel est destiné à être un outil plus ou moins critique, avec les exigences de simplicité d’emploi, de fiabilité et de disponibilité qui en découlent. Le nombre même des utilisateurs et leur diversité potentielle induit une variété des conditions d’utilisation et nécessite une grande richesse fonctionnelle, qui accroît considérablement la complexité du programme en multipliant les cheminements possibles. Les configurations sur lesquelles le logiciel doit s’exécuter peuvent être variées et évolutives, ce qui oblige à conduire des essais sur des configurations multiples. Enfin, le programme doit être documenté et accompagné de moyens de formation des utilisateurs. Toutes ces exigences demandent l’intervention de spécialistes professionnels, qui peuvent provenir soit d’équipes de développement internes à l’entreprise utilisatrice, soit de sociétés de service. Le développement à façon de programmes pour le compte d’une société cliente est une composante importante de l’activité de services en informatique, sur laquelle nous reviendrons dans le chapitre 13. Enfin, l’écriture d’un logiciel peut être entreprise pour des tiers non identifiés, c’est à dire pour un marché espéré. Il s’agit alors d’une véritable démarche industrielle, où toutes les exigences de richesse fonctionnelle, de convivialité, de fiabilité, de documentation, … évoquées ci-dessus sont exacerbées par la nécessité de satisfaire réellement une demande hypothétique dans un marché concurrentiel. De plus, en cas de succès commercial, la variété des utilisateurs, des modes d’utilisation et des configurations utilisées dépassera sans doute les prévisions de l’auteur, rendant des essais extensifs encore plus nécessaires, et entraînant une demande de perfectionnements et d’extensions qui constitue en elle-même un champ ouvert à la

cciii

concurrence. On entre ici dans le domaine du progiciel, dont la dynamique concurrentielle fera l’objet du chapitre 11. Le schéma ci-dessous résume cette analyse. L’axe horizontal correspond aux complexités croissantes, et donc aux capacités d’intégration des organisations qui développent le logiciel. L’axe vertical indique des audiences de taille croissante, donc des capacités de diffusion croissantes de la part des mêmes organisations. En bas et à gauche, des programmes simples destinés à peu d’utilisateurs peuvent être réalisés par des individus isolés, tandis que les systèmes complexes destinés à un marché important (en haut à droite) exigent des organisations de développement et de commercialisation de type industriel. Entre les deux se rencontrent les programmes relativement simples bien que visant une large diffusion, qui peuvent provenir de petites entreprises, tandis que des laboratoires importants peuvent créer des systèmes complexes mais limités dans leur diffusion.

Les acteurs du logiciel
capacité d'intégration audience extensions PME systèmes industriels industriels capacité de diffusion

laboratoires programmes personnels systèmes expérimentaux complexité

Ces différents contextes de développement se traduisent en particulier par des cycles différents, au sens où nous l’avons introduit au chapitre 9. Il s’agit ici du délai nécessaire pour vérifier que le logiciel qui a été produit est bien conforme aux besoins de ses utilisateurs. En tout état de cause, ce délai est bien évidemment d’autant plus long que le logiciel est complexe et ses utilisateurs divers. Mais quand la population des utilisateurs est connue et accessible, il est possible de mettre en place un système de développement permettant une validation progressive et de limiter ainsi le risque et l’incertitude. Dans le cas du développement de progiciel pour le marché, l’adéquation aux besoins se traduit par le chiffre d’affaires et ne peut être véritablement établie qu’à la fin du cycle, quelles que soient les précautions prises en cours de développement, qui ne peuvent impliquer que des échantillons plus ou moins représentatifs des utilisateurs visés. A lui seul, ce facteur donne au développement de progiciel les caractéristiques d’un secteur concentré : cycles longs, investissements élevés, donc échelle de production élevée.

cciv

En résumé, l’activité de développement de logiciel peut prendre des formes très nombreuses, allant depuis l’écriture de quelques lignes par un non-spécialiste pour son usage personnel jusqu’à un projet industriel de grande envergure. Les auteurs de logiciel peuvent être des amateurs isolés, des professionnels non-informaticiens, des informaticiens intégrés dans des équipes spécialisées, des petites entreprises ou des grandes entreprises de service ou des industriels du progiciel. Leurs motivations peuvent être la passion ou la simple curiosité, l’exécution d’un contrat ou la mise sur le marché d’un produit. Au plan économique, chaque contexte de développement possède ses caractéristiques propres qui éclipsent les points communs relatifs à la nature du logiciel. Plus que comme une activité homogène, le logiciel doit être considéré comme un matériau utilisé dans différentes activités, produits et services, où il peut se combiner à d’autres ingrédients et dans lesquels ses propriétés intrinsèques peuvent aussi bien disparaître que dominer. C’est ainsi que l’écriture de logiciel à façon aura toutes les caractéristiques d’un service impliquant transfert de propriété d‘un ouvrage dont la définition est négociée, tandis que le progiciel aura toutes les caractéristiques d’un produit défini unilatéralement par l’offreur, même s’il ne donne lieu juridiquement qu’à un transfert de droit d’usage.

Service et « self-service »
Réciproquement, un utilisateur potentiel qui ressent le besoin de disposer d’un logiciel dispose a priori de plusieurs façons de satisfaire ce besoin. Il peut avoir la chance de trouver un logiciel adéquat tout fait ; il peut le faire réaliser à l’intérieur de son entreprise ou en sous-traiter la réalisation à une société de services ; il peut enfin envisager de le réaliser lui-même. Ces modalités alternatives permettent de satisfaire un même besoin de logiciel, bien que la dernière ne fasse pas appel à une transaction marchande, tandis que la première entraîne l’achat d’un produit, et l’autre le recours à une prestation de service. On pourrait d’ailleurs imaginer des formes de transaction plus complexes pour satisfaire toujours ce même besoin, par exemple l’achat d’un ou plusieurs logiciels complétés par une prestation de service pour les adapter au besoin particulier. A l’occasion de cet exemple, nous rencontrons une approche des services proposée par Jonathan Gershuny et connue comme la théorie de l’« économie de selfservice ». Pour cet auteur, la demande de services et donc leur place dans l’économie ne doit pas s’analyser isolément par familles de biens d’une part, famille de services d’autre part, mais selon les besoins que l’un et l’autre sont susceptibles de satisfaire. La définition d’un segment de marché doit être élargie à la demande de satisfaction d’un besoin, les différentes formes de produits et de services que nous avons évoquées au début de ce chapitre constituant des offres concurrentielles visant la satisfaction de ce besoin, entre lesquelles le consommateur devra arbitrer.
47

Par exemple, l’offre de matériel informatique vise à satisfaire un besoin de traitement de l’information, qui peut être satisfait non seulement par un achat de produit
47

Gershuny J : After Industrial Society ? The Emerging Self-Service Economy [Humanities Press,

1978]

ccv

proprement dit, mais aussi par une location permanente ou temporaire, qui constitue une sorte de pseudo-service, ou par l’utilisation d’un service bureau. De même, un besoin de transport peut être satisfait par l’achat d’une automobile, mais aussi par l’utilisation des transports en commun (service sur catalogue) ou d’un taxi (service sur mesure). Dans l’analyse concurrentielle qui est l’objet de la présente étude, produits et services non seulement forment un continuum sans frontières claires, mais entrent en concurrence sur chaque segment de marché élémentaire plutôt qu’ils ne constituent des segments de marché séparés. C’est ce point de vue que nous retiendrons au chapitre 13 pour analyser la place respective des produits et des différentes formes de service dans l’informatique.

Conclusions
A l’issue de cette analyse, la nomenclature « logiciels et services » apparaît comme un fourre-tout statistique dépourvu de toute homogénéité et totalement vide de sens en termes d’analyse des structures industrielles. A l’intérieur de cet ensemble continu et multidimensionnel que forment les produits et les services, il convient d’isoler le progiciel qui présente les caractéristiques d’un produit typique : il est défini unilatéralement par l’offreur dans l’espoir d’un marché ; il a une forme tangible, invariable et non périssable, et fait l’objet d’un transfert définitif de droit d’usage. Au plan de l’économie de sa production, son coût est essentiellement formé de coûts de développement encourus en totalité préalablement à sa mise sur le marché, alors que les coûts variables unitaires sont extrêmement faibles. Cette structure de coûts donne au secteur du progiciel une dynamique de secteur concentré analogue à celle des composants, et à l’opposé de la plupart des services comme le développement à façon de logiciel spécifique. Le progiciel relève de la démarche industrielle typique des produits et doit être analysé comme tel. Les progiciels sont étroitement assimilables à des produits au plan de l'économie de leur production comme dans leurs modalités de commercialisation, tandis que les activités de services exigent des structures et des cultures d'entreprise spécifiques. Parler d'un secteur « logiciels et services » n'a pas plus de sens que parler d'un secteur « carburants et taxis ». Aucun des leaders du progiciel, ni même aucune des firmes de quelque importance qui ont réussi dans ce secteur n'a jamais été une société de services, et aucune société de services n'est devenue un grand du progiciel. Dans la réalité, il n'existe pas de société de « progiciels et services », et assimiler le progiciel à un service relève de la confusion mentale. A l’intérieur même de la famille des services coexistent des prestations de nature différente, non substituables les unes aux autres, mais dont chacune entre d’une certaine façon en concurrence avec certains produits matériels ou logiciels. Les services constituent donc à leur tour un ensemble hétérogène dont le trait commun le plus important en termes de structure industrielle est le contact direct entre le marché et l’appareil de production de chacun des offreurs. Cette caractéristique rend la nature de la production et la personnalité de chaque firme encore plus étroitement interdépendantes que dans le cas des produits.

ccvi

Dans la suite de cet ouvrage, nous traiterons donc séparément le progiciel (chapitre 11), puis les services (chapitre 13), même si cette dernière catégorie n’a pas réellement de cohérence interne et doit s’analyser comme la juxtaposition de secteurs et de métiers différents.

ccvii

Chapitre 11 L'industrie du progiciel
La lente émergence du progiciel. Une structure sectorielle paradoxale. Logiciel de base et applications, systèmes et extensions. Cycles de développement, complexité et coûts d’intégration. La formation des prix et des parts de marché. Une dynamique de concentration dans des secteurs multiples. Progiciels et composants. Des prix sans relation avec les coûts. Problématique et personnalité de l’entreprise de progiciel. Une forme de mouvement perpétuel.

Le terme français de « progiciel » a été formé par la contraction de « produit logiciel » pour désigner, parmi le grand nombre de produits et services de natures différentes qui utilisent comme matériau le logiciel, ceux qui possèdent les caractéristiques habituelles des produits au sens le plus classique du mot. Le présent chapitre concerne donc les logiciels commercialisés prêt à l'emploi, utilisables indépendamment de leur auteur, définis pour un marché anonyme et non pour un utilisateur particulier. Le progiciel a bien toutes les caractéristiques d’un produit. L’offre principale est définie sur catalogue, et le client prend sa décision d’achat sur la base d’une description préparée unilatéralement par le fournisseur. Moyennant une redevance unique analogue à un prix d'achat, le client acquiert un droit d'usage illimité, la seule restriction par rapport à un produit classique étant une limitation du droit de reproduction. On parle d’ailleurs couramment d'« acheter » un progiciel. Au plan juridique, le progiciel est protégé par le droit d'auteur donc assimilable à un livre ou un disque, tout en étant également justiciable de brevets comme les produits. Un même progiciel est diffusé en de nombreux exemplaires identiques, et les activités de création et de diffusion sont deux fonctions séparées au sein de la firme productrice, voire réalisées par des entreprises distinctes. Toutes ces caractéristiques sont à l’opposé du développement de logiciels « sur mesure » tel que le pratiquent les sociétés de services. Le progiciel se définit donc comme un produit constitué de logiciel. Sa production présente les attributs d’une activité de production industrielle, et plus précisément d’un secteur concentré où les coûts fixes (de développement) sont élevés et les coûts variables (de reproduction) quasi-nuls. Contrairement à une idée reçue, la production de progiciels est, économiquement parlant, radicalement différente d'une activité de services, et plus proche par sa logique industrielle de la production de composants que nous avons étudiée au Chapitre 7. Néanmoins, les caractéristiques propres du logiciel donnent au secteur des traits particuliers que nous allons examiner dans ce chapitre.

ccviii

Historique et situation
Ce n’est que dans les années 70 que le logiciel est progressivement apparu comme une activité industrielle indépendante susceptible de devenir productrice de revenu et éventuellement de profit. Avant la décision d’IBM de facturer séparément certains types de logiciels (1969), les constructeurs d’ordinateurs fournissaient ceux-ci « gratuitement » avec les matériels dont ce logiciel faisait en quelque sorte partie. Il s’agissait principalement de programmes utilitaires nécessaires à l’utilisation des matériels, par exemple les systèmes d’exploitation ou les traducteurs de langages de programmation. De leur côté, les utilisateurs développaient eux-mêmes les logiciels qui leur étaient nécessaires, principalement des logiciels d’application, ou les faisaient développer par des sociétés de service. Dans le domaine scientifique se perpétuait la tradition d’échange bénévole de programmes, inaugurée aux premiers temps de l’informatique. Cette tradition fut respectée par les clubs de micro-informatique, au point que Bill Gates se heurta violemment aux utilisateurs de micros de l’époque en prenant position en 1976 contre le piratage des logiciels payants. Cette tradition d’échange se prolonge de nos jours sous la forme du « freeware » et du « shareware » . C’est dire combien l’idée que le logiciel est une création de l’esprit qui doit échapper aux circuits marchands est ancienne et encore bien ancrée dans de nombreux esprits.
48

En dehors des constructeurs pour les programmes généraux, les premières tentatives de commercialiser du logiciel sont le fait de sociétés de service qui, ayant développé un programme pour un client, pensent possible de vendre ce même programme à d’autres clients, souvent en partenariat avec le commanditaire initial qui espère ainsi récupérer une part de son investissement. Dans la plupart des cas, il s’avère impossible aux nouveaux clients d’utiliser exactement le même programme que le ou les clients précédents. L’activité de ces firmes reste donc la fourniture de solutions sur mesure où les développements antérieurs sont plus ou moins habilement réutilisés à chaque nouveau contrat. Bien que souvent parés de noms séduisants et fortement exploités dans la communication commerciale des sociétés de service, ces logiciels ne sont en réalité que le support de prestations spécifiques, qui restent nécessaires non seulement à leur mise en place, mais aussi à leur utilisation courante. Il ne s’agit donc pas de progiciels au sens où nous l’avons défini, qui suppose une mise en œuvre totalement indépendante de l’auteur. Néanmoins, la différence de nature entre ce type de logiciels et de véritables progiciels a été longtemps occultée, ce qui explique sans doute que logiciels et services soient encore considérés comme une seule et même activité, ce que dément toute analyse rationnelle. De plus, certaines sociétés de service facturent une redevance distincte pour l’utilisation dans leurs prestations spécifiques de modules de logiciel préexistants, ce qui explique probablement l’apparition d’une rubrique « software » dans les statistiques qui les concernent, alors qu’elles n’offrent aucun progiciel au sens propre du mot. C’est probablement le cas de sociétés comme Finsiel, qui apparaît

48

quelquefois « traduits » en français de façon ridicule par « gratuiciels » et « distribuciels » ( ! ! !)

ccix

comme une société mixte alors que c’est en réalité une pure entreprise de services, ou à un degré moindre d’EDS ou Cap Gemini .
49

Du côté des constructeurs d’ordinateurs, la facturation séparée des logiciels va de pair avec leur importance croissante, tant dans les coûts et l’organisation des fournisseurs que dans leur argumentation concurrentielle. Très rapidement, les constructeurs mettent en place pour le progiciel une discipline et une organisation professionnelles dérivées de celle des matériels et radicalement distincte de celle des services, affirmant ainsi que les progiciels sont des produits. De plus, sous la pression d’une concurrence par les coûts de plus en plus vive dans le matériel, les constructeurs s’éloignent progressivement de leur politique initiale où la vente du matériel subventionnait le logiciel. Ceci se traduit par une augmentation progressive des tarifs du progiciel et une disparition progressive du logiciel resté gratuit. Pour les mêmes raisons, les constructeurs qui avaient tardé à suivre IBM sur la voie de la tarification séparée du logiciel, en espérant en tirer un avantage concurrentiel, s’y rangent à leur tour. Le secteur des logiciels utilitaires généraux est ainsi le premier à se transformer en un secteur indépendant de progiciels de nature industrielle, où les constructeurs qui y étaient seuls au début sont rejoints par quelques firmes spécialisées comme Computer Associates. Jusque dans les années 70, développer du logiciel suppose de pouvoir accéder à un ordinateur facilement et de façon permanente. Cela n’est guère possible qu’aux employés des grandes entreprises, dont l’activité est plutôt orientée vers la production de logiciels spécifiques à leur employeur, ou aux universitaires dont la tendance naturelle à cette époque est de diffuser leurs programmes gratuitement. Cet obstacle à la création d’entreprises indépendantes est levé à la fin des années 70 par l’arrivée de la micro-informatique, qui rend le développement de logiciel accessible à de petites entreprises indépendantes voire à des individus isolés, en même temps qu’elle crée un marché pour les progiciels ainsi développés. Ce marché devient un marché de masse à partir de l’introduction du PC en 1981. Apparaît alors une multitude de petites entreprises souvent formées d’une poignée de programmeurs, offrant chacune son logiciel particulier pour un type d’utilisation précis. Mais le foisonnement quelque peu artisanal du début fait place à une vive concurrence qui conduit très vite à la constitution de positions dominantes occupées par des entreprises à caractère industriel : Microsoft pour les systèmes d’exploitation, après avoir éliminé Digital Research et quelques autres, le même Microsoft pour les traitements de texte et les tableurs, avec un ou deux challengers dans chaque domaine (Wordperfect et Lotus pour les traitements de texte, Lotus et Borland pour les tableurs), ou encore Novell pour les logiciels de réseau, où Microsoft joue cette fois le rôle de challenger. Ce secteur spécialisé des progiciels pour micro-ordinateurs se développe en parallèle avec l’activité plus traditionnelle des constructeurs de matériel pour leurs systèmes propres , dont l’OS/2 d’IBM ou le Système 7 d’Apple sont des exemples dans
50

49

voir Chapitre 4.

50 On ne commettra pas dans cet ouvrage l’horrible contresens que constitue l’emploi du mot « propriétaire » en tant qu’adjectif pour désigner un développement ou un standard propre à une

ccx

le domaine de la micro-informatique. C’est ainsi que parmi les entreprises qui réalisent les 20 plus grosses parts du marché des progiciels, on trouve en 1992 7 généralistes pour plus de 45% du CA total et 10 spécialistes, dont 6 en micro et 4 en grands systèmes, pour environ 32% du CA total. Les 3 sociétés de service qui complètent la liste des 20 premiers (pour moins de 5% du total) n’y figurent probablement que par abus du terme « progiciel ». Comme nous l’avons vu aux chapitres 4 et 5, les firmes spécialisées dans le progiciel présentent une physionomie caractéristique assez différente de celle des autres firmes de l’industrie informatique. Elles sont généralement étroitement spécialisées, totalement absentes du marché des matériels, et n’offrent que le minimum de prestations annexes comme la maintenance ou les services. Elles consacrent une forte part de leurs dépenses à la R&D (typiquement entre 8 et 20%) et leur activité commerciale est hypertrophiée (dépenses de vente et d’administration supérieures à 30% du CA), mais leur coût de production est faible en valeur relative (la plupart du temps inférieur à 35% du CA). Leurs performances, mesurées en termes de profit, se situent dans une plage très large, avec chaque année des maxima supérieurs à 20% et dépassant même les 25%, mais aussi des résultats lourdement négatifs pour certaines firmes. Néanmoins, le nombre de firmes déficitaires est chaque année très faible, et les moyennes se situent presque toujours au-dessus de 10%. Enfin, ce secteur n’a pas connu entre 1987 et 1989 la dégradation de profitabilité qui a affecté le reste de l’industrie.

Caractéristiques du secteur
Le secteur des progiciels présente des caractéristiques a priori paradoxales pour un observateur superficiel. Le grand nombre des firmes présentes et la petite taille de la plupart lui donnent l'apparence d'un secteur dispersé. Dans l’échantillon de 110 firmes que nous avons examiné, 57 sont présentes dans le progiciel, parmi lesquelles la première (IBM) a une part de marché de 32%, tandis que la part de marché du premier spécialiste (Microsoft) est inférieure à 9%. Sur ces 57 firmes, 20 seulement ont une part supérieure ou égale à 1%, et il existe par ailleurs un grand nombre de firmes trop petites pour figurer parmi les 110, et dont les parts de marché sont inférieures à un pour mille. Ce grand nombre de petites firmes semble cohérent avec le fait que les obstacles à l'entrée paraissent presque inexistants. Au début de 1975, il n’a pas fallu beaucoup plus de quatre semaines à deux jeunes étudiants qui s’appelaient Bill Gates et Paul Allen pour écrire le Basic d’où est parti le succès de Microsoft. Encore aujourd’hui, moyennant un investissement de 10000 à 20000 Francs dans un PC, chacun peut écrire un programme à ses moments perdus et tenter de le commercialiser afin de devenir à son tour l’homme le plus riche des Etats-Unis. Mais si la production de progiciel était réellement un secteur dispersé par nature, on ne pourrait expliquer ni la persistance de profitabilités très élevées, ni la domination quasi-absolue de Microsoft dans des segments comme les systèmes d’exploitation pour micro-ordinateurs (81% avec MS-DOS), les tableurs (73% avec Excel) ou à un degré moindre les traitements de texte (55% avec Word), ou de Novell qui détient 70% du
entreprise

ccxi

marché des réseaux locaux. Dans ces segments de marché et quelques autres, la répartition des parts de marché ressemble d’ailleurs curieusement à celle qui caractérise les secteurs fortement monopolistes comme les composants : trois ou quatre firmes dont la première occupe 60 à 70% du marché, et où les suivantes se partagent le reste de façon très inégale. Cette situation est cohérente avec le fait que l'économie de la production de logiciel obéit à une logique fortement monopoliste puisque la quasitotalité du coût est formée de coûts fixes, le coût marginal que constitue la reproduction d'un nouvel exemplaire étant quasi-nul. Donc, alors que les faibles obstacles à l'entrée et à la sortie semblent caractériser un secteur dispersé, les économies d'échelle sont fortes et confèrent au secteur certains des attributs d’un secteur concentré, en particulier une profitabilité élevée. La clé de cet apparent paradoxe est double : Premièrement, les firmes de progiciels ne doivent pas être considérées comme formant un secteur unique, mais autant de secteurs que de domaines d’application. Comme nous l’avons vu au Chapitre 6, s'appuyer sur l'étude de la concurrence pour comprendre la structure de l'industrie exige de considérer séparément chaque « groupe de firmes qui fabriquent des produits étroitement substituables », que Porter appelle « industry » et ses traducteurs français « secteur ». La concurrence ne joue réellement qu'entre progiciels offrant des fonctions comparables. Or un traitement de textes comme Word, une base de données comme Paradox et un gestionnaire de réseaux locaux comme Netware ne sont pas des produits substituables entre eux. Il existe en informatique un grand nombre de domaines d'application différents qui sont autant d’occasions de développement de progiciels, et qui définissent autant de marchés distincts. Un système d’exploitation, un programme de comptabilité, un traitement de texte, un gestionnaire de bases de données, une bibliothèque d’analyse statistique, un progiciel de composition musicale, un jeu vidéo remplissent des fonctions radicalement différentes, donc satisfont des besoins distincts et ne peuvent pas être substitués l’un à l’autre. Le secteur des progiciels est en réalité, au sens strict de Porter, la juxtaposition d'un grand nombre de secteurs correspondant chacun à un domaine d'application. Comme nous l’avons évoqué au chapitre précédent, il ne faut pas considérer le logiciel comme un produit ou un secteur d’activité, mais comme un matériau avec lequel on peut construire une grande variété d’objets différents. Ce n’est pas parce que Windows et les jeux vidéo sont tous deux faits « en logiciel » qu’ils sont concurrents au sein d’un même secteur d’activité, pas plus qu’une table de cuisine et une barque de pêche, qui sont pourtant tous deux en bois. Autrement dit, c’est le mobilier de cuisine, la construction navale, les tableurs et les jeux vidéo qui constituent des segments de marché, auxquels peuvent correspondre des secteurs d’industrie. Le travail du bois ou l’écriture de logiciels sont des métiers qui peuvent être exercés dans des secteurs différents. Pour appliquer au progiciel notre méthode d’analyse structurelle, qui repose sur le jeu de la concurrence, il nous faut considérer que chaque domaine d’utilisation possible de l’ordinateur définit un segment de marché sur lequel des firmes concurrentes offrent des produits substituables l'un à l'autre, dans le sens où ils visent tous à satisfaire un même besoin des clients dans ce domaine. En première analyse, la concurrence dans chacun de ces segments est indépendante de la concurrence dans les autres segments.

ccxii

Des progiciels non substituables entre eux définissent autant de secteurs disjoints qui se structurent indépendamment les uns des autres. En second lieu, si les coûts de reproduction sont uniformément faibles, les coûts de développement peuvent varier dans de très grandes proportions suivant la nature et les ambitions du progiciel considéré. Faibles pour des efforts individuels, ou quelquefois invisibles si le développement est subventionné en totalité ou en partie par une autre activité, par exemple la recherche, ils peuvent se chiffrer en dizaines de millions de dollars à l’autre extrême pour des systèmes généraux complexes. L’immense variété des formes de logiciel que nous avons évoquée au chapitre précédent se retrouve dans les produits logiciels. Selon l’ordre de grandeur des dépenses de développement, c’est la facilité d’entrée qui dominera en conférant à l’activité les caractéristiques d’un secteur dispersé, ou au contraire l’échelle économique de production qui soumettra l’activité à une dynamique de concentration. Au total, c'est à l'intérieur de chacun de ces nombreux sous-marchés et non pour la totalité de l’industrie du progiciel que joue la concurrence monopoliste qui résulte de la faiblesse des coûts variables unitaires, et ce d’autant plus vigoureusement que la nature du segment considéré exige des logiciels complexes entraînant des coûts fixes de développement élevés. Les forces concurrentielles qui poussent à la concentration agissent séparément à l’intérieur de chaque secteur élémentaire et font évoluer chacun des secteurs des systèmes d’exploitation, des tableurs, des traitements de texte, des compilateurs, des logiciels de comptabilité, des logiciels de dessin, … vers les structures concentrées asymétriques que nous avons décrites plus haut (voir Chapitre 7). Chaque secteur élémentaire obéit à une logique de concentration, ce qui explique les fortes rentabilités et les dispersions constatées. Au total, compte tenu de l'économie monopoliste de sa production, le secteur du progiciel est en réalité formé d'un grand nombre de sous-secteurs, dont chacun est concentré. De fait, si on examine les parts de marché non plus au niveau global où leur sens économique est discutable, mais pour chaque domaine, on retrouve bien la répartition caractéristique des secteurs concentrés, avec un leader dépassant les 50% de part de marché : 81% pour MS-DOS dans les systèmes d'exploitation, 73% pour Excel dans les tableurs sous DOS, 54% pour Word dans les traitements de texte sous Windows, 70% pour Netware dans les réseaux locaux, etc. Mais le nombre de tels sous-secteurs est suffisamment élevé, et il existe suffisamment de firmes spécialisées dans un seul d’entre eux, pour que le « macrosecteur » constitué par l’ensemble du progiciel ait l’aspect d’un secteur dispersé. Dans chaque secteur, l’entreprise leader peut être de taille modeste. Même Microsoft, qui est leader dans plusieurs secteurs, et parmi les plus importants, ne réalise que quelques milliards de dollars de chiffre d’affaires, soit environ 8% du CA total du secteur des progiciels. De plus, la vitalité du domaine de l’informatique en général fait apparaître en permanence de nouveaux domaines d’applications qui sont autant de secteurs naissants où la relative facilité d’entrée ouvre la porte à une multitude de petites entreprises nouvelles. Les différents secteurs se trouvent ainsi à des degrés de maturité très différents. Alors que le phénomène de concentration a déjà conduit certains à une

ccxiii

structure caractéristique d’oligopole asymétrique, d’autres sont encore des secteurs naissants. Ainsi s’explique sans doute en partie la grande dispersion des résultats que nous avons constatée au Chapitre 5, et la difficulté que nous avons eue à interpréter les caractéristiques apparentes de comportement du secteur. Toutefois, les multiples sous-secteurs qui constituent le secteur du progiciel ne sont ni disjoints ni étanches. Le développement de progiciels est un métier unique, et les avantages concurrentiels qui permettent à une firme de réussir dans un domaine d’application particulier valent aussi pour les autres domaines, même s’ils doivent y être complétés par des avantages spécifiques à chacun des secteurs. Enfin, nous allons voir que les frontières entre domaines d’application sont souvent floues et laissent de multiples possibilités de passage. Au total, la dynamique d’ensemble du secteur des progiciels résulte de ce jeu complexe entre segments régis chacun par une dynamique de concentration, mais couvrant tout un spectre qui va depuis les secteurs naissants, grand ouverts aux nouveaux entrants, jusqu’au secteurs stabilisés dominés par des monopoles, ces différents secteurs communiquant et interagissant entre eux.

Les formes de progiciel
Il est habituel de distinguer à l’intérieur du progiciel deux grands domaines, le logiciel de base, ou logiciel « système », et le logiciel d’application. Dans la première famille, on range un ensemble de logiciels qui permettent d’utiliser le matériel sans être spécialisés pour une tâche définie, et qui remplissent des fonctions générales telles que la gestion du matériel, la gestion des tâches, la gestion des données, la gestion des communications, etc. Ces programmes sont liés au matériel et l’englobent en quelque sorte dans un ensemble de fonctions plus riche et plus facilement utilisable. De leur côté, les logiciels d’application personnalisent l’ordinateur en vue d’une utilisation particulière comme la comptabilité, le traitement de textes, la simulation de la formation des galaxies, la composition musicale ou le jeu de Super Mario. Les logiciels de base prennent en charge des fonctions fondamentales comme le stockage des fichiers sur disque, le lancement des programmes et le dialogue avec l’utilisateur. Ils établissent pour cela un certain nombre de standards généraux qui devront être respectés par tous les composants du logiciel de base lui-même et par les programmes d’application. L’ensemble des fonctions du logiciel de base s’organise ainsi en un système rendu cohérent par le respect de standards communs et la possibilité pour chaque composant d’utiliser chacun des autres. L’utilisation d’un système particulier a des effets rémanents comme l’habitude d’une forme de dialogue, mais aussi sous la forme concrète de fichiers conservés dans un certain format et conformes à certaines conventions. C’est pourquoi l’immense majorité des utilisateurs n’utilise qu’un seul système et n’en change qu’exceptionnellement, alors qu’il peut utiliser une multitude d’applications, certaines de façon très éphémère. Les logiciels système sont nécessaires quelle que soit l’utilisation de l’ordinateur et peuvent être considérés comme la base commune à l’ensemble des applications possibles. Chaque logiciel d’application utilise un certain nombre de fonctions du logiciel de base, et suppose donc la présence sur l’ordinateur d’un certain système. Chaque logiciel système particulier détermine ainsi quelles applications pourront être

ccxiv

exécutées sur l’ordinateur. Autour de chaque système se crée donc non seulement un ensemble d’habitudes, mais aussi une galaxie de programmes d’applications utilisables avec ce système. Le choix d’un système d’exploitation est lourd de conséquences pour l’utilisateur, car il détermine pour lui, de façon très difficilement réversible, la gamme de progiciels auxquels il aura effectivement accès, voire les domaines d’application qu’il pourra aborder. C’est pourquoi, en ce qui concerne les systèmes d’exploitation, le marché exige des produits riches en fonctions et capables de s’enrichir parallèlement à l’évolution du matériel. Ces systèmes doivent également être fiables, solides et faciles d’emploi dans une gamme étendue de domaines d’utilisation. En effet, alors qu’une imperfection dans une application n’a que des effets limités, une imperfection dans un système affecte toutes les utilisations. De plus, les utilisateurs demandent que ces systèmes soient soutenus par des organisations sur lesquelles ils puissent compter pour résoudre les difficultés éventuelles, développer en permanence les extensions nécessaires au support des nouveaux matériels et des nouvelles formes d’utilisation, et pour répondre aux demandes d’amélioration en provenance du marché. La production de systèmes d’exploitation demande donc à la fois des développements lourds, une activité de support permanente et de garanties de pérennité de l’offreur, qui la réservent à des entreprises de nature industrielle. Réciproquement, tout auteur de progiciels d’applications doit choisir le (ou les) système d’exploitation auquel se rattachera son produit. Ce choix est également lourd de conséquences, car non seulement il détermine une partie des caractéristiques du progiciel et de ses conditions de développement, donc de son coût, mais surtout parce qu’il détermine le marché accessible. Le développeur de progiciel applicatif a donc intérêt à s’appuyer sur les systèmes d’exploitation les plus répandus parmi la clientèle qu’il vise (et qui peuvent d’ailleurs différer selon le domaine d’application). Les systèmes les plus répandus seront aussi ceux qui s’accompagnent du choix de progiciels d’application le plus vaste, ce qui leur donne un avantage concurrentiel supplémentaire. Les spécialistes tendent donc à s’aligner sur les systèmes les plus courants, formant ainsi autour de ces derniers des constellations de firmes indépendantes qui offrent des extensions et des compléments au système de base, ainsi que des applications qui l’utilisent. La variété et la qualité de ces offres constituent un avantage concurrentiel pour chacune des firmes de la constellation par rapport à leurs homologues appartenant à des constellations concurrentes. En termes de concurrence entre systèmes, le succès va ainsi au succès. Ceux qui jouissent des plus forts avantages concurrentiels occupent une part croissante du marché, et une part de marché élevée est en elle-même un avantage concurrentiel. Indépendamment même de l’économie de sa production et des effets d’échelle que nous avons décrits au Chapitre 7 à propos des composants, le marché lui-même induit une rétroaction positive par renforcement automatique des avantages acquis, qui conduit à la concentration du secteur sur un petit nombre de systèmes riches en fonctions. Comme nous le verrons par la suite, la demande du marché rejoint et renforce la dynamique industrielle qui tend elle aussi à une extrême concentration du secteur des systèmes d’exploitation.

ccxv

Un même phénomène touche les applications de nature générale. Avant l’apparition des micro-ordinateurs, les applications étaient presque toujours propres à chaque entreprise et seuls les systèmes d’exploitation et certaines fonctions utilitaires comme la gestion de bases de données ou la préparation de programmes possédaient un caractère suffisamment universel pour justifier le développement de progiciels généraux. Aujourd’hui se sont développés des secteurs d’application liés à des activités de nature générale comme la production de documents ou la manipulation de tableaux de chiffres, auxquels correspondent les programmes de traitement de textes et les tableurs, mais aussi d’autres types de programmes pour d’autres domaines. Chacun des progiciels existants définit ses propres conventions d’utilisation, ses formats de fichiers, … et suscite des développements complémentaires en provenance d’innovateurs indépendants, qui doivent respecter ces standards. Autour de ces « quasi-systèmes » que sont les applications de base comme le traitement de textes ou les tableurs s’organise la même dynamique que nous avons décrite entre les systèmes d’exploitation et les applications, et qui pousse de la même façon à une concentration de chacun de ces secteurs. A côté de la distinction traditionnelle entre progiciel de base et progiciel d’application, nous venons d’esquisser une autre distinction entre « systèmes » et « extensions » (en anglais « add-on »). Les systèmes, qui se rencontrent aussi bien dans le domaine des applications que dans le logiciel de base, ont vocation à couvrir l’ensemble d’un domaine en offrant à l’utilisateur une large palette de fonctions cohérentes entre elles. Pour cela, ils définissent des standards en matière de formats de données, de communication avec l’utilisateur, de communications entre composants du système, etc. Les progiciels d’extension visent à réaliser une fonction particulière et doivent le plus souvent se conformer aux standards existants concernant le domaine où se situe leur fonction. Les systèmes impliquent des développements volumineux et coûteux, donc une échelle économique de production élevée qui concourt avec la demande du marché à une dynamique de forte concentration du secteur. Les extensions sont des développements plus modestes par leur volume et leur coût mais généralement plus innovants, et qui peuvent donc mieux s’accommoder d’une concurrence de type dispersé. Les frontières entre ces types de progiciels et entre les domaines d’applications sont floues et perméables. En un sens, les applications sont des extensions du logiciel de base. Plus significativement, les frontières entre les applications tendent à s’estomper. Par exemple, les progiciels de traitement de texte comme Word ou Wordperfect s’enrichissent de fonctions de traitement de tableaux qui rejoignent les tableurs tels que Excel ou Quattro. A l’inverse, les fonctions de traitement des informations textuelles dans les cellules d’un tableur offrent progressivement des possibilités analogues à celles des traitements de texte. Il en va de même des fonctions de dessin, de préparation de graphiques, etc. Les documents susceptibles d’être manipulés par ces programmes deviennent des documents composites où peuvent figurer toutes les formes d’information y compris les sons, les photographies et les images animées, ce qui implique des logiciels capables de traiter toutes ces formes de façon homogène et coordonnée. Les progiciels jusque là distincts comme les traitements de texte, les tableurs, les programmes de dessin et de présentation, les bases de données, les messageries, … se

ccxvi

réunissent donc en « suites » (Office de Microsoft, PerfectOffice de Novell, Smartsuite de Lotus), au sein desquelles chacun peut utiliser les services des autres, et où apparaissent des bibliothèques de modules fonctionnels communs. Ces modules généraux utilisés par toutes les applications prennent de fait le statut de fonctions logicielles de base, engendrant ainsi une migration de fonctions applicatives vers le logiciel de base. Ce même mouvement affecte les extensions aux systèmes de base comme aux systèmes applicatifs, que les fournisseurs de systèmes incorporent progressivement dans leurs offres. Nous verrons que ce phénomène de migration continuelle des fonctions depuis la périphérie des applications vers le coeur des systèmes joue un rôle primordial dans la structuration de l’industrie du progiciel.

Le développement des progiciels
Examinons dans ses grandes lignes le processus de développement des progiciels afin d’en comprendre l’économie et d’en déduire les mécanismes de structuration du secteur. Le développement d’un progiciel de quelque importance est une entreprise complexe par nature. Pour avoir une chance de trouver un marché, un progiciel doit posséder un minimum de richesse fonctionnelle et de convivialité, se prêter à de multiples combinaisons de demande des utilisateurs et pouvoir s'exécuter dans une grande variété d'environnements matériels et logiciels. En pratique, il est rare qu’un progiciel ne comporte pas plusieurs centaines de milliers d’instructions élémentaires, et courant qu’il en contienne plusieurs millions. La seule façon de construire de tels édifices de façon fiable est de les décomposer en modules plus simples qui pourront être écrits et testés séparément, puis assemblés ensuite. In fine, tout programme est constitué par une séquence d’instructions élémentaires directement exécutables par les microprocesseurs, qui n’effectuent que des opérations simples très éloignées des fonctions applicatives offertes par les progiciels, mais à partir desquelles on peut construire n’importe quel programme. On considère habituellement que la taille optimale d’un module, c’est à dire celle qui permet le meilleur arbitrage entre sa puissance fonctionnelle et la possibilité de le tester de façon efficace, est de l’ordre de 50 à 100 lignes de programme ou instructions . C’est donc à ce niveau de finesse que doit aboutir la décomposition du progiciel en modules élémentaires. Si la décomposition fonctionnelle est correcte, chacun de ces modules réalise une fonction simple bien définie qui peut être invoquée dans tout autre programme grâce à l’écriture d’une ligne de code souvent appelée une « macro-instruction ».
51

Tout en respectant la limitation empirique de taille qui permet de le tester efficacement, chaque module peut donc utiliser les fonctions des autres modules en les appelant par des macro-instructions (ou tout autre mécanisme analogue). Au total, un progiciel conçu selon ce modèle se présente comme une collection de modules qui s’utilisent les uns les autres, formant une sorte de pyramide dont le sommet est le
51 En réalité, une notion plus pertinente est celle de « complexité » d’un module, dont diverses mesures ont été proposées. Imposer une limite supérieure à la complexité entraîne une limitation de la taille, aussi nous en resterons à cette notion.

ccxvii

module « maître » qui est appelé par l’utilisateur et qui commande et résume tous les autres. Un progiciel important peut comprendre des milliers, voire des dizaines de milliers de tels modules, qui à leur tour doivent être organisés en ensembles fonctionnels homogènes de différents niveaux, réalisant chacun une partie définie des fonctions globales du progiciel. Vu de l’extérieur, un progiciel se présente ainsi comme un ensemble hiérarchisé de sous-systèmes, eux-mêmes articulés en grandes fonctions formées de différents composants, etc. La démarche d’ensemble de développement d’un progiciel est schématisée dans la figure ci-dessous. Au départ, l’ensemble des fonctions souhaitées et des objectifs visés est décrit dans un document de spécification. Commence alors un processus analytique de conception du programme, consistant à décomposer successivement chacune des fonctions en sous-fonctions plus simples, tout en définissant de façon précise les fonctions que doivent réaliser chacun de ces éléments fonctionnels, ainsi que les modalités des relations entre eux. Si nécessaire, ces sous-éléments sont à leur tour décomposés en éléments plus simples, jusqu’à ce que chacun des éléments respecte la définition d’un module élémentaire.

Le développement du logiciel
systèmes sous-systèmes fonctions modules

tests

intégration

conception spécification rédaction tests
temps

Dans la phase suivante, chacun des modules est rédigé dans un langage de programmation approprié. Les modules de base, qui ne font appel à aucun autre module du programme en cours de développement, peuvent être testés individuellement pour vérifier que leur comportement réel est conforme à leurs spécifications telles qu’elles résultent du processus de décomposition ci-dessus (tests dits « unitaires »). Lorsque ces modules fonctionnent correctement de façon isolée peut commencer le processus d’intégration, qui est en quelque sorte l’inverse du processus de décomposition. Les modules intermédiaires sont progressivement reliés aux modules de niveau inférieur qu’ils utilisent, et le bon fonctionnement de chaque sous-assemblage est vérifié. Ce processus de construction progressive du système à partir des modules se poursuit

ccxviii

jusqu’à ce que le progiciel ait été testé dans toutes ses combinaisons de fonctions, de modes d’utilisation et d’environnements d’exécution. Au cours de ce processus d’intégration se révèlent habituellement un très grand nombre d’erreurs . Celles-ci peuvent porter sur les derniers modules en cours de tests, auquel cas leur correction n’a que des effets locaux sur le niveau de tests en cours, mais elles peuvent aussi concerner des modules déjà testés. Dans ce dernier cas, il faudra reprendre les tests en amont après correction des modules défectueux, afin de vérifier que ce qui marchait correctement jusque-là marche toujours après modifications (tests dits « de non-régression »). Il faut pour cela ré-exécuter des séries de tests déjà effectués antérieurement. En effet, dans l’état actuel des technologies de programmation, le seul moyen de vérifier qu’un programme est correct est de l’exécuter. Tant qu’un passage de test aura révélé au moins une erreur et donné lieu à au moins une correction, celle-ci devra être vérifiée en recommençant le même test, jusqu’au passage qui ne révélera plus aucune erreur.
52

A ce stade, le programme exécute correctement toute la bibliothèque de test sur les configurations des machines utilisées dans cette phase. Mais pour un programme complexe, le fait même qu’il ait été correctement exécuté dans son intégralité dans une gamme raisonnable de cas d’utilisation et de configurations ne garantit aucunement qu’il s’exécutera correctement dans tous les cas et toutes les configurations envisageables. Là encore, le seul moyen de s’en assurer est de procéder à des essais réels suffisamment longs, de préférence conduits par des utilisateurs représentatifs en situation d’exploitation réelle. Cette étape, qui suppose qu’une première étape de tests système ait été franchie avec succès afin d’assurer une fonctionnalité et une convivialité suffisantes, est souvent désignée par le terme de « beta-test ». Pour des progiciels majeurs, elle peut concerner des milliers d’utilisateurs (plus de 400000 pour Windows 95). Essayer toutes les combinaisons possibles est impossible en toute rigueur, en essayer de nombreuses coûte du temps et de l’argent, même quand le résultat est positif et n’appelle aucune correction. Sans entrer dans le détail des estimations, qui font l’objet de toute une littérature, nous pouvons utiliser ce modèle pour voir comment les coûts et les délais de développement varient selon le système, et donc caractériser le niveau d’investissement et la durée de cycle, qui gouvernent la personnalité d’entreprise des firmes du secteur. Le temps nécessaire pour la phase de conception est largement imprévisible. Il est évidemment fonction de la taille et de la complexité du projet, mais aussi des méthodes et des conventions adoptées pour l’ensemble du développement, qui définissent les conditions de passage de la phase d’analyse à la phase d’écriture. On constate que toute imperfection au stade de l’analyse induit un supplément de coûts d’intégration bien supérieur à ce qu’aurait coûté le supplément de temps d’analyse qui aurait permis de l’éviter. C’est pourquoi les méthodes de développement tendent à prolonger la phase d’analyse dans l’espoir de limiter les efforts d’intégration. Cette première phase reste
52 Certaines études ont permis d’estimer que le nombre d’erreurs de programmation présentes au début des tests est couramment de l’ordre de 2 pour 10 lignes de code. Pour un programme de 100000 lignes, c’est donc 20000 erreurs, de gravité heureusement très variable, qui devront être décelées et corrigées.

ccxix

néanmoins la plus difficile à estimer, d’autant plus que les paramètres tels que la taille du programme, le nombre de modules, … ne sont à ce stade pas encore connus avec précision. La phase d’analyse aboutit normalement à une estimation assez fiable du nombre de modules, de la taille et de la complexité de chacun d’entre eux, de leur combinatoire et de la complexité de leurs interactions. Le temps d’écriture peut alors être estimé avec une certaine précision. Il est en gros proportionnel au nombre de modules et à la complexité de chacun, en supposant que les modules ont par définition des tailles comparables en nombre d’instructions. Comme le temps d’analyse, le temps nécessaire pour l'intégration et les tests est difficilement prévisible. il croît évidemment avec la taille du système, mais dépend plus précisément du nombre et de la complexité des interactions possibles entre modules. On admet généralement que, toutes choses égales par ailleurs, le temps d’intégration varie comme une certaine puissance du nombre de modules, l’exposant de cette puissance se situant entre 1.5 et 2. Autrement dit, quand on double le nombre de modules d’un système, le temps nécessaire pour le tester est multiplié par un facteur compris entre 3 et 4. A une autre échelle, il faut plusieurs milliers de fois plus de temps pour intégrer et tester un système de 10000 modules que pour un système de 100 modules ! Dès qu’un système atteint un certain degré de complexité, son temps d'intégration devient très supérieur au temps d’analyse et d’écriture, et l’ensemble croît en gros comme le carré du volume. On comprend par là pourquoi la productivité décroît rapidement quand l'échelle augmente. Il faut de plus tenir compte de paramètres extérieurs au système lui-même : diversité des conditions d’utilisation, variété des configurations matérielles et logicielles, objectifs de fiabilité. Dans les quelques semaines qui suivent sa disponibilité, une nouvelle version de Windows sera installée sur plusieurs millions d’ordinateurs représentant des milliers de configurations différentes et des milliers de fournisseurs de matériels indépendants. Pour pouvoir raisonnablement espérer que seuls quelques utilisateurs atypiques rencontreront des difficultés, il faut évidemment un programme de « beta-tests » portant sur des milliers d’utilisateurs cobayes pendant plusieurs mois, qui serait largement inutile si tous les micro-ordinateurs étaient configurés de la même façon, fournis par un constructeur unique et utilisés pour les mêmes applications suivant les mêmes procédures. Pour que l’effort total de développement soit contenu dans une durée calendaire raisonnable, il faut pouvoir distribuer le travail entre plusieurs équipes fonctionnant en parallèle. Dans la phase initiale, il devient progressivement possible de mener en parallèle l’analyse de plusieurs sous-ensembles dès que l’analyse précédente a permis de les isoler et de les spécifier avec certitude. C’est donc un des objectifs de cette phase que de permettre le plus rapidement possible une distribution de la suite du travail entre équipes aussi autonomes que possible. Dans le cas idéal, on met ainsi en place progressivement une organisation qui reflète la structure interne du système en cours de développement. Dans la réalité, il arrive souvent que l’organisation préexiste à la conception d’un nouveau système, et que cette organisation dicte a contrario au système une structure qui n’est pas nécessairement optimale.

ccxx

Le degré maximal de parallélisme est atteint dans la phase d’écriture, ce qui contribue à limiter la durée calendaire de cette phase. Il est par contre évident que l’intégration s’accommode de moins en moins bien de travaux parallèles au fur et à mesure que le système se recompose. Le processus d’intégration du système met en œuvre un processus de ré-intégration de l’organisation, en sens inverse de celui qui a résulté de la phase d’analyse. Chaque niveau successif de sous-ensemble peut être intégré sous la responsabilité de la même organisation qui en a assuré l’analyse, et ceci jusqu’à remonter à l’échelon qui a défini le premier niveau de décomposition du système global. Mais pour chaque erreur constatée, il faut en rechercher les causes en remontant jusqu’aux modules qui doivent être corrigés, et revenir en arrière dans le processus d’intégration pour le reprendre au niveau de ces modules modifiés. La nature même du processus d’intégration rend extrêmement difficile de prévoir le temps nécessaire pour atteindre un degré de fiabilité fixé d’avance. Tout au plus peuton dire que la probabilité de détecter une erreur existante croît avec la durée des tests, et que la probabilité qu’il existe des erreurs résiduelles est d’autant plus faible que le système a fonctionné sans incidents pendant plus longtemps dans une plus grande variété de configurations. Dans la pratique, on traite le problème à l’inverse en fixant d’avance une durée raisonnable de tests, qui peut être supérieure à un an pour des systèmes d’exploitation complexes, et qui est cohérente avec le calendrier imposé par des raisons de marché ou de concurrence. Pour respecter ce calendrier, les erreurs qui sont découvertes trop tard dans le cycle sont simplement signalées et seront corrigées dans des versions ultérieures. De même, pour certains cas de problèmes non critiques, il sera préférable, pour ne pas retarder le processus d’intégration, de remettre la correction à plus tard en acceptant une limitation temporaire qui sera indiquée dans la documentation. Le cycle total de développement d’un programme ne peut pas raisonnablement dépasser deux ou trois ans, et il existe donc une limite supérieure à la taille du système raisonnablement testable en un seul cycle d’intégration. Des développements particulièrement ambitieux seront nécessairement réalisés en plusieurs versions successives, afin que chacune d’entre elles puisse être validée par un usage intensif en milieu réel avant d’entreprendre d’y intégrer des modifications et des extensions. Pour ces versions nouvelles, il faudra non seulement définir de nouveaux modules correspondant aux extensions, mais aussi apporter des modifications à des modules existants. Notons que si l’effort nécessaire pour les phases d’analyse et d’écriture ne dépend que de l’importance des modifications, c’est la totalité ou presque du système qui devra de nouveau être intégrée et testée pour tenir compte de ces modifications de l’existant. On voit que si ce processus de développement cumulatif rend possible, sur une durée suffisante, des constructions extrêmement complexes, l’obligation de tester le système complet à chaque version impose de nouveau des limites à la taille et à la complexité des progiciels ainsi créés. De plus, il existe une limite pratique à ce qui est possible par accumulation de modifications, et le système devra donc faire périodiquement l’objet d’une refonte majeure. En résumé, pour des systèmes complexes, c’est la phase de test et d’intégration qui consomme l’essentiel des ressources et qui détermine la durée totale du cycle de

ccxxi

développement. Plus généralement ce sont les contraintes de cette troisième phase qui gouvernent l’ensemble du processus. On voit aussi que la production de progiciels très généraux, c’est à dire offrant une grande variété de fonctions en se pliant à des modalités d’utilisation diversifiées sur des configurations quelconques, exige des organisations et des méthodes industrielles. Seules en effet des entreprises industrielles peuvent investir les ressources nécessaires en personnel et en matériel, gérer efficacement des projets complexes impliquant le travail coordonné de nombreuses équipes en parallèle et le respect d’une discipline contraignante, tout en faisant face à des situations essentiellement imprévisibles qui appellent des arbitrages permanents dont les conséquences économiques peuvent être lourdes.

Economie de la production et structure sectorielle
Coûts variables, parts de marché et prix
Nous avons vu que la facilité de reproduction est une caractéristique intrinsèque du logiciel. Créer un nouvel exemplaire à partir d’un programme existant est rapide, peu coûteux et ne nécessite pas de matériel spécialisé puisque le matériel destiné à utiliser le programme permet aussi de le reproduire. C’est comme si chaque voiture était capable de reproduire gratuitement son moteur, ou si les appareils photographiques pouvaient produire des pellicules vierges. Pour un particulier, reproduire un progiciel même complexe tel que Windows ne coûte que quelques minutes et le prix de quelques disquettes. Le professionnel qui doit produire de nombreux exemplaires peut investir dans des matériels spécialisés qui réduiront encore ses coûts variables, au point que l’essentiel du coût unitaire sera formé par la documentation plutôt que par le logiciel lui-même. Pour fixer les idées, on peut estimer que le coût variable de fabrication d’un logiciel comprenant 8 disquettes (soit plus de 12 millions d’octets) et une documentation de 1500 pages est de l’ordre de 15$ soit moins de 100 F. Ce chiffre est à rapprocher d’un coût de développement probable de l’ordre de 10 ou 20 millions de dollars. Le ratio des frais fixes aux frais variables, dont nous avons vu qu’il détermine l’échelle économique de production et gouverne le degré de concentration du secteur, se chiffre donc en millions. Les coûts variables de reproduction sont en gros proportionnels à la taille du progiciel et de la documentation qui l’accompagne, avec pour le programme lui-même un effet de seuil correspondant à la capacité d’une disquette (actuellement 1,4 millions d’octets). Mais nous avons vu précédemment que les coûts fixes de développement croissent plus vite que la taille du logiciel à cause des dépenses de test et d’intégration dont la productivité baisse fortement quand la taille augmente. Il en résulte que l’échelle économique de production est d’autant plus élevée que le progiciel est plus volumineux et complexe. Un programme simple peut se rentabiliser avec quelques milliers d’exemplaires vendus, alors qu’un système complexe demandera une diffusion de plusieurs millions. Bien qu’elle se traduise par un ratio inférieur à celui que nous avons estimé pour les composants, qui est de l’ordre de la dizaine de millions, cette relation entre coûts

ccxxii

fixes et coûts variables confère à chacun des champs concurrentiels définis par les fonctions d’un progiciel donné tous les attributs et toute la dynamique d’un secteur fortement concentré, que nous avons décrite au Chapitre 7. Les coûts variables unitaires de reproduction sont infimes par rapport au coût fixe du prototype, et donc le coût unitaire moyen décroît fortement avec le volume. Les mêmes causes produisant les mêmes effets, la production de progiciels est une industrie à tendance monopoliste comme celle des composants. Dans chacun des soussecteurs qui la composent, nous trouverons un faible nombre d’offreurs dont les parts de marché très inégales s’échelonnent en gros de façon logarithmique. Par exemple, dans le cas typique des systèmes d’exploitation pour micro-ordinateurs PC, le complexe MS-DOS/Windows de Microsoft occupe plus de 80% du marché, IBM un peu plus de 10% avec OS/2, les différents fournisseurs de systèmes qui se réclament d’UNIX se partageant le reste. Répétons ici que cette inégalité n’est ni fortuite, ni le résultat de manœuvres déloyales de domination, mais constitue une caractéristique intrinsèque des structures concentrées. Autrement dit, l’action de la concurrence entre firmes détermine laquelle obtiendra 70% ou plus du marché, laquelle se situera autour de 15%, et lesquelles survivront en se partageant les miettes. Mais elle ne peut ni laisser subsister un grand nombre de firmes, ni faire que la répartition des parts de marché soit égalitaire. Qu’une firme occupe 80% du marché des systèmes d’exploitation est une conséquence inéluctable de la dynamique concurrentielle. Il se trouve que c’est Microsoft qui a gagné le gros lot. L’histoire aurait pu faire que ce soit IBM ou Digital Research ou un autre ; elle n’aurait pas pu faire que cinq, dix ou cinquante fournisseurs se partagent le marché à parts égales. Quant aux prix, ils se fixeront comme pour les composants électroniques à un niveau suffisamment bas pour que la sensibilité du marché aux prix soit presque nulle. Ceci entraîne en particulier que le choix du marché se fondera principalement sur d’autres attributs du produit . Toujours pour les systèmes d’exploitation, les prix tournent autour de 1000F soit moins de 200$, c’est à dire moins du dixième du prix de l’ordinateur qu’ils font fonctionner. A ce niveau, les différences de prix des systèmes en concurrence n’ont sur le choix des clients qu’une faible incidence comparativement aux autres caractéristiques du produit. Par ailleurs, comme dans le cas des composants, les prix sont très inférieurs à ceux qu’aurait intérêt à pratiquer un monopoleur. En effet, doubler (par exemple) le prix du progiciel n’augmenterait le prix total du système que de 10% et ne réduirait pas sensiblement le nombre total d’unités vendues, se traduisant ainsi pour les offreurs de progiciels par un revenu et des profits supérieurs.
53

L’originalité du secteur
Si le secteur des progiciels présente des analogies avec le secteur des composants, il s’en distingue également par un certain nombre de caractéristiques. Tout d’abord, comme nous l’avons vu, les progiciels ne constituent pas un secteur unique où tous les offreurs seraient en concurrence entre eux. Il existe une multitude de
53 Voir

chapitre 8

ccxxiii

segments de marché indépendants qui forment autant d’arènes concurrentielles où les différents offreurs choisissent ou non d’être présents. Les secteurs qui se constituent ainsi peuvent avoir des caractéristiques suffisamment différentes pour que les modalités de la concurrence n’y soient pas identiques, de même que les personnalités d’entreprise adaptées à chacun de ces secteurs. En revanche, les frontières entre ces secteurs élémentaires sont floues et mouvantes. La structure de l’industrie du progiciel est donc par nature plus complexe et plus instable que celle des composants. Nous avons vu précédemment que les investissements de développement de logiciel s’inscrivent dans une plage de variation plus basse et relativement plus large. Alors que pour les composants la mise va de quelques centaines de millions de dollars à quelques milliards, soit un rapport de l’ordre de 10, elle dépasse rarement quelques dizaines de millions et peut se réduire à quelques dizaines de milliers de dollars pour les progiciels, soit un rapport mille. Quant à l’échelle économique de production, elle est de l’ordre de la dizaine de millions pour les composants, alors qu’elle peut aller du millier au million pour les progiciels selon l’ampleur du développement. Le caractère concentré du secteur pourra donc être plus ou moins accentué selon les domaines. Deuxièmement, les investissements ne portent que sur la phase de développement et sont formés essentiellement de travail humain. Le progiciel ne nécessite que relativement peu d'investissements matériels et pas d’investissements lourds de fabrication. Une équipe motivée prête à investir beaucoup de son temps peut ainsi entreprendre l’écriture d’un progiciel sans devoir rechercher au préalable des capitaux importants. Les obstacles à l’entrée peuvent facilement être surmontés ou ignorés pour des développements innovants ou de taille modeste. Même pour des projets plus importants, il reste possible que des inconscients sous-estiment les vrais problèmes industriels comme les prix dissuasifs et se lancent quand même dans l’aventure. Il n’est même pas totalement exclu que quelques-uns puissent y réussir. Par ailleurs, les technologies de développement comme celles de distribution des progiciels ne connaissent pas l’évolution frénétique qui caractérise les composants. Toutes choses égales par ailleurs, l’échelle économique de production y reste donc assez stable. Puisque le marché est en croissance, et ce d’autant plus vite que le domaine d’application considéré est innovant, le rapport de la taille du marché à l’échelle de production est probablement croissant quel que soit le domaine, et il peut donc y avoir place pour des firmes de plus en plus nombreuses. Le processus de concentration, qui pour les composants entraîne inéluctablement l’élimination des concurrents marginaux, n’est ici lié qu’à la maturation de chaque sous-secteur et n’a pas de raison de se poursuivre quand il a abouti à des parts de marché et des prix acceptables par tous les offreurs. De plus, l’invasion par l’informatique de toutes les activités humaines fait continuellement apparaître des domaines d’application nouveaux, et donc des secteurs concurrentiels nouveaux pour les progiciels. Le nombre des sous-secteurs peut ainsi rester indéfiniment croissant. A chacun de ces sous-secteurs peuvent correspondre des besoins de développement différents et donc des échelles économiques et des concentrations différentes. A un instant donné, les sous-secteurs se situent à des stades d’évolution différents dans leur processus de concentration. En particulier les plus récents n’ont pas atteint l’état de concentration asymétrique. Comme de plus certains

ccxxiv

domaines peuvent être dominés par une firme spécialisée dans ce seul domaine et donc relativement petite, le progiciel dans sa totalité peut avoir les apparences d’un secteur dispersé si on ne prend pas soin d’en conduire l’examen domaine par domaine. L’évolution technologique à long terme prend également une forme différente. Pour les microprocesseurs, nous avons vu qu’exploiter le potentiel technologique impose de concevoir une puce nouvelle et de reconstruire les lignes de production à chaque génération, rendant totalement obsolètes les puces précédentes. Au contraire, la plasticité du logiciel et la stabilité relative de ses technologies de développement permet aux progiciels d’évoluer par versions successives de façon cumulative. Comme pour les composants, un challenger doit rechercher son avantage concurrentiel par les qualités du produit, ce qui motive le développement de nouvelles versions dotées de fonctions nouvelles et d’améliorations aux fonctions existantes, tant par le leader pour maintenir sa domination que par le challenger pour la contester. Les systèmes existants peuvent toujours être perfectionnés, des idées nouvelles peuvent apparaître même pour des domaines existants, et il se crée en permanence des besoins de marché non satisfaits qui alimentent ces versions successives. Enfin, alors que les microprocesseurs ne sont vendus par leurs producteurs qu’à des entreprises d’assemblage de matériels pour être incorporés dans leurs machines, le plus souvent à raison de un processeur et un seul par unité, les progiciels sont commercialisés en grande partie directement auprès des utilisateurs. La proportion de ventes directes aux utilisateurs et de vente indirecte à travers les firmes de matériel varie selon la nature du progiciel. La grande majorité des ventes initiales des systèmes d’exploitation est réalisée à travers les vendeurs de matériel qui équipent leurs machines du système d’exploitation de leur choix. L’utilisateur peut commander une machine nue et choisir lui-même son système d’exploitation, mais la plupart du temps il s’en tient au système pré-installé et ne se procurera de façon directe que les nouvelles versions de ce système. A l’opposé, les progiciels d’application les plus spécifiques sont toujours acquis directement par leurs utilisateurs. Ces distinctions sont importantes en termes de modalités de la concurrence et de la sensibilité du marché aux prix. Le secteur des systèmes d’exploitation fonctionne comme celui des composants : la taille totale du marché y est peu sensible aux prix, la concurrence pour les parts de marché revêt les mêmes modalités et conduit à la même structure asymétrique. Il en va de même pour les programmes d’application très courants comme les traitements de texte ou les tableurs, qui sont eux aussi utilisés sur toutes les machines et de plus en plus souvent pré-installés par les constructeurs comme les systèmes d’exploitation. En revanche, pour des applications moins universellement utilisées, le marché des progiciels n’est qu’une fraction du parc d’ordinateurs installés, d’autant plus faible que l’application est moins répandue. Le volume total des ventes, et non seulement la répartition entre les offreurs d’un volume total déterminé par ailleurs, est alors lui-même sensible aux prix pratiqués, et ceci d’autant plus que l’application concernée touche potentiellement un grand nombre d’utilisateurs.

ccxxv

La tarification des progiciels
Les tarifs pratiqués pour les progiciels illustrent bien le résultat des mécanismes classiques de formation des prix dans un secteur de type monopoliste, c’est à dire où les coûts unitaires variables sont très faibles par rapport aux coûts fixes, ici les coûts de développement. Tout d’abord, les prix « catalogue » sont à peu près indépendants du contenu fonctionnel du produit et donc de ses coûts. L’échelle des prix s’organise en quelques grandes familles plus directement liées à la taille du marché visé et à sa sensibilité aux prix. Les utilitaires simples et tous les jeux quelle que soit leur complexité se situent autour de 500F ou moins (moins de 100$), les systèmes de base (DOS, Windows, OS/2) et les utilitaires plus complexes autour de 1000 à 1500F, les systèmes applicatifs et les outils courants (Traitement de Textes, tableurs, PAO, …) entre 3000 et 7000F. Seuls quelques outils exceptionnels comme des compilateurs de langages rarement utilisés sur micro-ordinateurs atteignent la zone des 12000 à 20000F. Or il est bien clair qu’un compilateur de Pascal Objet ou Visual C++ vendus 1500F sont plus complexes et plus coûteux en développement qu’un Fortran à 12000F. L’offreur d’un nouveau progiciel doit choisir son prix par rapport à ces gammes de prix standard qui se sont formées sur le marché. Les prix préexistent en quelque sorte au progiciel, et sont indépendants de ses coûts de développement. Il appartient ensuite à chaque offreur actuel ou potentiel de gérer ses coûts et ses volumes de façon à produire un profit si possible. Au stade de la commercialisation, le coût du produit, qui se résume pratiquement aux coûts de développement, est devenu irrécupérable et ne peut plus être modifié par quelque action que ce soit. Tout revenu supplémentaire, aussi faible soit-il, est donc un supplément de profit et mérite d’être recherché. Pour y parvenir, la technique classique prêtée aux monopoles par la théorie économique est la tarification différenciée ou tarification par segments. Ce système consiste à vendre le même produit à des prix différents selon le segment de clientèle, dans la mesure où il est possible d’identifier des segments assez isolés les uns des autres pour que le prix le plus bas ne se généralise pas à tous. Dans le cas du progiciel, cette isolation est facilitée par le fait que le progiciel n’est pas cessible par l’utilisateur, ce qui élimine théoriquement toute possibilité d’arbitrage entre segments. C’est pourquoi le prix d’un même progiciel varie selon le client, les conditions, le lieu, le moment, etc. Par exemple les tarifs de cession aux constructeurs pour préinstallation dans leurs systèmes sont très inférieurs aux tarifs de vente directe aux utilisateurs, et peuvent l’être d’autant plus que c’est alors le constructeur et non le producteur du progiciel qui en supporte les coûts variables. Par exemple, un constructeur de micro-ordinateurs ne paye à Microsoft que 35$ (moins de 200F) par exemplaire du couple MS-DOS/Windows, alors que le prix de Windows seul, vendu isolément, est d’environ 1000F. A la sortie, la contribution du progiciel au prix total du système livré reste notablement inférieure au prix du progiciel isolé. L’objectif du fournisseur de progiciel est bien évidemment de se créer une clientèle captive pour les versions ultérieures. Un cas un peu analogue est celui des « licences de site » et de

ccxxvi

toutes leurs variantes négociées pour permettre à un grand utilisateur d’utiliser un progiciel sur plusieurs machines sans devoir payer autant de fois le prix unitaire, en prenant à sa charge les coûts de reproduction ou une partie des coûts de support technique. La tarification des versions successives est une autre forme de tarification différenciée, puisque chaque nouvelle version d’un système reprend sans modification un grand nombre de modules de la précédente, qui sont ainsi vendus plusieurs fois aux mêmes clients. La mise à jour d’un système contient d’ailleurs le plus souvent le système complet et non seulement les parties modifiées, mais comporte également des fonctions supplémentaires pour vérifier qu’une version précédente est bien présente sur la machine au moment de l’installation, ce qui constitue un moyen d’isoler la clientèle des mises à jour de celle des nouveaux utilisateurs . Une variante de cette approche consiste à offrir un prix préférentiel aux utilisateurs de produits concurrents.
54

Pour les grands progiciels, la lutte pour les parts de marché met principalement en jeu les accords d’installation des progiciels sur les machines neuves livrées par les constructeurs, les prix réduits pour les utilisateurs de produits concurrents ou les prix « d’attaque » pour la première version d’un progiciel nouveau. Après que le choix des clients a été déterminé, les nouveautés de chaque version et les coûts de conversion vers un progiciel concurrent contribuent à faire accepter les prix des versions successives, dont le cumul après quelques années d’utilisation dépasse de loin le prix auquel il est possible à ce moment d’acquérir la version courante du progiciel en question. D’autres formes de tarification différenciée sont pratiquées pour les progiciels destinés aux grands ordinateurs, qui consistent le plus souvent à profiter de leur statut hybride pour les facturer comme un service et non comme un produit. On rencontre par exemple des tarifs au prorata de l’utilisation ou selon la puissance du processeur sur lequel s’exécutent, ou des systèmes de redevance périodique comprenant la maintenance et les versions successives, etc. Quels que soient les efforts des fournisseurs concernés, il est peu probable que ces pratiques s’étendent un jour au progiciel pour micro-ordinateurs, et beaucoup plus vraisemblable qu’elles disparaissent progressivement du monde des grands systèmes. Notons enfin que l’extrême facilité de reproduction des progiciels sur des supports très divers rend possible leur copie et leur diffusion illicite, que les dispositions contractuelles ne peuvent que partiellement empêcher. La possibilité du « piratage » contribue à imposer des limites supérieures aux prix de marché. L’utilisateur sera d’autant plus tenté de se procurer une copie gratuite que le prix du logiciel est élevé, que le logiciel est répandu donc facilement accessible, et que le milieu où il opère est permissif. Le piratage introduit une forme de sensibilité du marché aux prix qui porte non pas sur le nombre d’exemplaires diffusés, mais sur la proportion d’exemplaires facturés parmi les exemplaires utilisés.

54 On retrouve ici la vieille tarification « fonctionnelle » dont nous avons parlé au chapitre 1, qui peut conduire à ajouter à un produit des fonctions et donc un coût supplémentaire dans le seul but de pouvoir le vendre moins cher, mais à une clientèle distincte.

ccxxvii

Dynamique d’ensemble
En résumé, l’industrie du progiciel apparaît non seulement comme un secteur radicalement distinct de celui des services auquel on l’assimile trop souvent, mais constitue elle-même un complexe de secteurs dont chacun est défini par un domaine d'application où plusieurs firmes offrent des produits concurrents répondant au même besoin. A contrario, des produits répondant à des besoins différents ne sont pas directement en concurrence et forment des secteurs différents. Tous ces secteurs obéissent à la même logique concurrentielle, qui découle de la structure de coûts caractéristique de la production de progiciels, et qui en fait des secteurs de type concentré. Suivons le cycle d’évolution d’un tel secteur, considéré isolément. Lorsque le domaine d’application est encore vierge, il est facile d’y pénétrer en n’entreprenant que des développements relativement modestes qui suffiront souvent pour satisfaire un besoin latent, grâce à la nature même de l’investissement qui ne comporte qu’une faible part matérielle ou financière. Il apparaîtra donc vraisemblablement plusieurs offreurs qui entreront en concurrence pour la part de marché, lançant ainsi le processus classique de baisse des prix vers les prix standard et de constitution d'un oligopole dissymétrique stable formé de quelques offreurs dont un fortement dominant. Au terme de ce processus, les positions respectives seront verrouillées par des prix dissuasifs largement indépendants du contenu du progiciel. Nous avons vu que les forces de concentration sont d’autant plus vigoureuses que le logiciel est plus volumineux et plus complexe. Des secteurs correspondant à des applications simples par nature pourront donc conserver longtemps une structure plus égalitaire et plus dispersée. Mais le plus souvent, la demande du marché et la concurrence font évoluer naturellement le progiciel dans le sens d’une richesse et d’une complexité croissantes, accélérant par là même le processus de concentration. L’entrée dans un secteur d’application naissant peut être le fait de firmes déjà établies dans d’autres secteurs. Ces firmes adopteront le plus souvent pour le nouveau secteur une stratégie de préemption, en introduisant dès le départ des produits riches en fonctions aux tarifs standard du marché, décourageant ainsi d’emblée l’entrée de petites firmes spécialisées. La concurrence ne pourra alors impliquer que des offreurs du même type et prendra immédiatement la forme qu’elle a dans les secteurs concentrés. La même logique de formation des prix que nous avons vue à l’œuvre dans le cas des composants électroniques (voir Chapitre 7) aboutit à fixer le prix au niveau du prix de survie du plus petit offreur. Pour les progiciels, où il existe des prix standard de marché, il est plus juste de dire que seuls survivent les offreurs dont le prix de survie est inférieur au prix de marché, ce qui impose un volume minimal de ventes. Les profitabilités respectives s’échelonnent alors du voisinage de zéro pour les offreurs marginaux à des valeurs inhabituellement élevées pour les leaders. Ce phénomène explique la grande dispersion des profitabilités que nous avons constatée au Chapitre 5.

ccxxviii

Les acteurs du progiciel
A la diversité des sous-secteurs qui composent le secteur des progiciels correspond une grande variété d’acteurs. Bien que tous pratiquent a priori le même métier, au sens où nous l’avons défini au Chapitre 6, les domaines d’application sont nombreux et à des stades de maturité différents. De plus, nous avons vu que les exigences du processus d’intégration réservent les grands systèmes complexes à des entreprises importantes qui seules peuvent jouer le rôle d'intégrateur professionnel nécessaire au succès industriel d'un système. Il apparaît donc une dichotomie entre les grands systémiers et les offreurs spécialisés secondaires. Nous avons soigneusement évité le terme maintenant consacré d’« éditeur » de progiciels pour désigner des firmes comme Microsoft ou Novell. C’est que cette appellation est particulièrement impropre. Dans le langage courant, le métier d’éditeur est un métier distinct de l’activité des auteurs dont il consiste à publier les œuvres en les mettant sous une forme propre à la distribution et en en gérant la diffusion. Pour les progiciels, les auteurs sont le plus souvent employés par les « éditeurs », qui juridiquement détiennent les droits sur les œuvres et en sont donc les véritables auteurs, d’autant plus que les progiciels sont des œuvres collectives. Pour la plupart des firmes de progiciel, c’est cette activité de création qui est dominante, l’activité d’éditeur au sens strict du mot étant une activité secondaire souvent même sous-traitée. Utiliser le mot « éditeur » pour désigner tous les offreurs de progiciels est donc un contresens. Il existe néanmoins de véritables éditeurs de progiciels au sens habituel du mot, qui mettent en forme et diffusent des programmes écrits par des auteurs indépendants de la même façon que les éditeurs de livres. Il est d’ailleurs remarquable que ces éditeurs sont souvent également éditeurs de livres d’informatique, et que les prix de leurs progiciels soient tout à fait comparables aux prix des livres (100 à 200 F). On voit en parallèle se développer sur le même modèle des éditeurs de progiciels sur CD-ROM ou sur réseau.

Le métier d’offreur de progiciel
Le succès d’un progiciel repose non seulement sur sa richesse fonctionnelle, mais aussi et surtout sur sa facilité d'utilisation, sa convivialité, ses possibilités de personnalisation, d'extension et de connexion à d'autres logiciels, sa fiabilité, sa possibilité d'évolution, etc. Les compétences nécessaires sont de trois ordres et requièrent souvent une étroite coopération entre les trois types de spécialistes correspondants. Tout d’abord une bonne connaissance des utilisateurs, de leurs besoins, de leurs habitudes de travail, de leurs préférences, etc. Deuxièmement un spécialiste des technologies propres à l’application, pour définir tes traitements appropriés. Enfin, des compétences proprement informatiques dans les techniques de réalisation de progiciel industrialisé. Selon la nature du progiciel, ces compétences sont requises en proportions variables. Si les fonctions prévues sont de nature purement informatique ou suffisamment générale, comme pour les systèmes d’exploitation ou les traitements de texte, la compétence applicative se confond avec la compétence informatique. Pour des

ccxxix

applications proprement dites comme la comptabilité, les statistiques, les calculs d’aérodynamique ou la gestion de portefeuille, une connaissance spécifique des techniques de l’application est nécessaire. Tant que le logiciel reste raisonnablement simple, c’est la connaissance de l’application qui domine, et des compétences informatiques relativement courantes peuvent assurer le succès à des firmes noninformatiques mais expertes dans le domaine. Un exemple est celui des logiciels de synthèse musicale, où des firmes comme Roland ou Yamaha sont présentes. Si en revanche on s’éloigne des applications simples pour aller vers de grands systèmes applicatifs destinés à une clientèle diversifiée, la connaissance de l’application doit être complétée par une haute expertise en développement logiciel que des entreprises non-informatiques ne possèdent que rarement, et dont elles ont tendance à sous-estimer la nécessité. C’est pourquoi on ne compte plus les échecs d’entreprises qui ont tenté de mettre sur le marché un progiciel dans leur domaine de spécialité, sans avoir pris soin d’en confier le développement à une organisation dédiée suffisamment pourvue de compétences informatiques. L’activité de production de progiciel relève dans son ensemble de cycles longs et d’une concurrence de type concentré. Les caractéristiques correspondantes, que nous avons décrites au Chapitre 9, sont d’autant plus marquées qu’on passe de la production de composants logiciels ou d’applications relativement simples vers l’activité de systèmes complexes. Pour un logiciel simple, le cycle de développement peut être de l’ordre de quelques mois, alors qu’il est de plusieurs années pour les grands systèmes intégrés, comme pour les microprocesseurs. Comme pour tous les produits, le développement et la diffusion sont deux activités séparées dans le temps, et confiées à deux branches séparées de l’organisation. Pour l’organisation de développement, le problème clef est de mettre sur le marché, au moment opportun, des produits correspondant à une demande et compétitifs par rapport à ceux (encore inconnus) des concurrents. Pour l’organisation commerciale, le problème clef est de tirer le revenu maximal des produits existants, pour couvrir les frais de structure et financer le développement des produits suivants, si possible en dégageant un profit. Il faut pour cela une organisation commerciale forte, alliant si nécessaire des ventes directes à un réseau de distributeurs, et opérant de façon efficace sur un vaste territoire. Cette activité commerciale est facilement mesurable et peut être organisée et gérée, comme la diffusion de produits standards, selon des modalités adaptées aux cycles courts. Pour le développement au contraire, le succès sur le marché ne peut pas être mesuré à court terme dans le cours de l’activité. La seule part formalisable est le suivi des coûts et des délais, mais non l’adéquation du produit à la demande du marché. Sur ce dernier point, les décisions de l’entreprise reposent exclusivement sur la confiance qu’elle accorde à ses développeurs, ce qui est d’autant plus facile que les dirigeants participent eux-mêmes aux décisions de développement et restent familiers avec les produits de la firme. Dans une entreprise de progiciels, le rôle fondamental du dirigeant est donc de s’assurer que les produits en cours de développement sont conformes à la demande future du marché, et ce mieux que les produits concurrents. Ce rôle ne peut guère être

ccxxx

tenu que par un informaticien de profession, probablement rompu à l’utilisation et au développement du progiciel, et qui doit de plus être compétent dans la gestion de son entreprise. Or il est plus courant pour un informaticien de maîtriser la gestion que pour un gestionnaire de devenir compétent en logiciel. C’est pourquoi on trouve à l’origine de la plupart des réussites en progiciel un développeur particulièrement clairvoyant qui a été capable de créer et de diriger son entreprise. Mais le succès de ses produits peut amener cet informaticien à être dépassé par les problèmes de gestion. Si on le remplace alors par un gestionnaire, il est à craindre que ce dernier soit ignorant sur le plan technique et divorce d’avec ses équipes de développement, ce qui met l’entreprise en grand danger. Il s’ensuit que la taille efficace d’une entreprise de progiciel est limitée à ce qu’un informaticien est capable de gérer sans perdre le contact avec la technique. Cette taille maximale dépend du génie personnel du patron, et les grandes réussites sont le fait d’individus exceptionnels. Une firme de progiciel qui réussit est nécessairement liée à une personnalité d’exception. Ces caractéristiques permettent d’expliquer pourquoi les firmes qui réussissent dans le progiciel sont toutes des firmes spécialisées de relativement petite taille. IBM, qui a été le pionnier du progiciel dès les années 60 pour ses propres grands systèmes, n’a jamais été capable de devenir un acteur majeur dans le domaine des applications, ni de concurrencer sérieusement Microsoft pour les systèmes d’exploitation pour microordinateurs. On peut considérer que Microsoft constitue également une exception par sa taille, mais il est probable que cette situation est directement liée à la personnalité tout aussi exceptionnelle de Bill Gates.

Les acteurs majeurs
Les offreurs de systèmes ont intérêt à s’attirer le plus grand nombre possible de supporters, qu’ils soient développeurs d’applications ou constructeurs de matériel qui pré-installeront le système. Ils chercheront donc à concevoir leurs produits de façon qu’ils soient ouverts aux extensions offertes par d'autres, et à faciliter le développement de ces extensions par des programmes d’information et de support destinés aux autres firmes. Cette forme de concurrence par la séduction des offreurs secondaires peut se traduire par des formes d’association plus ou moins formelles avec ces derniers, en particulier par la formation de consortiums visant la définition de normes communes ou des actions de commercialisation conjointes. La concurrence entre les grands intégrateurs les pousse à enrichir leurs produits en permanence en offrant des versions successives. Les extensions ou améliorations offertes par les offreurs secondaires constituent à chaque instant un réservoir de fonctions susceptibles d’être intégrées dans la nouvelle version du système, et que le « systémier » pourra ou bien réécrire sous une forme compétitive avec les offres secondaires, soit acquérir auprès de l’un de ces offreurs. Sur le long terme, on assiste ainsi à une migration de fonctions, qui débutent comme des extensions mineures indépendantes, puis se réunissent en sous-systèmes pour achever leur course à l’intérieur de grands systèmes intégrés.

ccxxxi

Pour bénéficier de ce mouvement, les intégrateurs sont amenés à acquérir les logiciels concernés auprès des firmes secondaires, et souvent à acquérir la firme ellemême pour bénéficier de ses compétences et de sa base de clientèle. La migration des fonctions s’accompagne d’un processus continu d’absorption des petites entreprises par les industriels, compensé par l’apparition permanente de nouveaux acteurs dans des domaines périphériques nouveaux.

Les acteurs secondaires
Les grands systèmes en place sont le résultat d’investissements cumulés qui se chiffrent en dizaines de millions de dollars, alors que leurs prix de marché sont établis autour de 1000$. Le candidat à l’entrée devrait donc investir à ce même niveau pendant des années, puis vendre des dizaines de milliers d’exemplaires de son nouveau système pour en couvrir simplement les coûts de développement. Aussi n’y aura-t-il probablement plus de nouveaux entrants dans le secteur des systèmes d’exploitation, comme d’ailleurs dans celui des systèmes de traitement de texte ou celui des tableurs. En revanche, la variété infinie des domaines d'application et l'émergence constante de nouveaux domaines crée en permanence des opportunités d'entrée dans des niches particulières. Ces opportunités peuvent être saisies par des firmes déjà en place, mais également par des firmes nouvelles, le plus souvent lancées par un développeur à partir d’une idée personnelle, et financées par son effort personnel ou un peu de capital risque. Mais si les barrières à l'entrée sont en apparence faibles, et donc la tentation forte, on ne réussit qu'à condition d'arriver très tôt sur le marché avec un produit parfaitement adapté à la clientèle, accompagné d'une action commerciale importante et efficace. Beaucoup de ces petites firmes disparaîtront si l’idée qui leur a donné naissance est fausse ou non originale, moins bien réalisée ou moins bien vendue que les produits concurrents, ou reprise entre temps par un offreur majeur. D’autres survivront dans des réseaux parallèles de « shareware » où le paiement d’une redevance est laissé à l’appréciation de l’utilisateur, et où la distribution est assurée par une variété de canaux comme des annonces ou plus récemment des CD-ROM encartés dans les magazines spécialisés, ou encore les réseaux informatiques tels qu’Internet. Parmi les firmes qui réussissent, certaines offriront des produits assez originaux et d’assez bonne qualité pour intéresser les offreurs majeurs, qui chercheront alors à acquérir soit le produit soit la firme. Pour ces petites entreprises, la disparition peut être le prix du succès et l’objectif de leur créateur, qui peut alors se retirer fortune faite ou repartir dans l’aventure avec une autre idée.

Résumé et perspectives
Au total, en analysant le secteur des progiciels à l’aide des outils que nous avons forgés dans la deuxième partie de cet ouvrage, nous découvrons un macro-secteur complexe et diversifié, formé en réalité de secteurs distincts selon les fonctions des progiciels. Les facteurs qui déterminent la forme du jeu concurrentiel et la structure sectorielle qui en résulte varient de secteur à secteur selon la taille et la complexité des

ccxxxii

produits de chaque secteur. Les frontières entre secteurs sont floues et perméables, et l’ensemble du macro-secteur est traversé de mouvements continuels. A une extrémité, la taille et la complexité des grands systèmes imposent une échelle économique de production élevée qui rendent prédominants les facteurs de concentration du secteur. La dynamique des grands systémiers, analogue à celle des composants, ne laisse subsister qu’un tout petit nombre de firmes et de systèmes qui se partageant le marché de façon très inégalitaire. Nous examinerons plus en détail les modalités et les conséquences de cette situation dans le chapitre suivant. A l’autre extrémité, pour des développements d’ampleur limitée dans des domaines nouveaux, c’est la modestie des obstacles à l’entrée qui domine et qui autorise une floraison des innovateurs et des innovations. Les nouveaux domaines d’utilisation des ordinateurs, qui apparaissent en permanence, passent ainsi par une phase initiale où la structure du secteur correspondant est de type dispersé et autorise une concurrence ouverte entre des solutions alternatives. Cette phase peut donner leur chance à des acteurs très divers et faire place, à côté de firmes établies, à de petites entreprises, à des laboratoires universitaires ou à des individualités d’exception. Ces deux mondes vivent en symbiose. D’une part les innovateurs et les offreurs secondaires forment des constellations d’alliances autour des standards du marché que constituent les grands systèmes. D’autre part les grands industriels cherchent en permanence à enrichir leur offre en y incorporant les fonctions nouvelles développées par les innovateurs, ce qui peut impliquer acquisition des logiciels ou des entreprises. Le dynamisme du secteur a deux moteurs concurrentiels : le premier est, comme pour les composants, la rivalité entre le leader de chaque sous-secteur et ses challengers ; le second est l'élargissement continu du champ d'application de l'informatique, qui fait apparaître en permanence de nouveaux domaines et donc des secteurs vierges où tout nouvel entrant peut espérer avoir sa chance de devenir leader à condition d'être le premier à y entrer. Contrairement au matériel, l’évolution potentielle du logiciel ne connaît pas de frontières physiques propres. La taille des logiciels n’est bornée que par les capacités de mémoire disponibles, et leur vitesse d’exécution est celle des microprocesseurs. Le progrès des composants rend possible le progrès du logiciel, en même temps que la diversité croissante des matériels, des applications et des utilisateurs demande le développement de nouveaux logiciels. La seule limitation propre est liée aux techniques de développement et surtout d’intégration de logiciel, dont l’état actuel rend pratiquement impossible la production de systèmes dépassant un certain niveau de complexité. C’est dans ce domaine que les progrès les plus significatifs doivent être attendus, et à un degré moindre dans des domaines tels que les méthodes de représentation et de traitement des données, qui conditionnent largement les performances, ou encore la conception des relations entre l’homme et la machine. Nous aborderons ces questions dans le chapitre suivant, consacré spécifiquement aux systèmes d’exploitation.

ccxxxiii

Chapitre 12 Les systèmes d’exploitation et la standardisation
Fonctions et structure des systèmes d’exploitation. Qu’est-ce qu’un système « ouvert » ? Standards, normes, innovation et concurrence. Systèmes expérimentaux et systèmes industriels. A quoi sert Unix ? Objets et noyaux. La frontière entre matériel et logiciel. Perspectives.

Parmi les produits fabriqués « en logiciel » (les progiciels), les systèmes d’exploitation occupent une position centrale. Leurs fonctions en font un intermédiaire obligé entre les utilisateurs, les applications et le matériel. C’est en utilisant les fonctions du système que les utilisateurs accèdent aux applications et au matériel. Symétriquement, c’est en répondant aux sollicitations du système que le matériel se met au service des utilisateurs, et en se connectant au système que les applications deviennent utilisables. Le système d’exploitation incorpore donc un ensemble de conventions qui en font l’image principale de l’informatique pour chacun de ses utilisateurs ou de ses participants. Cette situation à la charnière entre les utilisateurs, les applications et le matériel fait des systèmes d’exploitation le lieu par excellence des efforts de normalisation, et l’arène ou se joue la bataille des standards. C’est pourquoi nous consacrerons une part de ce chapitre à analyser les phénomènes économiques et concurrentiels associés à la normalisation. A l’intérieur du macro-secteur du progiciel, les systèmes d’exploitation couvrent un champ assez vaste pour inclure des sous-secteurs distincts qui prennent toutes les formes structurelles que nous avons décrites dans le chapitre précédent. A une extrémité du champ, les offreurs de systèmes intégrés de qualité industrielle forment un secteur fortement concentré dont la dynamique est voisine de celle des microprocesseurs. A l’opposé opèrent des innovateurs qui forment une nébuleuse de sous-secteurs de type dispersé. Le domaine des systèmes d’exploitation permet ainsi de préciser pour un cas particulier les mécanismes généraux de structuration de l’industrie du progiciel. En termes d’évolution à moyen et long terme, les systèmes d’exploitation jouent également un rôle central. Le logiciel étant par sa plasticité le matériau privilégié de l’innovation, c’est dans les systèmes d’exploitation, ou du moins sur leurs marges, que se réalisent d’abord un grand nombre de développements concernant le futur de l’informatique. De plus, nous avons vu que la dynamique propre au macro-secteur du progiciel fait du système d’exploitation l’analogue d’un « trou noir » autour duquel gravitent et vers lequel convergent tous les développements. Enfin, toute évolution qui naît soit dans le matériel, soit les applications ou les modes d’utilisation se traduit par des évolutions des systèmes d’exploitation, qui en transmettent l’impact aux deux autres domaines.

ccxxxiv

Fonctions et structure des systèmes d’exploitation
Pour bien comprendre l’importance des systèmes d’exploitation dans l’ensemble de l’informatique, et les perspectives de leur évolution, il est nécessaire d’examiner un peu plus précisément leurs fonctions et leur structure, et de définir certains termes fréquemment utilisés.

Relation avec le matériel
Le premier rôle des systèmes est d’assurer la relation entre les autres programmes et le matériel proprement dit. Les organes physiques de l’ordinateur savent exécuter un répertoire d’opérations élémentaires commandées chacune par une instruction. Un grand nombre des fonctions exécutées de façon fréquente dans les programmes demandent l’exécution d’une séquence plus ou moins complexe d’instructions élémentaires qu’il serait fastidieux de réécrire à chaque fois, ce qui constituerait en outre une source d’erreurs. Ces séquences fonctionnelles sont donc codées une fois pour toutes et mises à la disposition des programmeurs sous la forme de sous-programmes standard. C’est ainsi qu’un programmeur peut faire appel à une fonction synthétique « sauvegarder sur disque une zone de mémoire » en ne spécifiant que la zone de mémoire concernée. Le sous-programme standard se chargera de mesurer la place nécessaire, de localiser sur disque un emplacement libre de taille suffisante, d’y positionner la tête d’écriture, de copier le contenu de la mémoire désignée, de relire cette zone du disque en la comparant à l’original afin de vérifier l’exactitude de la copie, de recommencer en cas d’erreur à un autre emplacement du disque, de signaler enfin au programme que l’opération a été correctement effectuée, en indiquant l’endroit du disque où l’information a été copiée, pour permettre de la retrouver ultérieurement. Le système d’exploitation remplace ainsi les fonctions élémentaires du matériel par des fonctions plus synthétiques et plus proches du mode de pensée des programmeurs et des utilisateurs. Cette médiation permet en particulier de définir pour une même unité physique différentes formes d’utilisation, par exemple différentes organisations de fichier. A l’inverse, il est possible de définir des fonctions qui peuvent s’exécuter indifféremment sur des unités physiquement différentes, par exemple un sous-programme d’impression dont le résultat sera temporairement orienté vers un fichier disque si l’imprimante n’est pas disponible. Un tel programme devra être complété par une fonction qui surveille en permanence l’état de l’imprimante, et qui relit automatiquement le fichier pour l’imprimer dès que l’imprimante est libérée. On voit sur cet exemple que le système d’exploitation a une autre fonction fondamentale, celle de tenir à jour en permanence en mémoire des tables qui représentent une image de la machine et de l’état de ses différents constituants, et de réagir automatiquement de façon appropriée aux changements d’état. Ces fonctions utilisent généralement un système d’interruptions par lequel chaque organe de l’ordinateur peut interrompre le traitement en cours pour signaler un événement le concernant. C’est cette image de l’ordinateur, élaborée par le système, qui est utilisée par l’ensemble des programmes.

ccxxxv

Cette démarche est utilisée en particulier pour gérer les interactions avec les utilisateurs dans les systèmes qui permettent un dialogue direct avec l’ordinateur. Les actions de l’usager, qui peuvent être menées indépendamment du déroulement du programme en cours, sont reflétées dans les tables descriptives de l’état de l’ordinateur et peuvent être signalées au programme. A l’inverse, la présentation du travail en cours est assurée par des sous-programmes qui transforment les commandes fonctionnelles du programme en ensembles de points coloriés affichés sur l’écran. Ces fonctionnalités d’entrée et de sortie définissent la forme et le style du dialogue entre la machine et ses utilisateurs. Au total, en créant une image synthétique de l’ordinateur et en offrant un répertoire de fonctions de haut niveau, le système d’exploitation définit à l’intention des programmeurs et des utilisateurs une machine abstraite ou « virtuelle » qui d’une part simplifie leur tâche et d’autre part isole dans une partie spécifique du logiciel les incidences de la variété et de l’évolution des matériels. L’évolution de la périphérie peut ainsi être dissociée de celle du système central, et à la limite modifier la composition, les fonctions et le répertoire d’instructions du matériel peut laisser inchangé le reste du système pour autant que la couche de logiciel liée au matériel soit aisément modifiable.

Contrôle de l’exécution des programmes
Un deuxième rôle des systèmes d’exploitation est d’assurer l’ordonnancement et la surveillance des tâches confiées à l’ordinateur. Au temps où les ordinateurs ne savaient exécuter qu’une chose à la fois et où leur temps était coûteux, il fallait minimiser le temps de passage d’un travail à un autre, pendant lequel l’ordinateur était immobilisé de façon improductive. Une des premières fonctions des systèmes a donc été d’automatiser l’exploitation en assurant la mise en place automatique des travaux successifs, préalablement préparés hors de la salle ordinateur. A cet effet, le système devait en particulier gérer la mise en place des supports amovibles comme les bandes magnétiques ou les papiers d’impression, charger en mémoire et lancer les programmes, et surtout être capable de traiter automatiquement les incidents éventuellement rencontrés en cours d’exécution. Pour le développeur ou l’utilisateur d’un programme, la machine n’apparaît plus comme une simple collection d’unités physiques qui se présentent en quelque sorte nues à chaque application, mais comme un ensemble organisé doté a priori de fonctionnalités globales, et contenant de nombreux éléments rémanents tels que des bibliothèques de programmes généraux sur disques et des fichiers privés appartenant aussi bien à d’autres propriétaires. C’est le système d’exploitation qui doit alors gérer ces éléments, donner à chaque utilisateur accès aux éléments qui le concernent et à eux seuls, et les protéger des actions volontaires ou involontaires des autres utilisateurs. A ces fonctions se rattachent la gestion des utilisateurs et de leurs autorisations, la comptabilité, etc. Avec la multiprogrammation, c’est à dire la possibilité pour plusieurs programmes de résider simultanément en mémoire et de se partager les ressources de la machine, le système d’exploitation reçoit en plus la charge d’affecter dynamiquement chacune de ces ressources à chacun des programmes, tout en les protégeant des interférences des autres programmes. On voit ainsi apparaître dans les systèmes tout un

ccxxxvi

ensemble de fonctions qui sont externes aux applications par nature, et non plus par commodité comme pour celles qui faisaient l’objet de la section précédente.

Assistance aux utilisateurs
Chacun des programmes destinés à être exécutés sur un ordinateur, qu’il s’agisse d’applications ou de fonctions utilitaires, vient ainsi s’insérer à l’intérieur d’une structure prédéfinie formée par le système d’exploitation. Ces programmes s’exécutent comme des sous-programmes du système d’exploitation. Ils doivent respecter un certain nombre de conventions propres à celui-ci et peuvent s’appuyer sur une bibliothèque de sous-programmes qui incarnent par ailleurs ces conventions. Pour le programmeur, le système se présente comme une collection de fonctions qu’il peut mettre en œuvre à travers des conventions d’appel généralement appelées des API pour « Application Programming Interface ». Ces API regroupent les instructions qui donnent accès à toutes les fonctions du système utilisables pour l’écriture d’applications, organisées en grandes familles selon le domaine couvert : gestion de la mémoire, gestion de l’impression, gestion des fichiers, communication entre programmes, communications avec l’utilisateur, etc. Elles forment un langage doté de sa syntaxe et de sa sémantique, qui constitue une façon naturelle de représenter des fonctions d’intérêt général, même si en toute rigueur elles ne se rattachent pas aux fonctions classiques d’un système d’exploitation au sens strict. C’est ce langage que produisent et manipulent les différents programmes d’aide au développement tels que les traducteurs de langages de haut niveau (Cobol, Fortran, Pascal, C, …). Du point de vue de l’utilisateur, les API définissent les modalités de sa relation avec l’ensemble du système. En effet, toutes les applications qui utilisent l’API standard de dialogue avec l’utilisateur mettront en œuvre les mêmes constructions et conventions de présentation (fenêtres, boîtes de dialogue, menus, …) et répondront aux mêmes actions comme cliquer avec la souris, mettre une zone en surbrillance, etc. De plus, le système d’exploitation fournit directement à l’utilisateur des fonctions générales comme la gestion de fichiers, la gestion de la configuration, une variété de transferts d’information, l’utilisation de l’horloge, etc.

Variété et structure
Bien que répondant en gros à la description qui précède, les systèmes d’exploitation existants sont différents selon leur origine. Les constructeurs généralistes ont tous développé pour leurs matériels des systèmes d’exploitation propres, et souvent plusieurs selon la famille de matériel et le type d’utilisation. Certains utilisateurs, tels les grands laboratoires et les universités, ont également écrit des systèmes d’exploitation, que ce soit pour satisfaire leurs besoins propres ou dans le cadre de projets de recherche en informatique. Enfin, plus récemment, des entreprises indépendantes comme Digital Research ou Microsoft ont mis sur le marché des systèmes d’exploitation pour micro-ordinateurs.

ccxxxvii

Les limites externes de ces systèmes, c’est à dire leur contenu fonctionnel, varient de système à système. Chacun d’entre eux est d’ailleurs distribué sous la forme d’un noyau plus ou moins riche qui constitue le système d’exploitation proprement dit, et d’une collection de programmes utilitaires indépendants dont certains peuvent être rangés parmi les applications. Où s’arrête par exemple la gestion des données ? Doitelle se borner à la gestion des fichiers en tant qu’entités globales opaques, permettre un accès élémentaire aux enregistrements individuels qui les constituent ou aller jusqu’à la gestion de structures complexes de bases de données ? De même, quelles fonctions de gestion des textes, des images et des sons doivent figurer respectivement dans la base du système, dans les utilitaires ou dans les programmes d’application ? Pas plus la frontière entre système d’exploitation et programmes utilitaires que celle entre programmes utilitaires et applications n’est définie de façon précise. Elles ne résultent que de la décision des auteurs de systèmes d’inclure ou non telle ou telle fonction dans leurs produits. Par exemple, le système Windows contient deux programmes simples de traitement de textes et un compilateur de langage Basic, alors que les traitements de texte plus complexes comme Word et tous les autres traducteurs de langage sont vendus séparément en tant qu’applications. Pour les fonctions qui sont présentes dans plusieurs systèmes, elles sont réalisées de façon différente, et en particulier leurs conventions d’appel par les programmes utilisateurs (les API) sont différentes. Un programme écrit pour un système d’exploitation ne peut donc pas s’exécuter sur un autre, même si les deux systèmes résident sur la même machine, et a fortiori sur des machines différentes. De plus, le contenu fonctionnel des systèmes, la répartition des fonctions entre les différentes couches, voire la forme des API, évoluent dans le temps pour un même système par suite de son enrichissement progressif, si bien que les programmes d’application doivent parfois être modifiés pour continuer à fonctionner sur les nouvelles versions des systèmes. La situation est tout aussi variée en ce qui concerne la structure interne. Un système d’exploitation est un édifice complexe dont la construction exige une organisation interne rigoureuse, qui est nécessaire pour permettre la répartition du travail de développement, l’intégration, les tests et l’évolution ultérieure. L’approche traditionnelle est de découper le système en grandes fonctions correspondant aux divers domaines des API externes, et de décomposer chaque fonction en couches selon leur proximité relative du matériel et de l’utilisateur Chaque couche ne peut communiquer qu’avec la couche immédiatement inférieure, c’est à dire plus proche du matériel, et la couche immédiatement supérieure, c’est à dire plus proche de l’utilisateur. Les couches les plus externes incarnent donc explicitement les API et les conventions de communication avec l’extérieur, tandis que les couches les plus profondes sont seules en relation directe avec le matériel, et se fusionnent en un noyau de fonctions de base utilisé par les couches les plus basses de tous les sous-systèmes. Un exemple classique est celui des systèmes de communication (SNA défini par IBM en 1974, puis le modèle normalisé ISO), qui comportent tous deux sept couches. Mais si on excepte les rares cas où le système respecte une norme externe, la définition des sous-systèmes et de leurs couches est de la responsabilité du producteur

ccxxxviii

du système et répond à ses propres conceptions et à ses propres objectifs de commodité. Cette structuration implique également des arbitrages entre performances et pureté structurelle. En effet, si la rigueur commande de respecter scrupuleusement les contraintes de construction, la performance demande souvent de les transgresser, par exemple en court-circuitant des couches intermédiaires dans un sous-système ou en laissant les sous-systèmes communiquer entre eux aux niveaux intermédiaires. Dans la réalité, non seulement la structure du système est propre à chaque offreur, mais elle reste complexe et embrouillée, en permettant plus ou moins à chaque module fonctionnel d’utiliser tous les autres. Loin d’être un édifice harmonieux, le système forme un bloc opaque pour tout autre que ses concepteurs, et qui reste difficile à intégrer et à faire évoluer, même pour ces derniers.

Notion de « système ouvert »
Il est tentant de profiter de la place centrale qu’occupe le système d’exploitation entre le matériel et ses divers utilisateurs pour lui faire jouer un rôle fédérateur qui permettrait à tous les programmes d’application de fonctionner sur tous les matériels. Il suffirait pour cela que tous les auteurs de systèmes s’entendent sur une définition commune des API, c’est à dire sur une standardisation de la machine virtuelle que définissent chacun des systèmes. L’ensemble des primitives de programmation utilisées par les développeurs deviendrait alors indépendant du matériel, et il reviendrait aux systèmes d’exploitation de réaliser cet ensemble commun de fonctions de façon appropriée aux spécificités des composants matériels. On profiterait ainsi de la plasticité du logiciel pour lui faire absorber les différences entre matériels. Cette ambition est celle des promoteurs des systèmes dits « ouverts », dont les buts principaux sont de permettre la « portabilité » et l’« interopérabilité » entre systèmes différents. La notion de portabilité concerne non seulement les programmes, pour lesquels elle signifie qu’ils peuvent être exécutés indifféremment par plusieurs systèmes, mais aussi les informations, qui doivent pouvoir être écrites par un quelconque des systèmes et lues par tous les autres, ainsi que les compétences nécessaires aux utilisateurs, qui ne doivent pas différer selon le système qu’ils utilisent. La notion d’interopérabilité signifie que deux systèmes différents doivent pouvoir communiquer entre eux en s’échangeant les informations nécessaires pour fonctionner ensemble de façon harmonieuse. En toute rigueur, l’approche de standardisation des API décrite ci-dessus exigerait de définir de façon rigoureuse l’emplacement de la frontière entre le système d’exploitation et les applications. Nous avons vu qu’une telle définition serait largement arbitraire et perpétuellement remise en question. Une solution est d’appliquer la même démarche de normalisation à l’intérieur même du système, en définissant une structure normalisée et des interfaces internes normalisées pour les principales fonctions constitutives. Un système « ouvert » est donc également un système modulaire conforme à une structure standard. Ceci rend théoriquement possible le remplacement d’un sous-système standard par un autre, que ce soit dans le cadre de l’évolution normale du système ou dans celui d’une concurrence entre offreurs qui porterait sur chacun des sous-systèmes.

ccxxxix

On devine que la mise en œuvre du concept de systèmes ouverts porte en germe des conséquences potentiellement importantes pour la structure de l’industrie informatique. Rendre les applications et les progiciels indépendants du matériel, et permettre à tous les matériels de s’intégrer dans tous les systèmes, achève de dissocier l’industrie en secteurs spécialisés par nature d’offre et type d’unité, et accélère le passage d’une industrie de type traditionnel dominée par les généralistes au type PC dominé par les spécialistes. Rendre tout élément compatible avec tous les autres élargit le marché potentiel de chacun et favorise la dispersion de chaque secteur. Enfin, faire éclater le système d’exploitation en composants standard donc développables indépendamment peut conduire à l’éclatement de ce secteur et à un affaiblissement des forces de concentration. Donc, même si la question de la normalisation se concentre dans le domaine du progiciel, ses enjeux touchent l’ensemble de l’industrie informatique. C’est pourquoi nous allons consacrer une partie de ce chapitre à l’analyse des mécanismes et les aspects économiques de la normalisation.

Standardisation, innovation et concurrence
Normes et standards
Précisons d’abord quelques définitions. Retenons, comme IBM pour le système 360, le terme d’« architecture » pour désigner un ensemble de conventions destinées à permettre à des produits développés indépendamment de fonctionner ensemble. Une architecture peut être interne à une firme productrice ou concerner les relations entre la firme et les utilisateurs de ses produits. Par exemple, l’architecture 360 était l’ensemble des conventions permettant aux utilisateurs de développer des programmes exécutables sur les matériels de cette gamme IBM. Les architectures sont généralement définies unilatéralement par les producteurs. Vis à vis des tiers, elles rendent possible l’utilisation des produits et le raccordement de produits complémentaires. En interne, elles permettent la distribution du travail entre les unités de l’entreprise et constituent des standards internes pour les développeurs. Un standard est un ensemble de conventions architecturales auxquelles se conforment des firmes productrices indépendantes, agissant chacune dans son propre intérêt. En définissant des standards, les acteurs dominants cherchent à favoriser l’existence d’offres complémentaires qui rendront leurs produits plus attractifs. Celui des acteurs secondaires peut être de profiter du leadership des acteurs dominants pour faciliter la vente d’offres complémentaires, mais aussi d’offrir des produits directement concurrents conformes à l’architecture de l’acteur dominant. La conformité à un standard commun permet à des produits développés indépendamment dans des domaines différents de fonctionner ensemble, par exemple les périphériques et les unités de calcul, ou encore les microprocesseurs et les systèmes d’exploitation. Les standards servent en particulier de base pour des développements nouveaux, mais peuvent aussi servir de spécification commune à la réalisation de produits concurrents.

ccxl

L’existence d’un standard suppose une instance de définition de l'architecture, qui peut être simplement une firme dominante ou un organisme formé à cet effet par les firmes intéressées. Le respect d’un standard est une décision prise librement et selon son propre intérêt par chacune des firmes productrices. Un standard devient une norme quand il est soutenu par une autorité distincte des entreprises concernées, qui lui confère un caractère obligatoire en disposant de moyens de pression pour la faire respecter. Les normes sont généralement promulguées au nom de l’intérêt de l’utilisateur afin d’assurer à la fois sa liberté de choix et la pérennité de ses investissements.

Standardisation et concurrence
Les produits ou services qui composent chacun des secteurs particuliers, et qui sont par hypothèse substituables entre eux dans chaque secteur, peuvent être soumis à des standards ou des normes. Insistons sur le fait évident que l’activité de production de standards et l’activité de production de produits conformes au standard sont deux activités distinctes. Les entreprises ne gagnent pas d'argent en vendant des standards, mais en vendant des produits qui peuvent être plus ou moins conformes aux standards, ou au contraire devenir la définition des standards si le marché les plébiscite. Même dans les secteurs soumis à une forte normalisation, les différents offreurs sont en concurrence et cherchent par définition à se différencier les uns des autres pour obtenir un avantage concurrentiel qui leur attire la faveur du marché. Or se conformer à des standards élimine des possibilités de différenciation. Etant donné que les standards portent le plus souvent sur les spécifications fonctionnelles externes des produits, la normalisation déplace le champ de la concurrence vers les prix et les modalités de réalisation, et non plus les fonctionnalités elles-mêmes ou les modalités de leur utilisation. Tout progrès étant le fruit de la concurrence, la normalisation tend donc à ralentir voire figer le progrès dans la définition des fonctions qu’elle concerne, et à l’orienter vers la recherche de meilleures performances et d’une meilleure fiabilité au moindre coût. On voit que le moment où intervient la standardisation dans la vie d’un produit revêt une importance cruciale. Trop tardive, elle laisse de la place pour le gaspillage en permettant les expérimentations inutiles et les innovations futiles, et elle induit un coût d’incompatibilité entre produits tant pour les offreurs que pour les utilisateurs. A l’inverse, une standardisation – et a fortiori une normalisation – prématurée a un effet stérilisant pour le secteur. Elle peut conduire à des produits non viables dans la mesure où tous les besoins n’ont pas été correctement pris en considération, et où les solutions alternatives n’ont pas été suffisamment explorées. Dans le cas de normes définies à l’initiative des utilisateurs ou de leurs représentants, les implications des différentes alternatives, en termes pratiques de coût, de performances ou de compatibilité avec d’autres domaines ou avec des développements à venir, sont souvent insuffisamment analysées. Dans des domaines où l’évolution technologique est rapide et où les besoins du marché ne sont pas connus avec précision, une période d'expérimentation concurrentielle est un préalable nécessaire à l’établissement de

ccxli

standards. Le meilleur standard est celui qui se dégage spontanément de l’interaction entre les offreurs et le marché à l’issue de cette période. L‘existence d’’un standard a plusieurs effets sur le ou les secteurs auxquels il s’applique. Premièrement, la standardisation diminue les obstacles à l'entrée en dispensant les candidats d’une partie des investissements nécessaires à la définition d’un nouveau produit. Deuxièmement, elle facilite pour les clients le changement de fournisseur en diminuant les coûts de transfert, et avive donc la concurrence bien qu’elle ne puisse plus porter que sur certains points comme les performances, les prix et la commodité d’utilisation. Ces deux effets concourent à accentuer le taux de dispersion du secteur, et donc tendent à en diminuer la profitabilité potentielle et à augmenter l'instabilité des positions des concurrents. Les gagnants sont les clients, les candidats à l'entrée et dans une certaine mesure les offreurs secondaires qui voient les avantages concurrentiels des leaders s’effriter. Les perdants sont les leaders établis du secteur. Dans le cas favorable où ce sont leurs produits qui ont servi de base aux normes, les avantages concurrentiels qu’ils tiraient de leur définition même disparaissent, et ils doivent pour conserver leur position rechercher d'autres avantages reposant sur des économies d'échelle, des technologies protégées ou un meilleur savoir-faire. Si les normes retenues sont différentes des spécifications de leurs produits, ils sont face à un choix de toute façon coûteux : ou bien se conformer aux normes, et pour cela supporter en plus les investissements de développement de nouveaux produits, ou bien entrer en concurrence avec les produits normalisés, tout en tentant de faire évoluer les standards dans un sens qui leur soit favorable. Insistons sur le fait qu’un offreur dominant n’a intérêt à ce que ses produits deviennent des standards que s’il dispose d’autres avantages concurrentiels suffisants pour conserver sa part de marché dans le secteur soumis au standard malgré l’abaissement des obstacles à l’entrée. Autrement, l’effet de la standardisation est de lui susciter des concurrents plus nombreux et plus agressifs, tout en augmentant le pouvoir relatif des clients, deux facteurs qui ne peuvent que réduire à la fois ses marges et sa part de marché. A l’intérieur des entreprises, les techniciens peuvent rechercher une satisfaction d’amour-propre à travers la reconnaissance de leurs produits sous forme de standard ou de norme ; les stratèges sont beaucoup plus circonspects et évitent de solliciter ce cadeau empoisonné.

La production des standards
Dans une industrie comme l’informatique, des standards se développent naturellement sans que l’action d’une autorité extérieure soit nécessaire. Tout producteur adopte implicitement pour ses produits une ou des architectures qui définissent au minimum les relations entre fournisseur et client, et simultanément permettent à d’autres fournisseurs d’offrir des produits complémentaires dont l’existence rendra l’offre plus attractive pour le marché. Les producteurs d’offres complexes et variées sont également amenés à définir des architectures internes qui ont pour effet de subdiviser leur offre en produits distincts afin de pouvoir les développer et les gérer indépendamment les uns des autres. Ces produits peuvent être aussi bien des

ccxlii

composants logiciels distincts dans un système que des unités matérielles distinctes dans une machine. Si ces éléments, entre lesquels l’architecture définit des interfaces standardisés, peuvent être non seulement produits, mais aussi commercialisés séparément, la définition d’une architecture permet à des spécialistes d’entrer en concurrence avec le producteur principal pour chacun des composants, tout en étant assuré que ces composants s’intégreront efficacement dans l’offre globale. Pour ces offreurs de « compatibles », le marché potentiel est d’autant plus grand que l’architecture à laquelle ils se réfèrent est plus répandue. En résolvant le problème de développement que lui pose la complexité de son offre, le fournisseur de produits complexes crée donc les conditions de l’éclatement de son secteur en sous-secteurs spécialisés. L’architecture définie par ce fournisseur devient alors un standard pour l’ensemble de ces soussecteurs. C’est ce qui s’est passé par exemple au début des années 70 après qu’IBM a introduit sur le marché l’architecture 360. Nous avons vu que les secteurs concentrés se caractérisent par une grande inégalité des parts de marché. Dans un secteur structurellement concentré, c’est à dire qui n’est pas susceptible d’éclater, le produit de l’offreur dominant constitue un standard de fait par sa diffusion majoritaire sur le marché, et aussi par l’existence de produits compatibles ou « clones ». Dans un tel secteur, il serait fort peu probable que la firme dominante, avec ses 60 à 80% du marché, accepte de négocier avec ses challengers pour établir une norme commune qui ne serait pas en tout point conforme aux spécifications de ses propres produits. Une standardisation consensuelle est donc pratiquement exclue. En revanche, les standards de fait définis unilatéralement par l’offreur dominant de chaque secteur concentré s’appliquent aussi aux secteurs connexes qui utilisent leurs produits. Des firmes appartenant à des secteurs différents et qui ne sont donc pas en concurrence directe pourraient avoir intérêt à se concerter pour établir des standards communs. Mais Porter nous a enseigné (voir Chapitre 6) que les secteurs dispersés ont peu d’influence sur les secteurs concentrés. Il est donc probable que les offreurs dominants des secteurs concentrés imposeront unilatéralement leurs standards aux secteurs connexes s’ils sont dispersés, et que la concertation en vue de l’établissement de normes communes se limitera aux leaders des secteurs concentrés. C’est ainsi que Intel impose ses standards aux assembleurs de matériels, mais négocie des standards communs avec Microsoft. La position privilégiée de l’offreur dominant dans chaque secteur concentré lui impose en retour des responsabilités vis-à-vis des standards qu’il a lui-même créés. D’une part, l’existence du standard favorise la concurrence de clones, et il serait quelquefois tentant pour le leader d’utiliser ses ressources de développement pour s’écarter du standard et acquérir des avantages concurrentiels pour tenter de rendre les clones obsolètes. Mais l’offreur dominant s’aliénerait alors les utilisateurs et les offreurs complémentaires, et offrirait ainsi un autre avantage concurrentiel aux offreurs de clones, celui de la continuité. L’offreur dominant est donc condamné à respecter le standard qu’il a créé, et à rechercher son avantage concurrentiel dans la réalisation des produits qui dérivent de ce standard. Dans le passé, ce phénomène a conduit IBM à abandonner son projet FS en 1975 (voir Chapitre 2). De nos jours, c’est ce qui contraint toujours IBM à maintenir les architectures 360/370 et MVS même dans ses futurs

ccxliii

systèmes multiprocesseurs à base de PowerPC, et Intel à conserver l’architecture 80x86 dans les Pentium. Les secteurs dispersés sont soumis aux standards pertinents des secteurs concentrés connexes. Une éventuelle demande d’autres standards, qu’ils soient propres au secteur ou qu’ils concernent l’interconnexion entre produits de secteurs dispersés différents, ne peut être satisfaite que par une concertation explicite entre firmes. Cette demande viendra d’ailleurs principalement des offreurs secondaires et des candidats à l’entrée dans le secteur. La définition de standards par consensus résulte d'une négociation aboutissant à un accord entre partenaires indépendants, et qui conservent leur indépendance après que le standard a été défini. Aucun comité ne peut contraindre un de ses membres à agir contre ses intérêts. Chaque participant peut se retirer de la discussion à tout moment, et conserve la liberté de ne pas se conformer aux standards qui en résultent. Or chacun arrive à la table de négociation avec sa propre conception de ses intérêts. Si la discussion recherche le consensus, elle progressera trop lentement pour les participants pressés et les compromis risqueront d’aboutir à un résultat médiocre qui en détournera les plus exigeants. Si par contre elle vise un résultat rapide, elle devra sans doute laisser de côté un certain nombre d’objections et d’expérimentations, ce qui conduira probablement les firmes les plus sérieuses à s’en désolidariser. Dans un cas comme dans l’autre, le processus peut conduire à la formation de groupes concurrents défendant des standards différents. La voie du consensus est semée d’embûches et son issue est incertaine. Même un accord unanime ne garantit pas la qualité du standard qui en résulte, dont l’adoption reste soumise à la décision du marché. Une autorité extérieure à la collectivité des fournisseurs peut intervenir pour forcer l’adoption d’un standard ou promulguer une norme. L’existence de standards et leur respect, indépendamment même de leur qualité, est bien évidemment dans l’intérêt des clients. La concurrence entre offreurs en est avivée, ce qui pousse à des améliorations des produits et à une réduction de leurs coûts, l’éventail des choix de produits et de fournisseurs en est élargi, et les investissements sont mieux protégés. Les clients peuvent former des groupes de pression pour accélérer la normalisation ou l’orienter dans un sens qu’ils considèrent comme favorable, mais il semble que leur action n’a jamais eu pour résultat une normalisation trop hâtive, et qu’ils comprennent implicitement le besoin d’une période d’expérimentation concurrentielle préalable. Il arrive par contre que des normes soient promulguées par une autorité agissant au nom de l’intérêt des utilisateurs, ou se réclamant d’eux pour d’autres motifs de politique industrielle par exemple. Si l’organisme de normalisation ne fait qu’accélérer ou faciliter le processus naturel de standardisation, et entériner ses résultats, son action a toutes chances d’être bénéfique. Elle peut devenir néfaste si elle aboutit à une standardisation prématurée ou si elle a pour objectif de s’opposer à des standards de fait. Un exemple du premier cas est celui de Cobol, où le premier langage venu a été promulgué comme norme et adopté de façon générale faute d’alternative, tarissant tout développement en matière de programmation de gestion et condamnant les programmeurs à utiliser éternellement un outil rigide et mal commode. Dans le deuxième cas, on trouve les cas où la normalisation est utilisée comme une arme de

ccxliv

politique industrielle pour s’opposer à un standard « naturel » de fait et donc lutter contre les firmes qui représentent ce standard. Un exemple classique est celui du modèle Osi pour l’architecture de réseaux, conçu dès le départ comme une alternative au modèle SNA d’IBM, mais qui n’a jamais pu recueillir l’adhésion totale de l’industrie et est en passe d’être supplanté par d’autres architectures plus performantes et plus en phase avec les besoins actuels. Les efforts de normalisation autour d’Unix, dont nous allons parler dans la suite, relèvent en grande partie de cette normalisation « de combat ». Fort heureusement, alors qu’un standard est par définition respecté par une majorité, une norme peut ne pas être respectée ou rester minoritaire. Si une norme officielle ne donne pas satisfaction, les offreurs continueront à rechercher des solutions alternatives que le marché pourra consacrer comme standards indépendamment de la norme. La formation de standards est un processus évolutif. Les standards prématurés ou non satisfaisants seront toujours contestés par des développements concurrents qui seront autant de candidats à la standardisation. Même des standards largement suivis seront un jour périmés par l’évolution des technologies et des besoins, et donc à leur tour contestés. Certains offreurs adopteront des stratégies de différenciation en s’écartant des standards majoritaires, et si leurs produits reçoivent un accueil suffisamment favorable, ils pourront devenir à leur tour des candidats à la standardisation. Bref, tant que nous ne serons pas dans un monde totalitaire normalisé, les standards n’arrêteront pas d’évoluer et il existera toujours des standards concurrents entre eux.

L’évolution des systèmes et la place d’Unix
Un système expérimental
Depuis leur origine vers la fin des années 50, les systèmes d’exploitation ont été considérés comme associés à chacun des matériels. Certains types d’ordinateurs ont même été dotés de plusieurs systèmes d’exploitation, soit pour des utilisations différentes comme le traitement conventionnel, le temps partagé ou le traitement en temps réel, soit pour des familles de configurations différentes. Dans le contexte d’offres intégrées qui est celui de l’informatique jusqu’en 1981, les systèmes d’exploitation sont produits par les constructeurs généralistes et commercialisés comme partie intégrante du matériel. Il n’existe pas d’offreurs indépendants de systèmes d’exploitation, et l’idée même d’un système universel commun à des matériels différents ne s’est pas fait jour. Certaines universités ou certains laboratoires ont néanmoins développé leurs propres systèmes comme support d'enseignement et de recherche informatiques. C’est en particulier le cas du système Unix des Laboratoires Bell de ATT, qui se propage dans plusieurs universités américaines où il constitue un terrain d'études et d'expérimentation, en même temps que la base de la formation des informaticiens. Unix n’est au départ

ccxlv

qu’une adaptation aux mini-ordinateurs du système Multics de General Electric . Son succès est dû pour une part à ses fonctions bien adaptées aux besoins des universités, et surtout à sa disponibilité sous forme source dans un langage de haut niveau, le langage C, à partir de 1973. Unix se prête donc bien à l’enseignement de la structure d’un système d’exploitation et à l’expérimentation de fonctions et de méthodes de réalisation nouvelles.
55

Pour fonctionner efficacement en tant que système de laboratoire commun dans un milieu coopératif de type universitaire, Unix doit se conformer à un ensemble de conventions qui permette le développement et l’expérimentation de modules nouveaux ainsi que leur circulation entre les différents laboratoires, et facilite la communication grâce à un langage et à des références communes. Ces conventions forment une base solide de standards sur laquelle se greffent de nombreuses extensions ou réalisations alternatives, donnant progressivement naissance à des versions concurrentes du système.

La base d’un système standard ?
Parallèlement, le début des années 80 voit l’émergence des stations de travail scientifiques. Quelques jeunes entreprises voient dans Unix un système à la fois déjà familier aux utilisateurs de ce marché, disponible et non protégé par un constructeur, conçu pour permettre une évolution facile et bénéficiant de la dynamique d'innovation des centres de recherche les plus actifs. En quelque sorte, l’adopter permet aux constructeurs de se reposer sur une source indépendante de logiciel de base pour concentrer leurs efforts et leurs investissements sur le matériel. Unix devient donc le système d’exploitation des stations de travail les plus innovantes, et la plupart des grands constructeurs suivront en mettant à leur catalogue des dérivés d’Unix à côté de leurs systèmes propres. Commence alors un double conflit qui domine toute l’histoire d’Unix et persiste encore aujourd’hui, et qui rend les considérations techniques inséparables de considérations de politique industrielle. Premièrement, chacun des offreurs industriels doit dans ses systèmes trouver le meilleur équilibre entre conformité aux standards et différenciation concurrentielle. Deuxièmement, au niveau global, les exigences d’un standard industriel sont souvent différentes de celles d’une plate-forme de recherche et développement. Enfin, le processus de standardisation vise ouvertement à définir une norme qui serait non seulement applicable à Unix en tant qu’un système parmi d’autres, mais qui s’appliquerait à tous les systèmes et ferait d’Unix le standard des systèmes d’exploitation. Cette volonté a priori d’établir une norme indépendante apparaît dès 1981 avec la création de Posix. Ces ambiguïtés, ainsi que le nombre et la variété des acteurs impliqués, entravent la progression vers des standards. De plus, ceux des acteurs majeurs qui possèdent un avantage concurrentiel concernant Unix hésitent entre l’exploiter et y renoncer en s’associant pleinement à la standardisation. C’est ainsi qu’en 1983, ATT, qui jusque là avait permis une diffusion libérale d’Unix, réagit à sa vogue soudain en demandant des redevances importantes. Les autres constructeurs intéressés créent alors en 1984
55

voir Chapitre 3

ccxlvi

l’organisation XOpen afin de promouvoir un système réellement ouvert et facilement accessible. Des réactions du même type se produiront en 1988 avec la création de l’OSF pour contrer une alliance entre Sun et ATT annoncée en 1987, et en 1994 par la création du consortium Cose lorsque Microsoft mettra sur le marché son système Windows NT qui intègre un grand nombre de caractéristiques d’Unix et vient le concurrencer sur son terrain traditionnel. A chaque fois que l’un des acteurs prend une initiative qui pourrait faire de lui l’acteur dominant, les autres parties intéressées font de la standardisation un instrument de lutte explicite en créant des organes de normalisation « de combat ». Poussés à la fois par l’absence d’un consensus sur les standards, par le besoin concurrentiel de se différencier et par la qualité inégale des réalisations issues des laboratoires universitaires, tous les constructeurs développent leur propre version d’Unix qu’ils composent d'un assemblage particulier d'éléments standard et d'éléments originaux. Entre les réalisations universitaires, les systèmes offerts par les constructeurs et ceux proposés par des firmes spécialisées comme Santa Cruz Operation, on assiste à une floraison de systèmes se réclamant tous d’Unix mais tous plus ou moins différents, dont le nombre est estimé à environ une centaine. Cette diversité est d’ailleurs favorisée par le fait que le nom Unix était encore récemment propriété d’ATT et ne pouvait pas être utilisé par d’autres firmes. Puisque les développeurs de systèmes Unix devaient en tout état de cause les appeler d’un autre nom, ils pouvaient aussi bien en faire autre chose... Le monde Unix est donc tout le contraire d'un monde standardisé. C'est au contraire là que la concurrence spécifique aux systèmes d'exploitation est la plus intense. Dans le monde traditionnel, l’idée même d’un système d’exploitation commun à des matériels de fournisseurs différents est étrangère, et la concurrence sur les systèmes s’éclipse derrière la concurrence sur les matériels. Dans le monde du PC, toute l'industrie s'est rangée derrière MS-DOS et maintenant Windows, et la concurrence qui subsiste dans le secteur des systèmes d’exploitation a pris la forme asymétrique caractéristique des secteurs concentrés. La standardisation d’Unix est un processus qui conduit au mieux à un espoir, pas un état de fait. C’est précisément parce que le besoin de standards y est criant et qu'aucun offreur ne domine le marché que le monde Unix consacre tant d'efforts à la standardisation. Mais, l'innovation étant l'autre face de la concurrence, le monde Unix est le foyer d'innovation privilégié pour le domaine des systèmes d'exploitation, où contribuent non seulement les industriels spécialisés ou non, mais les laboratoires de recherche universitaires ou autres. De plus, le niveau de puissance de la plupart des systèmes Unix empiète à la fois sur le haut de gamme des ordinateurs personnels et sur la partie basse de la gamme des grands systèmes. A la charnière de l'informatique traditionnelle et de la microinformatique, le laboratoire Unix est idéal pour expérimenter des technologies qui permettront la symbiose de ces deux mondes, ainsi que pour transférer de l’un vers l’autre des technologies existantes. Par exemple, Unix ne brillait à l’origine ni par sa convivialité, ni par ses performances, ni par sa richesse en fonctions d’informatique de gestion, ni par la variété des matériels supportés. Autrement dit, le choix d’Unix ne reposait nullement sur une supériorité dans la satisfaction des utilisateurs autres que les universitaires. En revanche, sa position de plate-forme expérimentale a fait que de très nombreuses extensions et

ccxlvii

améliorations ont été développées dans ces domaines et dans d’autres. Il existe aujourd’hui dans le monde Unix tous les ingrédients nécessaires pour composer sur cette base un système à la fois plus convivial que celui d’Apple (par exemple NextStep) et plus riche en fonctions de gestion que les systèmes IBM pour grands systèmes. C’est dans le monde Unix que prennent naissance les produits d’avant-garde qui permettront le remplacement des grands systèmes par des complexes de systèmes ou de microprocesseurs issus des micros, et donc la fusion des trois mondes traditionnel, micro et Unix en un seul dont la structure industrielle et les paramètres prixperformances seront ceux de la micro-informatique. Le foisonnement de solutions alternatives qui caractérise le monde Unix se double d’une volonté de standardisation intense et obstinée, qui complète la confrontation concurrentielle et le choix spontané du marché, en l’accompagnant d’une comparaison rationnelle entre les diverses solutions proposées pour chacun des problèmes techniques. La conjonction de l’effort d’innovation et de cette volonté de standardisation contribue à faire de la mouvance Unix le creuset où se forment les standards qui s’appliqueront demain à toute l’industrie du progiciel.

Des intérêts différents
Il est naturel que dans ce monde foisonnant situé au confluent des intérêts des utilisateurs, des développeurs d’applications, des producteurs de matériel et du monde de la recherche, et qui concerne au premier chef les producteurs de progiciels, la volonté de standardisation se heurte à des conflits d’intérêt entre les acteurs. Les utilisateurs, et les firmes spécialisées dans le développement d’applications, souhaitent disposer d’une base robuste et durable pour le développement d’applications. Pour cela, ils demandent des standards couvrant tous les aspects des systèmes, et qui soient incarnés dans des produits de qualité industrielle. En même temps, ils souhaitent que ces standards puissent évoluer en incorporant toutes les nouveautés, en particulier celles qui sont issues de la recherche basée sur Unix, sans compromettre la robustesse, la généralité, la fiabilité ou la facilité d’utilisation des systèmes qu’ils utilisent. Or, comme nous l’avons vu, un système de qualité industrielle ne peut être produit que par une organisation industrielle, et les investissements nécessaires ne peuvent être consentis que dans un espoir de profit. Un logiciel de qualité industrielle ne peut donc être que payant. De plus, la loi à laquelle sont soumises les firmes industrielles est celle de la concurrence, qui les contraint à chercher à se différencier. Dans un secteur aussi dynamique que celui des systèmes d’exploitation, il est hautement improbable que toutes les firmes en concurrence renoncent à se différencier par les fonctionnalités de leurs produits pour se limiter à une concurrence par les performances, les prix et la qualité. Une firme industrielle ne peut pas se fier aveuglément à un standard extérieur. Tant qu’il restera plusieurs firmes en concurrence dans les systèmes d’exploitation, elles conserveront leur sens critique vis à vis des standards externes, en les respectant dans la mesure où c’est leur intérêt, en s’en affranchissant dans le cas contraire, et à tout le moins en cherchant à offrir mieux que ce qui est prescrit par les standards. On peut

ccxlviii

prédire qu’il n’existera jamais de système alliant une conformité absolue à un standard extérieur avec une qualité industrielle incluant le support de toutes les configurations, une fiabilité rigoureuse et une bonne documentation, une garantie de maintenance et d’évolution, etc. De leur côté, le monde de la recherche et les autres innovateurs demandent une base commune de développement et d'échange qui soit indépendante des systèmes « commerciaux » que proposent les industriels. Parmi les qualités des produits possibles pour former cette base, ils privilégient la modularité et la clarté de la structure interne plutôt que la performance et la fiabilité. Chacun d’entre eux demande à la fois des standards généraux pour ce qui est hors de son domaine de recherche et une totale liberté à l’intérieur de ce domaine. Puisque la raison d’être de ces équipes est d’enrichir le système de base, il existera toujours plusieurs versions du système de référence Unix, dont chacune sera en avance sur certains points par rapport à tous les systèmes industriels, en ce sens qu’elle contiendra des fonctions absentes de ces derniers. Les chercheurs préféreront toujours ne pas se lier à un industriel, et donc utiliser un système de référence distinct, au point que si d’aventure un industriel adoptait une version d'Unix comme offre commerciale, le monde de la recherche s'en détournerait pour adopter une autre référence. Unix et les systèmes industriels jouent ainsi des rôles définitivement différents et coexisteront toujours. Le premier sert de cadre à une activité de R&D indépendante ou universitaire qui restera toujours un facteur fondamental de progrès. Les seconds visent à satisfaire les besoins concrets du marché tout en tirant parti, de façon différenciée et sélective, des progrès réalisés dans le monde Unix. Entre d’une part le monde Unix, à la fois système de référence pour l’innovation et idéal inaccessible pour la normalisation, et d’autre part le monde prosaïque des systèmes industriels concurrents, s’établit un équilibre dynamique mouvant qui a toutes chances de se perpétuer tant que demeurera un potentiel de progrès dans le logiciel, c’est à dire aussi loin que l’on puisse voir. Du côté de l’offre industrielle, il convient de distinguer entre l’utilisation de la marque Unix comme bannière promotionnelle et d’Unix comme véritable système. Les industriels qui se réclament aujourd’hui d’Unix le font parce que c’est une façon de se différencier, et justement parce que ce n’est pas le standard de fait. Si Unix devient un jour un véritable standard respecté par la majorité des offreurs, il deviendra comme tous les standards un facteur de dispersion du secteur et de limitation de la profitabilité, et les industriels devront chercher d’autres voies de différenciation. Autrement dit et de façon apparemment paradoxale, pousser à la normalisation n’est dans l’intérêt des offreurs établis que tant que Unix est minoritaire sur le marché et reste de ce fait un facteur de différenciation.

Le futur immédiat
Jusqu’à présent, le monde Unix est resté séparé du reste de l’informatique car s’appuyant essentiellement sur des familles de processeurs différents rangés sous la bannière Risc. Cette séparation est remise en question par la fusion des mondes Intel et Risc annoncée par le Pentium et le PowerPC, qui mènera à l’élimination progressive de la plupart des architectures Risc actuelles (voir Chapitre 7).

ccxlix

Il existe d'ores et déjà plusieurs versions d'Unix tournant sur les processeurs Intel caractéristiques du monde PC, dont Xenix de Microsoft et Solaris de Sun, mais leur diffusion est confidentielle en regard de la diffusion de MS-DOS et Windows. A l'inverse, Digital Equipment a récemment fait entrer les processeurs Risc dans la concurrence des PC en offrant un PC sous MS-DOS/Windows équipé de son processeur Alpha. L’événement qui inaugure la fusion des mondes PC et Unix en matière de systèmes d'exploitation a été le lancement par Microsoft de Windows NT au début de 1993. Ce système est destiné à fonctionner aussi bien sur processeurs Risc que sur processeur Intel, tout le code lié à un processeur particulier étant regroupé dans une couche de logiciel facilement interchangeable. Il peut recevoir des programmes d'application écrits pour Unix comme pour MS-DOS et Windows, à travers des interfaces applicatifs (API) appropriés. Il peut fonctionner en réseau avec des systèmes Unix, en respectant les normes d'interopérabilité définies par XOpen et l'OSF. Enfin, il incorpore beaucoup de fonctions jusque-là propres à Unix, en particulier le multiprocessing symétrique. Windows NT, et ses dérivés présents et futurs, est non seulement un successeur de Windows, mais devient une alternative raisonnable à des systèmes Unix, y compris pour des systèmes à base de processeurs Risc et pour des configurations haut de gamme destinées à s'insérer dans une architecture client-serveur ou utilisant des multiprocesseurs. Comme pour les composants, le secteur des systèmes Unix et celui des systèmes d'exploitation pour PC, jusque là essentiellement disjoints, sont en train de fusionner. La fusion de ces deux secteurs implique que, comme pour les processeurs, la dynamique concurrentielle de concentration va maintenant jouer dans un segment de marché unique allant des PC aux systèmes Unix. Pour de tels progiciels l'échelle optimale de production est de quelques millions, donc notablement inférieure à la taille du marché, ce qui laisse la place pour un certain nombre d'offres concurrentes. Il faut donc s'attendre à voir des entrepreneurs de type industriel, comme Microsoft, Novell ou IBM, offrir des systèmes d'exploitation concurrents dont la qualité ne laissera que peu de place à ceux qui seraient développés par des amateurs même géniaux, ou par des comités même animés des meilleures intentions. Comme Windows NT ou Unixware, ces différents systèmes chercheront à se différencier par leur catalogue de fonctions, leur convivialité, leurs performances, leur fiabilité, etc. Mais dans le même temps ils viseront le plus large marché possible en respectant les interfaces applicatifs standard et les normes d'échange de données, ainsi qu'en pouvant s'exécuter sur tous les processeurs du marché. Pour atteindre ces objectifs, tous puiseront dans le laboratoire d'idées que constitue le mouvement Unix et respecteront les normes qui, en sont issues, mais sans pour autant se priver de développements originaux propres. Dans ce secteur des systèmes d'exploitation, devenu autonome aussi bien par rapport à celui des composants que par rapport à celui des matériels, la concurrence ne se jouera pas entre Unix et les autres, mais entre systèmes se réclamant tous plus ou moins d'Unix et comprenant tous une part variable de modules originaux (pour ne pas dire « propriétaires »).

ccl

Les firmes qui offrent des systèmes d’exploitation se réclamant d’Unix sont pour la plupart des firmes conformes au modèle de l’informatique traditionnelle par opposition au modèle PC, c’est à dire qui offrent également leur propre matériel, soit construit à partir de processeurs Risc particuliers comme Sun, Silicon Graphics, Digital Equipment ou Hewlett-Packard, soit à partir de processeurs du commerce pour les nouveaux convertis comme Unisys. Sur le segment des systèmes d’exploitation, ces firmes vont de plus en plus être concurrencées par les spécialistes des progiciels (non nécessairement Unix) que sont Microsoft, Novell, Santa Cruz Operation, ou les futurs rejetons spécialisés d’IBM ou Apple. Les « généralistes Unix » se trouveront alors confrontés au choix suivant : ou bien continuer à développer leur propre système d’exploitation, ou y renoncer et se concentrer sur le matériel. Le premier terme de l’alternative – continuer – suppose qu’ils disposent dans ce secteur d’avantages concurrentiels, alors qu’il leur sera difficile d’offrir la même qualité et les mêmes prix que Microsoft ou son suivant immédiat à cause de l’effet d’échelle. L’intérêt de cette option peut être d’utiliser le système comme facteur de différenciation, mais ceci va à l’encontre de la normalisation. La concurrence croissante de firmes spécialisées, pour lesquelles la spécialisation est justement la source d’avantages concurrentiels, fera apparaître de façon critique les problèmes de cohabitation entre activités. Le développement de systèmes logiciels implique une échelle de production très supérieure à celle des matériels et fonctionne selon des cycles longs, ce qui oblige à reconnaître des personnalités d’entreprise différentes et pousse à l’éclatement des firmes mixtes. Les généralistes qui opèrent aujourd’hui sous la bannière Unix, seront, comme leurs modèles plus anciens, contraints de dissocier l’une de l’autre leurs activités de matériel et de progiciels et d’offrir leurs systèmes d’exploitation de façon séparée. Nous reprendrons cette problématique dans le Chapitre 14 pour conclure que, comme c’est déjà le cas dans le monde PC, les systèmes d’exploitation deviendront progressivement l’affaire d’entreprises spécialisées constituant un secteur autonome distinct de structure concentrée, et en particulier fortement inégalitaire en termes de parts de marché. A travers cette évolution, les niveaux de prix et les pratiques de commercialisation convergeront vers les pratiques caractéristiques du monde PC.

Perspectives
La structure industrielle de l’offre des systèmes d’exploitation est encore très hybride. On y trouve juxtaposés les généralistes traditionnels qui offrent encore leurs systèmes propres liés aux matériels, les firmes spécialisées du monde PC qui profitent de la montée en puissance des micro-ordinateurs pour entrer en concurrence avec les généralistes, et tout un complexe d’offreurs de taille et de natures différentes regroupés autour de la bannière d’Unix et de l’idéal des systèmes ouverts. Nous avons vu que les généralistes seront probablement contraints de dissocier l’une de l’autre leurs activités de matériel et de logiciel. De ce fait, tout cet ensemble hétérogène s’organisera progressivement, dans les quelques années qui viennent, en un

ccli

macro-secteur des systèmes d’exploitation indépendant, détaché de celui du matériel et dominé par des spécialistes du progiciel comme c’est déjà le cas dans le monde PC. Comme le progiciel en général, le macro-secteur des systèmes d’exploitation sera constitué d’un continuum de sous-secteurs communiquant entre eux. A un extrême, celui des systèmes industriels complets aura toutes les caractéristiques d’un secteur fortement concentré, où un petit nombre de firmes, se comptant sur les doigts d’une main, se répartiront le marché de façon très inégale dans des proportions analogues au secteur des microprocesseurs. A l’autre extrême, des idées et des entreprises nouvelles naîtront en permanence pour produire des fonctions nouvelles ou des réalisations alternatives de fonctions existantes. Ce foisonnement d’innovations sera facilité par l’existence de standards et d’un système théorique de référence appelé Unix, même si l’idée d’un monde ou tout serait régi par des standards respectés par tous restera une utopie. Entre ces deux limites extrêmes du secteur pourront se placer des firmes agissant en tant que relais d’intégration dans des domaines comme celui des utilitaires ou d’applications générales voisines des systèmes d’exploitation, un rôle que jouent aujourd’hui par exemple Symantec ou Computer Associates. A travers l’ensemble du secteur, des idées et des produits migreront de façon continue depuis la frange innovatrice dispersée vers les pôles d’attraction que constituent les systèmes intégrés industriels. Cette migration aura pour conséquence d’étendre le périmètre fonctionnel considéré comme séparant les systèmes d’exploitation des progiciels d’application. Elle s’accompagnera de l’acquisition de firmes appartenant aux secteurs dispersés par les entreprises des secteurs les plus concentrés. Que peut-on dire de l’équilibre général du secteur ? Des forces concurrentielles qui poussent à la concentration ou de celles qui favorisent l’éclosion de nouvelles entreprises, lesquelles l’emporteront ? Est-il réaliste de penser que la régénération des entreprises innovantes compense presque exactement les disparitions ou les acquisitions, donnant ainsi au secteur global l’allure d’une sorte d’écoulement stationnaire où les proportions des différents types de populations restent les mêmes alors que leur composition ne cesse de changer ? Ou peut-on craindre que le rythme des créations soit plus faible que celui des disparitions, si bien que toute l’industrie tendrait à se résumer à une poignée d’offreurs ? Ou au contraire, existe-t-il des raisons de penser que la dynamique de concentration puisse se ralentir, et que le secteur évolue vers un éclatement analogue à celui du matériel dans les années 1975-1990 ?

Génie logiciel et structure sectorielle
Ces questions renvoient à l’évolution probable des technologies de développement. Le moteur économique de la dynamique de concentration est en effet le coût et la complexité de l’intégration. Les systèmes les plus complexes sont construits en assemblant des modules ou des sous-ensembles qui pourraient aussi bien être commercialisés séparément si leur regroupement ne présentait pas de difficultés ni de risques. Seul le problème de l’intégration oblige à les distribuer ensemble et à supporter des coûts fixes aussi élevés.

cclii

La racine du problème est que, avec les techniques de développement actuelles, la conformité d'un élément à ses spécifications ne garantit pas qu’il s’intégrera sans effort ni erreurs dans le système auquel il est destiné. S’il était possible de spécifier et de réaliser tous les composants d’un système de façon que la conformité de chacun à ses spécifications en garantisse l’intégration, et que le fonctionnement correct du système dans une configuration entraîne qu’il fonctionnera correctement dans toutes les autres, alors il deviendrait possible de développer et de commercialiser les systèmes sous forme de morceaux indépendants. L’échelle de production applicable à chacun de ces composants serait notablement plus faible que celle des systèmes intégrés, et le cycle de production plus court. Comme nous l’avons vu au chapitre précédent, ceci favoriserait la fragmentation de l’industrie, et l’intégration de systèmes deviendrait une spécialité parmi d’autres, analogue à celle d’assemblage pour le matériel. En même temps que l’intensité des forces de concentration pour les intégrateurs, les technologies de construction (de « génie logiciel ») déterminent le niveau des obstacles à l’entrée pour les plus petites entreprises. Il existe déjà tout un choix de boîtes à outils qui permettent de développer facilement des logiciels de qualité et d’apparence professionnelles, et ces aides au développement ne peuvent que s’enrichir et se perfectionner. Les obstacles à l’entrée resteront faibles pour les innovateurs, et les opportunités illimitées tant que les utilisations de l’informatique continueront de ses diversifier. Quelque puissantes que puissent être les aides à l’écriture et à l’intégration mises à la disposition des programmeurs par les méthodes classiques de développement, le programme ne peut s’exécuter en fin de course que sous la forme de langage machine où toutes les références à des informations ou à d’autres points du programme ont été converties en adresses numériques. A ce stade, qui est celui des tests et de l’intégration, le découpage en modules qui a servi à la construction a disparu et l’ensemble forme un bloc compact indissociable. Modifier ou ajouter une partie du système demande un réassemblage complet quel que soit l’importance de la modification. Pour la même raison, greffer un programme sur un autre, ce qui est par exemple nécessaire pour exécuter un programme d’application dans le cadre d’un système d’exploitation, doit avoir été explicitement prévu et se fait selon des conventions rigoureuses et contraignantes. Des techniques diverses ont été développées pour retarder au maximum la résolution des références entre programmes, qui conduit à la « prise en masse » décrite ci-dessus, et permettre ainsi de lier entre eux, au stade de leur exécution, des programmes indépendants. Quelques exemples de telles conventions sont les mécanismes DDE (Direct Data Exchange) ou OLE (Object Linking and Embedding) de Microsoft, mais le développement le plus significatif et le plus prometteur est la programmation dite « par objets », dont nous allons dire quelques mots.

Les objets
Dans la programmation traditionnelle, le code, formé des instructions exécutables, est séparé des données sur lesquelles il opère. Les informations sont regroupées dans des structures, des tables ou des fichiers, et sont exploitées et manipulées par de nombreux modules du programme. Cette structure introduit une interdépendance

ccliii

implicite entre chacun des modules et la structure des données, ainsi qu’entre modules via leurs données communes, qui crée des risques d’effets pervers appelés « effets de bord » (« side effects ») et contribue fortement à la difficulté des tests. De plus, si on désire changer le format d’une table, que ce soit pour rectifier une erreur, pour introduire de nouvelles fonctions ou pour améliorer les performances, il faut modifier tous les modules qui utilisent cette table. Dans le vocabulaire de la programmation, un objet est formé par la réunion de données et de programmes associés (généralement désignés par le mot de « méthodes »), qui peut communiquer avec d’autres objets en échangeant des « messages ». Une utilisation possible de la technologie objet consiste à englober dans un même objet un ensemble de données et les sous-programmes d’accès à ces données, en interdisant d’accéder aux données autrement qu’en utilisant ces méthodes. Pour autant que les méthodes d’accès aient été définies de façon suffisamment générale, toute modification de la structure des données n’impose de modifier que les méthodes de l’objet à l’exclusion des programmes qui l’utilisent. L’exécution des méthodes d’un objet est déclenchée, directement ou indirectement, par la réception de messages parmi un répertoire que l’objet sait reconnaître. Quatre méthodes différentes peuvent par exemple être écrites pour réagir à quatre messages, l’une en imprimant l’objet, la deuxième en l’affichant à l’écran sous forme complète, la troisième en l’affichant sous forme résumée (par exemple une icône), et la quatrième en le copiant sur disque. Le fonctionnement détaillé de ces méthodes dépend évidemment de la structure et de la signification de l’objet. Par exemple, la méthode « afficher » d’un objet « rectangle » sera différente de celle d’un objet « cercle », mais les deux objets sauront réagir de façon appropriée à un même message « afficher ». Regrouper ainsi dans une construction cohérente et isolable tout ce qui fait la spécificité d’un objet apporte de nombreux avantages. Pour chaque objet, il est possible de faire évoluer chacune de ses méthodes, par exemple le mode d’affichage, en laissant inchangé tout le reste. On peut aussi ajouter de nouveaux objets à ceux que sait déjà traiter le système, en les dotant simplement des méthodes appropriées pour réagir aux messages du système qui saura ainsi les manipuler sans autre changement. Dans le jargon des objets, on parle de « polymorphisme » pour la possibilité qu’ont des objets différents de réagir de façon appropriée et différenciée à une même séquence de messages. Par exemple pour afficher une liste de figures géométriques, le programme de gestion globale de l’affichage est indépendant de la nature des figures affichées, et il suffit pour introduire une nouvelle figure d’incorporer la méthode d’affichage appropriée dans l’objet qui la représente. L’approche objets apparaît comme un concept essentiel à la réalisation des interfaces graphiques et plus généralement des applications multimédia. Dans la plupart des systèmes de développement par objets, la définition d’objets nouveaux est facilitée par le mécanisme dit d’« héritage » qui consiste à définir un nouvel objet par référence à un objet existant, en conservant certaines de ses méthodes, en les redéfinissant ou en en définissant de nouvelles, sans pour cela devoir accéder au code source de l’objet de référence. Ce mécanisme réduit les besoins de programmation et minimise les risques d’erreur en permettant d’utiliser des méthodes déjà éprouvées

ccliv

dans des objets nouveaux. Il permet aussi de remplacer individuellement chaque objet d’un système par un autre objet présentant les mêmes interfaces externes, et dont les différences avec l’objet original peuvent aller de simples détails de réalisation à une réécriture complète. La communication par messages implique que toute communication entre objets, par exemple l’appel d’une méthode d’un objet à partir d’un autre objet, a lieu indirectement et met en œuvre une fonction fondamentale du système d’exploitation. Cette fonction du système peut en particulier être chargée de résoudre les références croisées entre objets, permettant ainsi de maintenir une structure modulaire jusqu’au stade de l’exécution. Entre autres possibilités, une telle structure peut servir de base à la réalisation de systèmes distribués où les objets qui les composent peuvent résider sur des organes d’exécution différents. La fonction de gestion des messages est chargée de les localiser et de router les messages en conséquences sans que les différents objets aient à connaître leurs emplacements respectifs. Le concept d’objet apparaît ainsi comme également lié au concept client-serveur et au multitraitement. On devine à travers cette présentation très résumée que la programmation par objets est non seulement à la source de nouveaux paradigmes de développement d’applications, mais une base potentielle pour une véritable modularité du logiciel. Pour que ces espoirs se concrétisent, il faut encore beaucoup d’expérimentation et probablement d’invention, et il faudra aussi que des standards se dégagent en leur temps, sans qu’une hâte intempestive fige prématurément des normes immatures. Il faudra ensuite que les entreprises de progiciel inventent et mettent en place de nouvelles disciplines de conception et de programmation adaptées, avec par exemple un système d’administration des objets qui favorise leur réutilisation. Une technologie émergente liée aux objets est celle des « micronoyaux » (« microkernel »). Un système moderne peut à tout instant contenir plusieurs programmes en cours d’exécution, qui sont isolés les uns des autres par des dispositifs matériels de protection afin d’empêcher les erreurs en cours d’exécution (ou les malveillances) de se propager de l’un à l’autre. Par exemple, chaque programme ne pourra accéder qu’aux zones de mémoire qui lui ont été affectées. C’est le système d’exploitation qui est chargé, entre autres fonctions, d’affecter la mémoire disponible aux différents travaux et d’assurer le passage d’un programme à un autre. Il doit pour cela s’affranchir temporairement de ces protections, en quittant le mode normal de fonctionnement, ou mode « problème » pour passer dans un mode « système » qui autorise l’accès à la totalité de la mémoire et l’exécution de certaines instructions privilégiées. Il est clair que tout programme qui utilise directement le mode système doit être protégé et soumis à des restrictions draconiennes, et ne peut pas facilement être développé et distribué séparément. Dans un système qui serait composé d’objets développés indépendamment, aucun d’entre eux ne devrait faire appel au mode système autrement qu’en envoyant des messages à un objet « noyau » qui a le monopole de ce mode. On appelle « micronoyau » la plus petite partie du système qui est dépendante de la machine et doit s’exécuter en mode système. La définition exacte des micronoyaux

cclv

est actuellement le sujet de débats et d’expérimentations. Si toutes les propositions y font figurer la gestion de la mémoire, la gestion des tâches et la communication entre processus, elles diffèrent par la répartition exacte des tâches entre le mode problème et le mode système, en particulier pour la gestion des périphériques. Comme c’est toujours le cas en programmation, ces décisions de répartition correspondent à des arbitrages différents entre la pureté conceptuelle et la souplesse d’une part, les performances d’autre part. Les deux réalisations de micronoyaux les plus connues sont issues du monde Unix : Mach, né d’une collaboration entre l’Université Carnegie-Mellon et IBM, et Chorus, développé par la société française Chorus Systèmes. Le micronoyau Mach a été adopté comme standard par l’OSF et est utilisé dans les nouveaux systèmes en cours de développement par IBM, Apple, Sun et d’autres, tandis que Novell a choisi Chorus. Microsoft, de son côté, fait reposer ses systèmes les plus récents comme Windows NT sur un micronoyau qui lui est propre. Bien que la technologie des micronoyaux soit au coeur des systèmes objet, aucun des systèmes ci-dessus n’est réellement un système objet. Dans les systèmes actuellement disponibles, le code qui réalise les fonctions externes au micronoyau reste développé et structuré selon les méthodes traditionnelles. Il faudra attendre la génération de systèmes prévue pour la fin du siècle pour que ces fonctions soient réalisées sous la forme de collections d’objets indépendants qui communiquent à travers le micronoyau. Alors il deviendra peut-être possible à des offreurs indépendants de se spécialiser sur des objets particuliers et d’entrer en concurrence avec les grands du marché, de la même façon que les compatibles sont entrés en concurrence avec IBM dans les années 70. Si ces technologies tiennent leurs promesses, elles peuvent conduire l’industrie du progiciel à éclater, comme le 360 puis l’unbundling ont conduit à l’éclatement de l’informatique traditionnelle.

Logiciel et matériel
Une autre grande question est celle de la frontière entre le logiciel et le matériel. Les microprocesseurs deviennent inéluctablement de plus en plus puissants. On sait qu’ils contiendront cent millions de transistors vers l’an 2000 contre 3 millions actuellement, alors qu’il suffit largement d’un demi-million de transistors pour réaliser une unité de calcul complète. Peut-on penser que les microprocesseurs du XXIe siècle seront formés de centaines d’unités de calcul fonctionnant en parallèle, ou faut-il s’attendre à ce que leurs fonctions même soient considérablement enrichies ? Si telle est la voie dans laquelle s’orientent les fabricants de microprocesseurs, les fonctions susceptibles de résider sur la puce, voire d’être réalisées directement par des circuits actifs, sont au premier chef les fonctions du système d’exploitation qui sont les plus proches du matériel, à commencer par le micronoyau. A priori, tout logiciel pourrait résider dans une mémoire incorporée au microprocesseur, et de façon plus radicale tout ce qui est réalisé par logiciel pourrait l’être par les circuits et réciproquement. On trouve d’ailleurs entre le matériel et le logiciel proprement dits des

cclvi

formes intermédiaires comme le microcode, le logiciel en mémoire morte, les pilotes de périphériques, qui peuvent eux-mêmes résider dans le système central ou dans l’unité d’entrée sortie, etc. L’histoire de l’informatique offre plusieurs exemples de migration de fonctions entre le matériel et le logiciel, et dans les deux sens. Retirer des fonctions au matériel pour les transférer dans le logiciel procède en général de motivations théoriques. La célèbre « machine de Türing » représente la machine la plus simple capable d’effectuer n’importe quel calcul, mais n’est qu’un concept purement abstrait utilisé en théorie de l’information. Sa réalisation physique aurait des performances ridiculement faibles et serait inutilisable justement à cause de son jeu d’instructions rudimentaire. C’est la même démarche de simplification systématique du matériel, en acceptant de reporter les fonctions plus complexes vers le logiciel, qui a présidé aux travaux qui devaient mener aux concepts Risc. La migration inverse du logiciel vers le matériel est plus fréquente. Elle est toujours motivée par des raisons pratiques de performances ou de fiabilité, et n’est retardée que par les possibilités des technologies matérielles d’une part, la stabilité et la généralité des fonctions concernées d’autre part. En effet, les fonctions « gravées dans le silicium » ne peuvent plus être modifiées que très difficilement, et seules les parties de logiciel parfaitement testées et stabilisées peuvent être en pratique candidates. Toute la vie du 360 et de ses dérivés a vu l’apparition périodique de nouvelles instructions privilégiées destinées à remplacer des séquences d’instructions du système d’exploitation. Le projet FS prévoyait d’incorporer au matériel de nombreuses fonctions dont une grande partie de la gestion des bases de données. Dans le monde micro, chacun des processeurs Intel successifs incorpore des fonctions nouvelles comme la gestion de l’énergie, qu’on aurait normalement confiées au logiciel. Même le concept Risc a évolué d’un jeu d’une dizaine d’instructions dans la forme puriste de ses origines à quelque 200 instructions pour ses incarnations récentes, c’est à dire autant que les processeurs Cisc classiques. Malgré des retours en arrière occasionnels et temporaires, la tendance constante à long terme est bien la migration de fonctions depuis le logiciel système vers le matériel et en particulier le microprocesseur, ainsi d’ailleurs que vers les matériels périphériques dont les « pilotes » sont de plus en plus riches. Si l’industrie se met un jour d’accord sur un ensemble d’API pour définir une machine virtuelle standard, il est probable que les constructeurs de matériel en offriront des réalisations variées qui incluront une partie des objets du système nécessaires à son fonctionnement. Cette migration concerne d’abord les systèmes d’exploitation, peut s’étendre à certaines fonctions des programmes d’applications. En tout état de cause, elle remet en question les relations entre producteurs de composants et de systèmes, ainsi que la frontière entre ces deux secteurs.

Conclusions
Les systèmes d’exploitation forment un secteur original par les spécificités techniques et économiques de l’activité de développement de progiciel, ainsi que par

cclvii

l’étendue du domaine couvert qui laisse la place pour des sous-secteurs allant de l’extrême concentration à l’extrême dispersion. Pour les systèmes d’exploitation industriels majeurs, la tendance actuellement dominante est la concentration, qui devrait aboutir dans la décennie à une structure analogue à celle des composants. Au couple leader-challenger formé probablement par Intel et PowerOpen pour les microprocesseurs pourrait répondre un couple formé par Microsoft et IBM (ou le fruit de son rapprochement avec Apple), suivis dans les deux cas par une petite poignées de firmes plus marginales. Pour le logiciel, les leaders seraient accompagnés par un cortège fluctuant d’innovateurs plus ou moins associés sous la bannière Unix, dont certains graviteraient autour de l’un des leaders au point de s’y fondre. Mais les technologies portent en germe un potentiel de remise en question profonde de ce schéma, en permettant à terme un éclatement du système donc un éclatement du secteur. S’il se réalise, ce mouvement serait favorable à la multiplication de petites entreprises et à une accentuation du caractère dispersé du secteur. On assisterait alors pour le progiciel à une nouvelle version de l’« unbundling ». Que deviendraient alors les leaders actuels ? Qui prendrait en charge le problème de l’intégration en un système cohérent des objets de provenances différentes ? L’utilisateur lui-même ? Des sociétés de service spécialisées ? Tels sont les enjeux industriels et structurels profonds des « systèmes objets ». Cette restructuration possible serait encore compliquée si l’évolution des composants entraînait en parallèle une redistribution des cartes entre les progiciels systèmes et les microprocesseurs. Tandis que l’industrie du progiciel éclaterait, une partie d’entre elle fusionnerait plus ou moins avec l’industrie du matériel pour donner naissance à des produits intégrés hybrides. Plus que jamais, le logiciel reste un domaine particulièrement divers et mouvant, dont l’évolution est au centre de toute l’industrie informatique.

cclviii

Chapitre 13 L’univers des services
Un monde à plusieurs dimensions. Services de support, services de substitution et services informatisés. Les services de traitement et leur évolution. Grandeur et décadence du Service Bureau. Assistance technique, développement et intégration. Les pièges du forfait. Des structures et des cultures différentes pour des activités différentes. Spécialisations et impasses. Les produits ont-ils besoin de services ? Et l’infogérance ?

A plusieurs reprises, nous avons abordé le domaine des services sans toutefois y pénétrer. En survolant l’industrie informatique dans la première partie, puis en préparant nos instruments d’analyse des structures industrielles dans le chapitre 6 et en cherchant à organiser notre réflexion au chapitre 10, nous avons noté quelques traits caractéristiques des services, qui font de ce domaine un ensemble aux contours flous et au contenu hétérogène. Cette hétérogénéité correspond d’ailleurs aux définitions traditionnelles qui se résument pour la plupart à appeler service « tout ce qui n’est pas un produit ». Mais nous avons vu au chapitre 10 que la différenciation habituelle entre produits et services fait appel à plusieurs critères indépendants, et que loin de se résumer à une situation bipolaire, cette différenciation donne naissance à une classification à plusieurs dimensions, où chacun des critères peut varier entre la modalité « service » et la modalité « produit » en passant par des valeurs intermédiaires. Ces considérations nous ont déjà conduits à traiter séparément le progiciel, dont toutes les caractéristiques sont celles d’un produit et dont l’assimilation aux services, bien qu’habituelle, est totalement abusive. Même après en avoir éliminé le progiciel, les services ne se distinguent pas aussi radicalement des produits que le prétend en général la littérature, et sont trop divers pour que l’on puisse avancer à leur propos des affirmations générales pertinentes. Bien au contraire, l’analyse des activités de service doit faire appel à l’ensemble des outils que nous avons forgés et validés en les appliquant aux produits, et conduit à des conclusions aussi variées que le sont les formes de service elles-mêmes. Malgré cette grande diversité, les services font l’objet de nombreux discours où la confusion plus ou moins volontaire des situations donne naissance aux généralisations et aux approximations les plus abusives. C’est dans ce domaine que les à peu près et les idées fausses abondent le plus, véhiculés en particulier par les discours intéressés de tous les intervenants qui visent à promouvoir leurs offres de services, et relayés par les analyses des gourous professionnels. Au total, le discours dominant et les idées reçues quant aux services ne font généralement qu’ajouter à la confusion. Le présent chapitre se propose d’analyser le domaine des services de façon objective, en distinguant ses parties suivant le vieux précepte cartésien, et en analysant les relations et les mécanismes de symbiose et de concurrence avec les produits pour déceler les

cclix

perspectives d’évolution de chacun des principaux types d’offre, sans craindre de remettre en question quelques idées reçues. Dans le discours dominant, le domaine des services est porteur d’espérances, au point que certains affirment que les services supplanteront un jour les produits. Cet intérêt est soutenu par deux affirmations : la première, que le chiffre d’affaires des services se développe plus vite que celui du matériel, et la deuxième que les services sont plus profitables que le matériel. On en veut pour preuve que presque tous les grands offreurs traditionnels affichent des ambitions dans les services, et tirent même fierté de la part relative des services dans leur chiffre d'affaires. Les commentateurs superficiels attribuent cette ruée vers les services à une profitabilité intrinsèque supérieure et la présentent comme une tendance lourde conduisant à une suprématie définitive des services sur le matériel. Les statistiques montrent en effet que les services se développent plus vite que le matériel en général, et que les matériels traditionnels (autres que les micro-ordinateurs) en particulier. Mais cette constatation doit être tempérée par le fait que la plupart des chiffres cités portent sur l’ensemble des progiciels et des services, les premiers croissant nettement plus vite que les seconds. En revanche, comme nous l’avons vu au chapitre 5, il est inexact d'affirmer que les services sont plus profitables que les produits. Sur toute la période 1985-1993, le taux moyen et le taux médian de profit net après impôts des sociétés de services spécialisées se situent autour de 5%, tout comme ceux des firmes spécialisées dans les PC, les stations de travail ou les périphériques. De plus, autour de ces moyennes, les variations sont suffisantes pour qu'il existe depuis 1989 des sociétés de services déficitaires, et des sociétés de matériel dont la profitabilité est supérieure de 10 points à celle des sociétés de services les plus performantes. Autrement dit, non seulement les moyennes des différents secteurs sont très voisines, mais les écarts entre sociétés du même secteur sont beaucoup plus grands que les infimes différences entre les moyennes des secteurs. Les profits moyens et médians des services ne sont clairement supérieurs qu'à ceux des généralistes ou des spécialistes des grands systèmes, et encore trouve-t-on parmi ces derniers des firmes dont la profitabilité dépasse celle de beaucoup de sociétés de services. De même, comme nous l’avons vu au chapitre 5, on n’observe pour les firmes non spécialisées aucune corrélation entre leur profitabilité et la part des services dans leur chiffre d’affaires. La différence de comportement la plus clairement observable entre produits et services est l’étroitesse des plages de variation pour ces derniers, et leur plus grande stabilité dans le temps. La crise qui a précipité dans le rouge bon nombre de constructeurs de matériels à partir de 1991 n’a pas eu d’effet visible sur la profitabilité d’ensemble des services, dont les difficultés relatives étaient apparues dès 1989. Pour les constructeurs en difficulté, développer leur activité de services leur a permis de limiter l’impact des pertes dues au matériel, principalement en facturant, même à un taux peu profitable, des personnels devenus excédentaires.

cclx

Profitabilité - services
30.00% 20.00% 10.00% 0.00% -10.00% -20.00% -30.00% 85 86 87 88 89 90 91 92 93
Moyenne Mediane

Données McKinsey - Analyse GD
G. Dréan - 1995

C’est probablement cette insensibilité à la crise des matériels standard qui est à l’origine de la réputation de profitabilité des services. Cette illusion est entretenue par les commentateurs qui englobent dans un même « secteur » les services et les progiciels, dont la profitabilité est effectivement supérieure avec des moyennes couramment supérieures à 15%. Mais cette simple différence de niveau prouve bien à elle seule qu’il s’agit d’activités soumises à des dynamiques concurrentielles radicalement différentes.

Services en informatique et services informatisés
Même réduits au domaine de l’informatique, les services ne forment pas un secteur au sens de Porter, c’est à dire, en transposant la définition classique, « un groupe de firmes qui produisent des prestations étroitement substituables ». Entre l’assistance technique, le développement de logiciel, la maintenance, le traitement d’applications, l’intégration de systèmes, le secours informatique, … il existe une grande variété de services répondant chacun à un besoin particulier, et qui forment autant d'offres non substituables l'une à l'autre définissant des secteurs distincts. Dans chacun de ces secteurs, les mécanismes de production et les forces concurrentielles peuvent prendre une forme spécifique, conduisant à des logiques sectorielles différentes. Le degré de concentration et le niveau de profitabilité potentielle varient suivant la nature des services. Les facteurs de réussite et les stratégies appropriées diffèrent d'un secteur à l'autre et appellent des personnalités d'entreprise, c’est à dire des organisations et des cultures, différentes. Ces variations sont assez significatives pour que, contrairement par exemple à l’assemblage de matériels ou à la production de progiciels, les services ne constituent pas non plus un métier au sens que nous avons introduit au chapitre 6, c’est à dire un ensemble de secteurs obéissant à la même forme de dynamique concurrentielle. Hétérogène par la nature des prestations offertes et par la dynamique concurrentielle qui structure chacun des secteurs, le domaine des services l’est aussi par

cclxi

la diversité des acteurs qui y sont présents, et qui mettent en œuvre des stratégies diversifiées. Les acteurs spécialisés sont nombreux ; dans l’échantillon de 110 grandes entreprises que nous avons étudié au chapitre 4, on compte 26 firmes spécialistes des services, mais il existe en outre, aux USA comme en Europe, une multitude d’entreprises de service trop petites pour figurer dans cet échantillon. De plus, de nombreuses firmes sont présentes dans les services sans y être spécialisées. C’est le cas de presque tous les généralistes et de près de 40% des autres spécialistes. Il est d’ailleurs probable que ce tableau lui-même ne représente qu’imparfaitement la réalité. De nombreuses formes de service ont traditionnellement été offertes par les fournisseurs de produits en complément de leurs productions principales sans donner nécessairement lieu à facturation séparée, et la littérature continue à présenter souvent les services comme des attributs des produits destinés à conférer à ces derniers un avantage concurrentiel, et non à produire par eux-mêmes un revenu profitable. La facturation séparée des services, inaugurée par IBM en 1969, est loin de constituer une règle absolue pour tous les constructeurs. Le même type de service peut être offert gratuitement par une firme et sous forme payante par une autre, spécialisée ou non. Ces motivations et ces modalités divergentes contribuent à rendre encore plus flous les contours du domaine des services, déjà incertains par nature. Nous avons vu que la vision habituelle d’un monde des services opposé à un monde des produits est une dichotomie tout à fait artificielle par rapport à la réalité. L’ensemble formé par les services est trop hétérogène pour qu’il soit possible de leur attacher des caractéristiques communes qui les différencieraient globalement des produits. Bien au contraire, certains services sont plus facilement substituables à des produits qu’à d’autres services, par exemple le Service Bureau que nous étudierons dans la suite. Au total, la diversité des services est comparable à celle de l’ensemble des produits, et nous devrons pour les comprendre faire appel à l’ensemble des outils conceptuels d’analyse que nous avons présentés jusque là : analyse concurrentielle des facteurs de concentration et de dispersion, inventaire des stratégies disponibles, chronologie des décisions, personnalités d’entreprise et compatibilité des organisations. Le monde des services nous apparaîtra alors comme un monde varié et instable, parallèle à celui des produits, auquel il est lié par des relations complexes de complémentarité et de concurrence. Pour entreprendre cette analyse, nous devons d’abord structurer le domaine des services en secteurs concurrentiels au sens de Porter, chaque secteur regroupant des prestations « étroitement substituables » parce que destinées à satisfaire un même besoin. Or, au niveau le plus élevé, nous pouvons déjà classer les services informatiques selon trois types principaux de finalités. La plupart des services traditionnellement offerts par les Sociétés de Service en Informatique sont destinés à faciliter ou à accompagner la mise en œuvre de systèmes informatiques. Il s’agit par exemple des activités de conseil, d’assistance, de développement de programmes, d’intégration de systèmes, … dont les clients sont le
56

56 généralement désignées par le sigle SSII, pour « Sociétés de Service et d’Ingénierie Informatique », qui a remplacé le sigle SSCI (Sociétés de Service et de Conseil en Informatique).

cclxii

plus souvent des responsables informatiques. Le marché de ces services est créé par celui des produits informatiques, et est en première analyse d’autant plus vaste que le marché des produits est lui-même en expansion. Les différentes prestations de ce type peuvent être en concurrence entre elles, mais elles forment globalement un ensemble spécifique auquel ne peuvent pas se substituer des prestations extérieures à l’industrie informatique. Nous appellerons cette catégorie « services de support ». Un cas un peu différent est celui des services qui se présentent comme une alternative à l’acquisition de produits informatiques, comme le service bureau et certaines formes de « facilities management » reposant sur le partage de ressources matérielles entre clients. Du point de vue du marché, ces services sont en concurrence directe avec les produits informatiques. Même si in fine le prestataire est client des constructeurs et des fournisseurs de progiciel, son intervention réduit par définition leur marché. Nous appellerons cette catégorie « services de substitution ». Une troisième catégorie est formée par des services dont l’utilité est extérieure à l’informatique, mais qui s’appuient sur l’informatique dans leur mise en œuvre afin d’obtenir un avantage concurrentiel. Par exemple la comptabilité et la gestion du personnel, même informatisées, conservent une finalité extérieure à l’informatique et sont en concurrence avec d’autres formes de comptabilité ou de gestion du personnel, et non avec d’autres prestations informatiques. Leur marché est celui des comptables et des responsables de relations humaines. Nous appellerons cette catégorie « services informatisés » ou « services applicatifs ». Ces services informatisés résultent de l’introduction de la technologie informatique dans la réalisation de services de nature non-informatique souvent préexistants dont le marché est défini par les utilisateurs de ces services, quel que soit leur degré d’informatisation. Même si l’utilisation de l’informatique peut permettre la création de nouveaux services ou modifier profondément les conditions d’exercice de l’activité et les avantages concurrentiels respectifs des offreurs, le jeu concurrentiel se joue dans une arène distincte de celle où se joue la concurrence entre produits informatiques. C’est pourquoi nous considérerons que les services applicatifs informatisés n’appartiennent pas à l’industrie informatique. La problématique des services informatisés est un cas particulier de l’envahissement par l’informatique de toutes les activités humaines et sera abordée dans le dernier chapitre consacré aux frontières de l’informatique. Au contraire, la dynamique concurrentielle des services de support et de substitution est directement liée à celle des autres secteurs de l’industrie informatique. En ce sens, ces services font partie intégrante de l’industrie informatique et sont examinés dans le présent chapitre. Encore faut-il noter que de nombreux services de nature générale sont utilisés en tant que support de l’activité informatique sans prendre dans ce contexte un caractère significativement différent de celui qu’ils ont par ailleurs. C’est le cas par exemple de services de financement, de transport des ordinateurs, de fourniture d’électricité, etc.. Il faut des camions pour livrer les ordinateurs, des banques pour les financer et du courant pour les alimenter, mais on ne range pas pour autant les transports routiers, la banque et la fourniture d’électricité dans l’industrie informatique. Nous restreindrons la discussion ce chapitre aux services de support spécifiques à l’informatique, ce qui exclut entre autres les distributeurs, les brokers, les leasers, dont

cclxiii

l’activité n’est pas fondamentalement différente selon qu’elle porte sur des produits informatiques ou sur d’autres produits. Par ailleurs, la distinction que nous venons d’introduire entre services de support, services de substitution et services applicatifs n’a pas toujours été aussi nette. Aux premiers temps de l’informatique, un service de comptabilité informatisée était considéré d’abord comme un service informatique ; il était offert par des firmes spécialisées en informatique et non par les cabinets d’experts comptables. Maintenant que tous les comptables utilisent l’informatique, la comptabilité informatisée est devenue la norme et n’appartient plus à l’industrie informatique. Nous verrons que ce phénomène de migration a caractérisé l’évolution des services de traitement. De plus, les mêmes prestations de support peuvent accompagner la fourniture de produits et les services de substitution, ou être intégrés à ces derniers. Enfin, des services de support non spécifiquement informatiques peuvent devenir des systèmes informatisés et inviter ainsi doublement à la confusion. L’exemple le plus significatif est celui des services de télécommunications, dont nombre de commentateurs s’ingénient à décrire la fusion avec l’informatique. Pour nous, les relations entre ces deux industries relèvent essentiellement de l’utilisation croissante de l’informatique dans les communications, de même que dans la banque, les transports, la musique ou toutes les autres industries, dont nous examinerons les incidences au chapitre 16. De l’autre côté, il est vrai que les services de télécommunications forment un constituant de plus en plus vital des systèmes informatiques, mais sans que cette forme d’utilisation définisse pour les entreprises de télécommunications un type de prestations radicalement différent de leur activité classique, qui reste de transmettre des informations sans modification entre des points distants. L’utilisation de ses services par l’informatique ne conduit pas non plus l’industrie des télécommunications à se structurer différemment ou à obéir à une logique économique différente. Nous reviendrons sur ce sujet à la mode dans le dernier chapitre de cet ouvrage.

Les services de substitution et l’histoire du Service Bureau
Dans les premières années de l’industrie informatique, la formation des clients, la maintenance du matériel et l’assistance technique, qui comprenait une part importante d’écriture de logiciel, étaient fournies avec le matériel sans facturation séparée. Mais le coût des premiers ordinateurs et la rareté des compétences nécessaires à leur mise en œuvre les réservait à un petit nombre de grandes entreprises. Les constructeurs d’ordinateurs, en particulier, voyaient un marché important pour une offre de centres informatiques partagés qui serviraient les besoins de la majorité des utilisateurs, trop modestes pour justifier l’acquisition de moyens de traitement propres. Ainsi se créa le « Service Bureau », qui est par essence une offre de service conçue comme une alternative à l’acquisition de produits informatiques. Notons au passage que le même raisonnement avait conduit à l’ouverture de centres de « service bureau » sur matériels mécanographiques à cartes perforées. Les premiers services informatiques résultaient simplement de l'équipement en ordinateurs du Service Bureau mécanographique classique, qui existait déjà depuis plusieurs décennies avant même l’introduction des ordinateurs. A l’origine, ce service était le seul

cclxiv

à faire l’objet d’une offre commerciale et d’une facturation indépendante, qu’il soit offert par les constructeurs de matériel ou par les premières sociétés de services indépendantes. L’offre de service bureau initiale était une alternative globale à l’utilisation de moyens propres. De même que les vendeurs de matériels fournissaient les services annexes sans facturation séparée, les fournisseurs de service bureau intégraient le développement de programmes, le personnel d’exploitation et l’assistance éventuelle à l’utilisateur dans le prix du traitement. Dans les deux cas, la ressource rare et chère était le matériel, tandis que le coût du personnel était relativement secondaire. L’offre de service bureau apparaît ainsi comme une autre modalité d’accès aux matériels informatiques et aux services associés, qui s'adresse principalement aux petits et moyens clients, ainsi qu’à des projets occasionnels ou demandant des compétences spéciales. Dans l’absolu, le service bureau est en concurrence avec l’acquisition de moyens propres, mais dans les faits cette concurrence est au départ restreinte par le coût élevé des matériels et la nouveauté de leurs applications. En 1957, IBM pensait que le marché du calcul scientifique en Europe serait satisfait par un tout petit nombre d’ordinateurs acquis par quelques grands organismes comme le CEA pour leurs besoins propres, le reste étant servi par un centre de calcul exploité par IBM en service bureau. Même pour les constructeurs de matériel, la concurrence potentielle entre les deux offres restait théorique. Le service bureau formait ainsi un secteur relativement bien délimité et isolé des matériels, surtout depuis que le plus gros fournisseur, IBM, avait confié cette activité à une filiale spécialisée dans le cadre du Consent Decree de 1956. Même si cette mesure ne touchait que les USA, une tradition de gestion séparée s’étendit aux activités de Service Bureau d’IBM dans le monde entier. Pour offrir une bonne qualité de service, les centres de traitement devaient être physiquement proches de leurs clients, ce qui découpait le marché (et le secteur) en zones de concurrence géographiques, deux centres trop éloignés n’étant pas réellement concurrents. Chacun des sous-secteurs ainsi constitués, comme d’ailleurs l’ensemble de l’industrie, était initialement concentré, comme le prédit la théorie pour les industries naissantes. En effet, les coûts d’acquisition d’un ordinateur et la rareté des compétences nécessaires pour l’exploiter constituaient des obstacles à l’entrée suffisants pour décourager les candidats sur un marché encore perçu comme étroit. Pour les mêmes raisons, l’offre la plus naturelle était une offre intégrée associant aux produits (ou pseudo-produits) nouveaux les services permettant leur utilisation, la facturation de l’ensemble étant assise sur les produits qui en formaient la part rare et chère, donc le support de la valeur.

Eclatement du Service Bureau
A partir de cette situation initiale, le coût des matériels n’a cessé de diminuer, et avec lui le prix des ordinateurs d’entrée de gamme. Cette manifestation du progrès technologique a entraîné pour le service bureau deux séries de conséquences qui ont contribué à modeler le domaine des services informatiques.

cclxv

Premièrement, la part du matériel dans la prestation globale de service n’a cessé de décroître, contraignant les offreurs à restructurer leurs tarifs en dissociant les différentes prestations, ce qui prélude à l’éclatement du secteur lui-même en soussecteurs spécialisés. Deuxièmement, la partie du marché où le service bureau et le matériel sont réellement en concurrence n’a cessé de s’étendre et l’avantage économique de l’acquisition de matériel en propre n’a cessé de s’amplifier. Ceci a conduit au déclin puis à la disparition quasi-totale du marché du traitement partagé, et donc du secteur d’industrie correspondant. Dès le début des années 60, et singulièrement après l’introduction des matériels de la génération des 360, la part du personnel et du progiciel pèse de plus en plus lourd dans les coûts du service bureau et dans la facture de ses utilisateurs. Parallèlement, la diffusion des compétences et la disponibilité croissante de progiciels fait apparaître des clients qui programment eux-mêmes ou utilisent des programmes existants, et ne demandent aux sociétés de services que l’accès à la machine et une assistance minimale à son exploitation. Pour ajuster leur offre et leur facture à cette diversité de la demande, les entreprises de service sont amenées à distinguer et à tarifer séparément des prestations distinctes telles que l’assistance technique, l’écriture de programmes, l’utilisation des matériels ou celle des logiciels. A l’intérieur même du traitement, la variété des utilisations conduit à distinguer des unités d’œuvre comme le temps de traitement, l’occupation des différents niveaux de mémoire, les interventions manuelles ou l’utilisation d’unités particulières. Dans la deuxième moitié des années 60 et au début des années 70 interviennent deux phénomènes jouant en sens opposé. D’une part certains grands utilisateurs qui se sont équipés de matériels informatiques se présentent sur le marché des services de traitement pour revendre leurs excédents de temps machine en formant quelquefois à cet effet des filiales spécialisées. Cette offre nouvelle de temps de calcul brut, souvent à des tarifs marginaux, pousse à la baisse du prix du temps de calcul « nu ». En même temps, les développements techniques liés à la multiprogrammation et à l’utilisation des télécommunications et du « time-sharing » donnent naissance vers la fin des années 60 à l’idée de « computer utility » ou « distribution d’énergie informatique ». L’économie du traitement sur ordinateur obéit encore à cette époque à la « loi de Grosch » selon laquelle il revient moins cher d’exécuter un même travail sur un gros ordinateur partagé que sur un petit ordinateur dédié. De nombreux observateurs en concluent que l’informatique évoluera vers un réseau mondial dans lequel quelques très gros ordinateurs fourniront l’« énergie informatique » aux utilisateurs à travers un réseau de télécommunications. Les fournisseurs existants accélèrent alors leur conversion vers le « télétraitement », en même temps qu’apparaissent de nouveaux entrants spécialisés en « time-sharing » (Tymshare, General Electric, McDonnell, …). Ces mutations techniques modifient la dynamique concurrentielle du traitement. D’une part le recours au télétraitement efface les distances et mondialise le marché. Certains offreurs pensent même pouvoir tirer un avantage concurrentiel du décalage horaire en commercialisant sur un continent du traitement produit aux heures creuses sur un autre continent, et donc moins cher que le traitement local durant les heures ouvrables. Sur le marché élargi ainsi créé par l’utilisation des télécommunications, la loi de Grosch et les économies d’échelle qu’elle implique donnent un avantage

cclxvi

concurrentiel aux plus grands offreurs et favorise l’essor d’entreprises de taille mondiale. Toutes ces évolutions poussent à séparer de plus en plus les prestations de traitement sur ordinateur proprement dites des prestations dites « intellectuelles » de développement et d’assistance. Parallèlement, tout au début des années 1970, une séparation analogue entre en vigueur du côté des produits sur l’initiative d’IBM (voir chapitre 2). Nous avons vu que l’ambition stratégique d’IBM à cette occasion n’est pas de dominer le nouveau marché des services qu’elle vient de créer, mais bien plutôt de se décharger de la masse des tâches de support aux clients en les transférant sur des entreprises de service. Un nouveau secteur des services « intellectuels », portant essentiellement sur le développement de programmes d'application et la mise en place de systèmes complets, se met ainsi en place aussi bien comme une évolution naturelle des Sociétés de Service Bureau que par apparition de nouvelles firmes spécialisées. Pour ce dernier type de services, la proximité physique du prestataire et du client reste souhaitable et l’échelle optimale de production est rapidement atteinte même sur un marché local. Ce secteur conserve donc une structure dispersée tant sur le plan géographique qu’à l’intérieur même de chaque marché local. Les années 70 voient l’essor des Sociétés de Service en Informatique, en même temps que leur diversification. De nouveaux acteurs, souvent en provenance d’autres secteurs industriels comme les banques, l’industrie ou les télécommunications, adoptent des stratégies de spécialisation selon deux directions principales : assistance technique et développement d’applications d’une part, distribution d’énergie informatique et accès à des bibliothèques de programmes d’application d’autre part. De leur côté, les grandes entreprises traditionnelles de service bureau tentent pour la plupart de conserver leur statut de généralistes en offrant l’ensemble des prestations, tout en se structurant souvent en unités spécialisées dans chacun des grands types de prestations ci-dessus.

Déclin et disparition
Mais dans la deuxième moitié des années 70, le marché du traitement sur moyens partagés, qui avait été à l’origine de tout le secteur des services, va progressivement s’étioler jusqu’à disparaître au milieu des années 80. Cette érosion progressive est la conséquence directe de l’amélioration continue du rapport performances-prix des matériels et en particulier de la puissance croissante des matériels d’entrée de gamme tels que les mini-ordinateurs, et plus tard les micros. De plus, partager un gros ordinateur entre des utilisateurs indépendants implique des coûts de coordination et de protection qui s’ajoutent aux coûts de transmission inhérents au télétraitement, si bien que la célèbre « loi de Grosch » se renverse : il devient plus économique d’exécuter un programme sur la plus petite machine qui puisse l’accueillir que sur un gros ordinateur partagé. Au fur et à mesure qu’un plus grand nombre d’utilisateurs s'équipe de moyens propres adaptés à leurs besoins, le marché du traitement partagé se réduit pour finir par disparaître vers la fin des années 80. Les entreprises qui opéraient dans ce secteur sont condamnées à se reconvertir sous peine de disparition. Celles qui avaient su anticiper en séparant à temps leurs tarifs

cclxvii

et leurs prestations peuvent purement et simplement abandonner le secteur sans trop de dommages, surtout si le traitement ne représente qu’une part marginale de leur revenu. Les autres entreprises, dont la profitabilité repose sur la vente de services de traitement, doivent faire face à la régression de leur chiffre d’affaires tout en réorientant leur personnel d’exploitation vers des activités nouvelles. Elles empruntent pour cela plusieurs voies selon leur situation et leur vision de l’avenir, en cherchant à tirer avantage d’un au moins de leurs actifs liés au traitement : –possession de moyens de calcul et de stockage puissants, –maîtrise d’un réseau de transmission de données, –compétences en ingénierie et en exploitation de grands systèmes, –compétences et logiciels concernant des applications ou des clientèles spécifiques. Pour un petit nombre d’entreprises, le traitement informatique sur moyens partagés n’est que le support d’un savoir-faire applicatif concernant les besoins d’une clientèle particulière comme les experts-comptables (CCMC) ou les agents d’assurances (Policy Management), ou encore des opérations qui sont par nature communes à plusieurs entreprises comme le traitement des cartes bancaires (Sligos en France, First Data aux USA). Tant que leur marché particulier résiste à la démocratisation des moyens informatiques, ces entreprises peuvent persévérer dans leur activité de traitement partagé, mais leur avantage concurrentiel est de plus en plus lié à leur connaissance des besoins applicatifs et de moins en moins à leur compétence informatique. De ce fait, même si le recours à des moyens partagés reste une alternative viable, ces entreprises sont de plus en plus menacées par la concurrence de firmes en provenance de l’industrie cliente, tandis que leurs possibilités d’évolution sont de plus en plus limitées au secteur client. Au total, leur comportement devient dicté par leurs interactions avec l’industrie cliente plus que le secteur des autres services informatiques. Pour ce qui concerne leur comportement concurrentiel et la dynamique industrielle qui en résulte, ces firmes quittent l’industrie informatique pour se lier de plus en plus étroitement à l’industrie cliente. Certaines retardent l’échéance en se concentrant sur les super-ordinateurs, mais le haut de gamme lui-même finit par succomber à la démocratisation des matériels. D’autres pensent pouvoir exploiter leur réseau et leurs moyens centralisés en offrant l’accès à des bases de données. Mais elles s’aperçoivent rapidement que c’est dans la création et la tenue à jour des informations que résident l’essentiel de la valeur de la prestation ainsi que de ses coûts, ce qui transfère le pouvoir relatif aux producteurs de ces informations. Les sociétés de services informatiques qui s’engagent dans cette voie sont rapidement réduites à un rôle d’ingénieristes et d’opérateurs pour le compte des producteurs d’informations. D’autres encore comme General Electric, Tymshare ou IBM se replient sur des offres directement liées à la gestion des télécommunications comme la messagerie ou le transfert de fichiers. Tout comme dans le cas des services informatisés, elles quittent alors l’arène concurrentielle de l’informatique pour entrer dans celle des télécommunications en se posant en concurrents des grands opérateurs traditionnels.

cclxviii

C’est dans ce contexte qu’intervient le débat sur les « services à valeur ajoutée », lancé aux USA dans le cadre des projets de nouvelle réglementation des télécommunications (appelés à tort « déréglementation »). La question est de savoir dans quelle mesure l’utilisation des lignes louées doit être réservée au locataire, ou si ce dernier doit être autorisé à permettre à des tiers d’accéder à ces lignes, et si oui à quelles conditions. Les opérateurs de télécommunications voient dans cette possibilité de cession à des tiers une grave menace pour leur structure tarifaire et leur équilibre financier. Ils cherchent donc à la limiter, alors que l’ensemble des utilisateurs de télécommunications, et au premier chef les grandes entreprises de toutes les branches, souhaitent la plus grande liberté. Dans ce débat, les Sociétés de Service en informatique vont jouer un rôle inattendu. Le repli de certaines sociétés de traitement sur des prestations très liées à leur réseau existant est interprété par les opérateurs de télécommunications comme le prélude à une concurrence dans leur propre secteur. Les manœuvres d’IBM dans ce même domaine raniment même les vieux fantasmes du réseau informatique mondial. Sur l’utilisation des lignes louées, les Sociétés de service adoptent naturellement une position très libérale qui reflète soit le désir de ne pas compliquer encore leur désengagement du traitement, soit leur communauté d’intérêts avec leurs clients dans le cas des entreprises d’ingénierie. Mais cette position renforce la conviction des télécommunicants que les Sociétés de service informatique (et IBM) n’attendent que la libéralisation des communications pour s’engager dans une stratégie agressive de mise en place de « réseaux à valeur ajoutée ». Il n’est pas certain que la controverse surréaliste qui suivit ne resurgisse pas à propos des « autoroutes de l’information »... Ce résumé d’une trentaine d’années d’histoire des services de traitement sur ordinateur montre sur une période relativement courte tout un cycle de vie et de mort d’un secteur industriel, comme dans un film accéléré. Conformément à la théorie, le secteur naît intégré et concentré, puis les firmes se spécialisent et le secteur se fragmente avec la croissance du marché. La phase de maturité puis de régression du marché provoque le retour d’une structure concentrée quand le nombre de firmes opérant dans le secteur diminue. Mais en parallèle, quelques entreprises qui opéraient dans des niches particulières survivent en s’intégrant aux secteurs d’industrie avec lesquels elles entretenaient des relations privilégiées. En volant en éclats devant la concurrence des matériels, le secteur disparu du traitement laisse derrière lui des fragments qui s’agrègent en quelque sorte avec d’autres industries. Actuellement, les statistiques font encore apparaître dans les services informatiques un peu plus de 15% de traitement, en baisse régulière au rythme de 1 à 2% par an. D’après l’identité des firmes concernées, il s’agit en réalité de services d’application informatisés comme la gestion des transactions par cartes de paiement, ou les services aux experts-comptables ou aux agents d’assurances. Ces prestations figurent dans les statistiques relatives à l’industrie informatique dans la mesure où elles sont fournies par des entreprises cataloguées comme sociétés de services en informatique, alors que d’autres services applicatifs comparables tout aussi informatisés n’apparaissent pas car ils sont fournis par d’autres entreprises. On pourrait en citer de nombreux exemples dans le domaine des messageries, des bases de données, du commerce électronique, ne serait ce qu’Internet ou Compuserve. Autrement dit, la

cclxix

présence du traitement dans les services en informatique est essentiellement un archaïsme statistique. L’exemple des services de traitement illustre aussi les relations de dépendance étroite qui unissent le secteur des services à celui des produits. D’une part le marché des services est créé par celui des produits, et d’autre part c’est la concurrence entre produits et services pour la satisfaction du même besoin qui mène certains services à la régression et à la disparition. Notons que dans cette concurrence, contrairement aux thèses « post-industrielles » que nous avons évoquées au chapitre 10, c’est la modalité « produits » qui l’emporte sur la modalité « services ». Peut-on dire pour autant que le progrès technologique, en mettant les produits informatiques à la portée de tous les utilisateurs potentiels et en éliminant les économies d’échelle, a définitivement rendu obsolètes les services de substitution comme le service bureau ? C’est une des façons d’aborder la question des nouvelles formes de service apparues – ou réapparues – récemment sous le titre générique de « facilities management » ou infogérance. Ces prestations se rattachent aux services de substitution dans la mesure où c’est le prestataire et non l’utilisateur qui possède les moyens informatiques et en assume la responsabilité permanente d’exploitation pour le compte de ses clients. Comme le traitement partagé, ce service est pour le client une alternative à l’acquisition de produits, et la firme de services a (sous certaines réserves) la possibilité de partager certains moyens entre plusieurs de ses clients. Considérés sous ce seul angle, les services de « facilities management » pourraient difficilement trouver une justification économique, et les mêmes raisons qui ont conduit à la disparition du service bureau devraient en limiter le marché à des niches extrêmement étroites. Mais le « facilities management » peut également se présenter comme une tentative de réintégrer en une prestation globale non seulement les services d’exploitation, mais aussi des services de nature différente comme le développement de logiciel, la maintenance, l’aide à l’exploitation, etc. Pour cette raison, nous différerons la discussion sur ces formes de service, qui font l’objet de vives controverses, pour y revenir après avoir examiné les services de support.

Les services de support
Après la quasi-disparition des services de traitement, les services en informatique sont pour l’essentiel des services dits « intellectuels » : conseil, assistance, formation, développement de logiciel, ingénierie de systèmes, intégration de systèmes. Rappelons que le présent chapitre se limite aux services utilisés pour la mise en œuvre de systèmes informatiques, à l’exclusion des services applicatifs informatisés. Les grandes entreprises spécialisées dans le service, comme d’ailleurs les constructeurs de matériel présents dans ce secteur, ont cherché à offrir toutes ces prestations ou à évoluer de l’une à l’autre en réponse aux demandes du marché. Or même les formes de services « intellectuels » présentent entre elles suffisamment de différences pour exiger des structures, des systèmes de management et des cultures d’entreprise différentes. De plus, la nature même des activités de services met l’ensemble de l’entreprise au contact direct du marché et rend sa performance

cclxx

étroitement dépendante de l’adéquation de sa personnalité d’entreprise aux attentes du marché. Les différences culturelles prennent donc une importance plus grande que pour des activités de production classique où l’appareil de production est isolé du marché. Elles expliquent les difficultés que rencontrent les entreprises qui cherchent à faire coexister des activités de nature différente, où à entreprendre des activités nouvelles étrangères à leur personnalité de base. Elles contribuent à structurer le domaine des services en secteurs distincts entre lesquels il est difficile d’évoluer, et à dessiner l’évolution probable du secteur. Nous avons présenté au chapitre 9 les racines de ces problèmes de compatibilité. Examinons-les plus en détail sur les exemples caractéristiques de l’assistance technique d’une part, du développement d’autre part.

Caractéristiques et économie
Pour le développement comme pour l’assistance, les coûts de production sont constitués presque exclusivement de coûts de personnel ou de coûts directement liés au personnel (locaux, équipement individuel, fournitures, …). Les investissements sont faibles et peuvent pratiquement être réduits à zéro grâce à des formules de location pour les locaux et les équipements. Les obstacles à l’entrée se limitent à l’acquisition individuelle des compétences nécessaires, il est possible à une petite entreprise d’être compétitive, et les économies d'échelle potentielles sont limitées. On a donc affaire à des secteurs dispersés où il faut s’attendre à des marges faibles. Les activités de conseil s’assimilent à l’assistance en termes de structures de production. La différence fondamentale entre assistance et conseil d’une part, développement de logiciel, ingénierie de systèmes, et intégration de systèmes d’autre part réside dans la nature des engagements contractuels pris par le prestataire : engagement de moyens dans le premier cas, engagement de résultats dans le second. L’ingénierie de systèmes diffère du développement de logiciel par le fait qu’elle aboutit à la fourniture d’un système complet comprenant du matériel, et est communément appelée « intégration de systèmes » si le matériel comprend des éléments hétérogènes en provenance de constructeurs différents. Mais nous verrons que ces activités ne sont pas fondamentalement différentes au plan des personnalités d’entreprise. L’assistance technique se résume à mettre à la disposition du client des personnes possédant la compétence souhaitée. Ces personnes sont intégrées dans les équipes du client qui assume la direction de leur travail. La prestation est facturée proportionnellement au temps passé selon un tarif horaire lié au niveau de compétence. Autrement dit, les recettes du prestataire sont directement proportionnelles au temps passé par chacun des intervenants, quels que soient la nature, la qualité et les résultats de leur travail. Dans le cas du développement au contraire, la facturation est assise sur l’obtention de résultats spécifiés dans le contrat, le plus souvent indépendamment de l’effort réellement dépensé pour les atteindre.

cclxxi

Il en découle que les tactiques et les stratégies qui doivent être adoptées pour réussir face à la concurrence sont radicalement différentes pour les deux catégories de prestations, ainsi que les organisations et les cultures d’entreprise qui doivent être implantées pour sous-tendre ces stratégies. L’activité d’assistance peut opérer à très petite échelle, même celle de l’individu isolé. La structure de ce secteur est donc extrêmement dispersée et le jeu de la concurrence se rapproche du modèle « pur et parfait ». En particulier, les prix de marché résultent de la confrontation de l’offre globale et de la demande globale et s’imposent à chaque offreur. De plus, la nature même de l’activité impose une proximité physique entre les fournisseurs et leurs clients. Toutes les firmes en concurrence sur un marché donné opèrent donc dans la même région et supportent des coûts de personnel identiques. Des firmes compétitives, c’est à dire qui respectent une même rigueur de gestion, sont amenées à pratiquer des tarifs presque identiques et ne peuvent donc guère se différencier que par les compétences individuelles de leurs collaborateurs. Exploiter une telle différenciation peut supposer que l’entreprise choisisse un créneau particulier pour s’y spécialiser afin de bénéficier d’effets d’apprentissage. En tout état de cause, les firmes même efficaces ne réaliseront que des marges faibles dont elles peuvent limiter les variations à l'intérieur d'une fourchette étroite en gérant convenablement leurs ressources en personnel. Dans le cas de l’assistance technique, la seule tactique consiste à maximiser le temps facturé pour chaque personne et à réduire au minimum les effectifs « improductifs » comme l’encadrement et l’administration. Au plan stratégique, il faut prévoir correctement la demande future probable et lui ajuster les effectifs en nombre, en compétence et en qualité. Cette prévision peut être facilitée si l’entreprise se limite à un créneau particulier. De toute façon, une erreur éventuelle peut être corrigée assez rapidement si l’entreprise conserve une souplesse suffisante dans la gestion de ses effectifs. Le cycle de fonctionnement de l’activité d’assistance est donc court. Dans l’activité de développement, il faut d’abord gagner des affaires en proposant une offre plus attractive que celle des concurrents, puis satisfaire les engagements contractuels sans dépasser les coûts prévus. En règle générale, le client pose un problème pour lequel l’offreur doit proposer une solution technique dont il estime les coûts et les performances, et un projet de réalisation dont il estime les coûts et les délais. Par cette proposition, l’offreur s’engage à atteindre certains résultats explicitement spécifiés dans des délais et pour un prix qui peuvent être soit estimatifs et sujets à révision selon des procédures contractuelles, soit fixés de façon définitive par le contrat. Le client choisit son fournisseur en comparant les propositions concurrentes, ce qui poussera souvent à proposer un service maximum pour un prix minimum, surtout si le client est une administration où le contrat est adjugé au moins disant. Une fois le contrat obtenu, le revenu repose sur le respect des engagements et sur les résultats obtenus, tandis que les coûts dépendent des ressources réellement consommées pour atteindre ces résultats. Obtenir en fin de compte que le solde des deux fasse ressortir un profit positif exige de grandes compétences à la fois en conception de systèmes informatiques, en estimation de projets, et en conduite de chantiers.

cclxxii

Toutes ces compétences sont normalement le fruit de l’expérience, mais elles doivent souvent être acquises et entretenues au prix d’investissements spécifiques. Ces investissements peuvent impliquer l’acquisition ou le développement de matériels ou de logiciels qui incarneront cette compétence et autoriseront à présenter des propositions plus attractives et plus crédibles que la concurrence. Les obstacles à l’entrée sont donc plus sérieux que pour la simple assistance. La préparation des propositions exige elle-même un travail non négligeable, qui peut devenir important dans le cas de problèmes complexes. Les dépenses correspondantes doivent bien entendu être engagées par l’entreprise avant de savoir si la proposition sera acceptée, et constituent donc un investissement au plein sens du mot, qui doit être financé par la facturation des affaires effectivement réalisées. Enfin, les nombreux facteurs d’incertitude font peser un risque sur la profitabilité de chaque projet, qui ne peut être supporté que par des entreprises de taille suffisante pour absorber les échecs éventuels en mutualisant ces risques sur l’ensemble de leur activité. Au total, le secteur du développement, et a fortiori de l’intégration de systèmes, est un secteur plus concentré où la taille représente un avantage concurrentiel. En revanche, la probabilité statistique d’échec ou de réussite de chacun des projets maintient la profitabilité moyenne probable du secteur au même niveau modeste que pour l’assistance, avec toutefois une plage de variation plus ouverte allant de la faillite rapide pour les uns à l’espoir de marges confortables pour les firmes les plus compétentes ou les plus chanceuses.

La relation client-fournisseur
Nous avons vu au chapitre 11 que les modalités de la relation client-fournisseur constituent l’une des dimensions suivant lesquelles les services se distinguent des produits, et les divers types de services entre eux. Les prestations d’assistance représentent un service typique dans la mesure où elles consistent simplement à mettre une ressource de production à la disposition du client sans aucun engagement de résultat, et pour une facturation proportionnelle au temps de mise à disposition. Au contraire, un contrat de développement ou d’intégration repose sur la définition du résultat recherché, et prévoit le transfert définitif au client d’un bien dont la définition a été négociée entre lui et le prestataire. Cette définition pourrait en principe servir de base à l’établissement d’un prix convenu d’avance et transférer au prestataire les risques positifs et négatifs liés à la bonne fin du projet. La concurrence entre offreurs porterait alors d’une part sur le prix proposé, au moment de la lutte pour l’obtention de contrats, et d’autre part sur la gestion des projets, pour assurer la profitabilité et donc la survie de l’entreprise. Or la réalité est moins simple, et ce type de contrats forfaitaires est loin d’être la pratique courante du secteur. La réalisation d’un projet de développement informatique de quelque envergure, et a fortiori d’un projet d’intégration de systèmes, peut durer plusieurs années au cours desquelles il faut répondre de façon concrète à une multitude de questions qui n’avaient pas été traitées au moment de la conception d’ensemble. Chacune de ces décisions pratiques peut avoir des conséquences importantes en termes d’utilité, de facilité

cclxxiii

d’emploi, de fiabilité, de performances ou de coût d’utilisation pour le client, mais aussi de coût et de délai de réalisation. De plus, la conception détaillée et la réalisation du système font intervenir un nombre croissant de personnes qui étaient absentes de la phase initiale de conception générale, qui ne se considèrent pas comme engagées par les spécifications et le contrat d’origine et dont les desiderata peuvent d’autant moins être ignorés qu’il s’agit en particulier des véritables utilisateurs du système. Beaucoup ont cru, et certains croient encore, que la solution consiste à pousser l’étude initiale suffisamment loin pour que toutes les décisions de réalisation susceptibles d’avoir une incidence sur le coût ou les délais aient été prises avant la signature du contrat. Cette approche est doublement illusoire : elle entraîne des délais et des coûts prohibitifs pour l’étude préliminaire et risque de ce fait de conduire à l’élimination des offreurs les plus honnêtes. De plus, les conclusions d’une telle étude seront de toute façon remises en question. D’une part l’environnement évolue pendant le projet, et avec lui les besoins fonctionnels, les moyens et les technologies disponibles et les idées de solution. D’autre part les utilisateurs ne peuvent souvent pas expliciter leurs demandes au niveau de détail nécessaire avant d’avoir vu une première réalisation, qui provoquera tout à fait légitimement des demandes nouvelles ou des modifications par rapport aux demandes précédentes. La nature même des applications informatiques veut que la complexité du produit final interdise toute spécification exhaustive et fiable a priori, et que les besoins réels ne se révèlent que progressivement dans le cours même du développement. Dans ces conditions, mettre en place des dispositions visant à empêcher toute déviation par rapport aux spécifications initiales, quelle que soit la qualité de celles-ci, ne peut aboutit qu’à un produit final inadapté aux besoins réels et aux préférences de ses utilisateurs et donc voué à un échec certain. Il faut accepter l’idée que la définition du système ne peut être que progressive et qu’il n’existe pas de moyen de déterminer d’avance avec certitude les coûts et les délais. La proposition initiale ne peut être qu’indicative et le contrat doit être conçu avant tout comme un cadre pour l’établissement progressif des spécifications réelles et des avenants financiers. Pour les sociétés de service, il ne suffit plus d’ajuster correctement les moyens à la demande probable en réduisant au minimum les effectifs « non-productifs » par nature ou par défaut de charge, tout en faisant preuve de modération dans les coûts de personnel. Il faut en plus estimer les coûts des projets de façon raisonnable non seulement lors de la proposition initiale, mais aussi tout au long de leur vie en fonctions d’attentes changeantes du client. Il faut aussi savoir négocier l’ajustement réciproque des coûts contractuels et des spécifications, tout en respectant les engagements pris tant envers le client sur les résultats qu’envers l’entreprise sur les coûts, et ne pas être amené à fournir une prestation étendue sans facturation supplémentaire. La profitabilité finale d’une affaire dépendra donc à la fois des compétences de l’entreprise dans les domaines de l’estimation et de la gestion de projets, de la bonne affectation des personnes au projet, de leur savoir-faire technologique et de leur productivité. Cette situation est génératrice de conflits entre le client et le fournisseur, mais également entre motivations différentes à l’intérieur même de l’organisation cliente. Toutes les modifications de la demande qui interviennent dans la vie du projet doivent faire l’objet d’un arbitrage entre leur coût et leur intérêt afin de décider de la suite à leur

cclxxiv

donner. Or seul le client peut valablement prendre cette décision puisque c’est lui qui en reçoit in fine le bénéfice et doit donc en supporter le coût. Il conserve ainsi une responsabilité importante de maîtrise d’ouvrage quels que soient les termes du contrat. Mais si le client n’est pas préparé à exercer cette responsabilité dont il a cru se décharger sur son fournisseur, ou si le conflit d’intérêts interne est trop vif, la tentation est grande de l’évacuer en rejetant la responsabilité sur le fournisseur. Dans leur ensemble, ni les clients ni les prestataires ne savent vraiment concilier la réalité de situations où le projet réel se définit en cours de réalisation avec les cadres contractuels applicables à d’autres formes de réalisation. Les sociétés de service qui s’engagent sérieusement dans cette voie apprennent assez vite qu’une gestion évolutive des spécifications et du contrat est la seule approche réaliste, mais il leur est difficile de présenter sur cette base des offres compétitives. Pour ne pas perdre systématiquement les affaires, elles doivent s’aligner sur les pratiques de leurs concurrents moins expérimentés ou moins scrupuleux. Au total, le marché n’est pas mûr pour des offres de développement au forfait et continue à chercher des voies de solution à ce problème.

Structure et système de management
Dans l’activité d’assistance technique, chaque individu est facturé indépendamment des autres et constitue donc l’unité de base de la gestion (la « business unit »). Il existe d’ailleurs dans ce secteur un grand nombre de travailleurs indépendants et de micro-entreprises qui fonctionnent de fait comme des associations de quelques travailleurs indépendants. Dans les entreprises assez importantes pour justifier une véritable organisation hiérarchique, seules quelques tâches administratives et commerciales sont centralisées au niveau de l’encadrement de chaque équipe ou à celui de l’entreprise tout entière. Pour l’essentiel chacun gère ses propres activités, et l’encadrement n’intervient qu’en cas de problème, par exemple de rupture de charge. Chaque équipe de base regroupe une certaine panoplie de compétences généralement adaptée aux besoins d’un groupe de clients. La base de la différenciation est donc à la fois la spécialisation des compétences et la structure du marché. A l’intérieur de chaque équipe, chacun se vend aussi bien qu’il produit. L’activité commerciale est indistincte de l’activité de production, même si elle est un peu plus importante chez les chefs de groupe. Mais le rôle spécifique de ces derniers est essentiellement administratif et ils n’ont aucune part à la définition et à l’affectation des tâches des personnes qui leur sont rattachées. De la même façon, les services centraux de l’entreprise sont réduits au minimum. Tous y compris les dirigeants rejettent les structures centrales « improductives », et chaque unité a le sentiment qu'elle fonctionnerait mieux seule. La gestion opérationnelle se réduit à vérifier que tous les collaborateurs sont engagés dans des activités facturées au tarif normal, et que l’ensemble dégage une marge positive. A chaque unité de quelque niveau qu’elle soit, voire à chaque individu, peut être valablement associé un compte d’exploitation homologue à celui d’une entreprise. Le système de gestion le plus efficace consiste à décentraliser au maximum tous les actes de gestion courante tout en suivant au jour le jour le compte d'exploitation de chaque unité. Au total, l'entreprise fonctionne comme un conglomérat de petites

cclxxv

unités autonomes, chacune gérant son propre compte d'exploitation comparable à celui d’une entreprise indépendante et homogène à celui de l'entreprise tout entière. Dans une entreprise qui se consacre entièrement à l’assistance, le rôle de la Direction n’est pas fondamentalement différent de celui de l’encadrement intermédiaire. La structure même de l’entreprise est stable et les dirigeants n’ont pas à régler de problèmes d’organisation. L’ajustement des ressources à l’orientation du marché peut largement être décentralisé au niveau des unités de base, qui ont tout intérêt à rester en phase avec les besoins prévisibles de leurs clients. A cause de l’ambiguïté de l’organisation, la Direction peut avoir à intervenir dans des conflits potentiels entre unités, soit lorsque l’une d’entre elles cherche à vendre ses compétences à des clients traditionnels d’une autre, soit au contraire lorsqu’elle doit faire appel à d’autres unités pour satisfaire certains besoins de ses clients. Au total, pour reprendre les concepts que nous avons présentés dans le chapitre 9, la firme d’assistance se caractérise par une organisation homogène à tous les niveaux, très peu différenciée et donc peu intégrée. Pour l’activité de développement ou d’intégration, l’unité de gestion est le projet et non plus l’individu. Ceci impose une structure beaucoup plus complexe que pour l’assistance. Tout d’abord, l’activité commerciale et l’activité de réalisation sont beaucoup plus distinctes. Alors que la réalisation peut mettre en jeu un grand nombre de personnes de qualifications très diverses sur une longue durée, la préparation d’une proposition et la vente proprement dite font intervenir un nombre limité de personnes, généralement de plus grande compétence et expérience, pendant un temps relativement bref. De plus, les propositions ne sont pas toutes suivies d’une commande et de la mise en place du projet de réalisation, si bien que l’activité commerciale doit pouvoir être menée dans une structure différente de la structure de réalisation des projets. Quand une proposition est couronnée de succès et que la réalisation est lancée, l’équipe de réalisation doit être composée selon les besoins spécifiques du projet et peut varier au cours du temps. Les personnes nécessaires doivent pouvoir être puisées dans un réservoir de compétences et y retourner quand leur participation au projet est terminée. Certaines ressources (compétences ou autres moyens) peuvent être partagées entre plusieurs projets et donc appartenir à des unités de support distinctes des projets. La structure de l’entreprise doit donc faire coexister une structure de projets, variable au cours du temps selon les projets en cours et leur degré d’avancement, et une structure de centres de ressources qui représente la permanence de l’entreprise et le rattachement de base des personnes. De plus, il est courant que les projets en cours de réalisation et les projets en phase de proposition commerciale soient traités dans deux structures différentes. Enfin, le besoin de compétences critiques, de savoir-faire particuliers ou d’investissements d’utilité générale peut justifier l’existence de services de support centralisés. La gestion opérationnelle doit viser simultanément plusieurs objectifs : au niveau de chaque projet en cours de réalisation, respecter les engagements pris envers le client, qu’il s’agisse des fonctions ou des performances du système, des délais de réalisation ou des coûts induits pour l’utilisateur, et par ailleurs maintenir la consommation de ressources dans le cadre des estimations qui ont servi à la fixation du prix. Au niveau de

cclxxvi

l’ensemble de l’entreprise, l’objectif est d’assurer le plein emploi des ressources en les affectant judicieusement aux projets et en disposant d’un volant de propositions en cours cohérent avec la disponibilité actuelle et prévue des ressources. Le système d’information doit donc porter aussi bien sur l’avancement des réalisations et la probabilité d’atteindre les objectifs techniques et de respecter les délais que sur la comptabilisation des ressources consommées, l’identification des ressources disponibles et le suivi des propositions en cours. Contrairement à l’entreprise d’assistance où le rôle de l’encadrement est de même nature dans tous les postes et à tous les niveaux, les unités et donc leurs responsables jouent ici des rôles différenciés qui supposent un dispositif et des efforts d’intégration aux niveaux supérieurs. Aux niveaux le plus bas, les tâches, les ressources et les délais sont définis et le responsable doit faire en sorte que les tâches assignées soient exécutées dans les délais avec les moyens affectés. Le chef de projet, quant à lui, a pour responsabilité principale d’affecter correctement les tâches et les ressources de façon à atteindre les résultats contractuels dans les délais et au moindre coût, et cela de façon dynamique selon la situation réelle du projet. Le rôle de ces responsables d’exécution est donc principalement technique. Les rôles commercial et administratif qu’ils jouent dans les relations respectives avec le client et le reste de l’entreprise sont assis sur ce rôle technique. Dans l’entreprise d’assistance, aucun exécutant n’est amené à prendre d’engagements importants au nom de toute l’entreprise. Dans le développement au contraire, chaque individu peut engager lourdement toute l’entreprise, par exemple en concevant une architecture de système ou en chiffrant le coût et le délai d’une réalisation. A cause de leurs conséquences potentielles pour l’entreprise tout entière, certaines de ces décisions devront être réservées au niveau de responsabilité approprié, ce qui suppose un système explicite de limitations et de délégation de pouvoir, complété par un système de contrôle et d’approbation formalisé. Chaque échelon de la hiérarchie n’est plus libre de ses décisions, mais doit solliciter des approbations et se soumettre à des contrôles extérieurs qui amènent souvent les Dirigeants à intervenir dans le détail des affaires. L’intervention directe des échelons supérieurs et des dirigeants est également nécessaire pour apprécier les risques commerciaux et techniques pris dans les propositions, pour arbitrer les conflits entre unités dans l’affectation des ressources, et pour gérer les désaccords avec les clients. Pour la direction de l’entreprise, ces responsabilités opérationnelles s’ajoutent à ses responsabilités stratégiques. Au total, la firme de développement ou d’intégration possède une organisation différenciée au sens de Lawrence et Lorsch , qui nécessite des mécanismes d’intégration assez forts.
57

Valeurs et culture
Dans les entreprises de services à forte composante humaine, chaque collaborateur intervient dans la relation avec le client et contribue donc à l’image de
57

voir Chapitre 9

cclxxvii

l’entreprise. De plus, chacun des collaborateurs, même à des échelons modestes, est à l’origine de décisions vitales pour le succès de l’entreprise, pour lesquelles il est seul à détenir l’information ou la compétence nécessaires. Enfin, il opère souvent loin du cadre de son entreprise, sans supervision étroite ni en sens inverse possibilité de recours à son encadrement en cas de difficulté. Chaque collaborateur doit donc régler son comportement personnel sur un certain nombre de normes, de principes et de valeurs qui constituent la culture de l’entreprise. Pour l’assistance technique, l’objectif de chacun doit être de posséder des compétences suffisamment reconnues pour faire l’objet d’une forte demande du marché, donc être vendues à un prix élevé et en grande quantité. La réussite est mesurée directement par le pourcentage de temps facturé, qui résume le jugement des clients sur l’adéquation des compétences, l’utilité et la qualité du travail fourni. Mais ces derniers critères ne sont pas des objectifs indépendants ou des valeurs en soi. A la limite, peu importe que le travail soit inutile, de mauvaise qualité ou médiocrement productif tant que le client paie de bonne grâce. Il est recommandé de rester le plus longtemps possible chez chaque client, ce qui suffit à prouver l’utilité du travail et la satisfaction du client, tout en évitant les temps morts non facturés et les frais commerciaux de recherche de nouveaux contrats. Chacun s’attachera donc à susciter de nouveaux besoins qui justifient de prolonger son séjour. Le temps passé est une valeur positive, et doit être maximisé. Dans l’assistance technique, chaque employé est détaché auprès d’un client et intégré à une des ses équipes. Par rapport à l’entreprise à laquelle il appartient, il travaille de façon individuelle et n’a que peu de relations professionnelles avec ses collègues dont il ne se sent pas fortement solidaire. La culture dominante de la firme est individualiste. Tout au plus chaque individu se sent-il proche de la petite équipe dont il fait partie, mais à son tour cette équipe et son chef se sentent et se veulent indépendants et ressentent plus l’entreprise comme une source de contraintes et de servitudes que comme un environnement favorable. En revanche, la notion de compte d’exploitation et le souci de l’équilibrer sont communs à tous. Bien que l’identification à l’entreprise soit faible, la culture est homogène dans toute l'entreprise. Il peut arriver que l’employé d’une entreprise d’assistance technique s’identifie à son client plutôt qu'à l'entreprise qui l’emploie, ce qui peut créer un risque potentiel sur la gestion du temps et sur la facturation. Ce lien très lâche entre la firme et ses employés entraîne une faible fidélité et une mobilité importante du personnel. A l’inverse, aucun des individus n’est critique pour l’entreprise et leur fidélité n’est pas vitale. L’entreprise peut sans grand risque adopter une politique sociale et une gestion du personnel très contraignantes afin de conserver des prix de revient modérés et la souplesse nécessaire dans la gestion des effectifs. Dans le développement, les tâches de chacun sont affectées et contrôlées par un supérieur hiérarchique appartenant à l’entreprise, et le travail a souvent lieu dans les locaux de l’entreprise. Chacun est jugé par ses patrons et non par le client, sur ses résultats et non sur sa compétence. Contrairement au cas de l’assistance, l’appartenance à l’entreprise est opérationnelle et sans équivoque. L’activité peut s’accommoder d’une autonomie moindre que pour l’assistance technique, mais en contrepartie les décisions individuelles sont plus complexes et d’une portée plus générale.

cclxxviii

L’activité de réalisation occupe la majorité des collaborateurs de l’entreprise et en détermine la culture de base, d’autant plus que l’activité commerciale repose sur une forte compétence en réalisation et que les personnes qui en sont chargées sont issues de la réalisation et y restent la plupart du temps impliquées. L’objectif de chacun est d’accomplir les tâches qui lui sont confiées aussi rapidement que possible et aux moindres frais tout en respectant les objectifs de fonctionnalité et de qualité. Contrairement au cas de l’assistance, le temps passé doit être minimisé et constitue donc une valeur négative. Quand une extension semble souhaitable ou est demandée par le client, il faut savoir refuser de s’y engager sans que soit proposée et acceptée une extension correspondante du contrat. Le développement est un travail d’équipe qui nécessite un esprit d’équipe d’autant plus fort que les rôles de chacun sont différenciés. Cet esprit d’équipe doit également accepter les contraintes extérieures, les contrôles et les jugements dont nous avons vu plus haut la nécessité et l’importance. Enfin, la solidarité avec le projet doit se doubler d’une identification à l’entreprise suffisamment forte pour accepter des affectations et des rattachements variables dans le temps, et qui peuvent demander une certaine mobilité physique. Parmi les conflits d’intérêts inhérents à l’activité de développement, l’un des plus cruciaux concerne l’activité commerciale. Pour gagner un contrat en situation concurrentielle, il faut promettre beaucoup pour le prix le plus faible possible, et donc souvent prendre le risque que le coût de réalisation dépasse le coût prévu et ne laisse aucune marge à l’entreprise. A l’inverse, ne pas prendre ce risque peut avoir pour conséquence la perte du contrat et donc un effet encore plus négatif sur le profit. L’activité commerciale liée au développement nécessite donc un rare sens des affaires et une grande maturité. D’une certaine façon, les qualités qui sont nécessaires pour réussir dans l’exécution d’un projet (lucidité, prudence, honnêteté, ...) sont autant de raisons potentielles de ne pas emporter les contrats. En même temps, des solutions originales dans la conception des systèmes ou dans les méthodes de réalisation peuvent constituer un avantage concurrentiel déterminant. A côté du réalisme dans les estimations et de la rigueur dans la gestion, il convient donc de favoriser également la créativité dans la définition des solutions.

Le panorama des années 90
Les pièges de l’évolution
Avec le déclin du service bureau, l’assistance technique est devenue la modalité principale du service informatique. Jusqu'aux années 90, ce secteur se développera rapidement en profitant en particulier de la pénurie de personnel compétent. Un certain nombre d’entreprises se rapprochent du progiciel en essayant de réutiliser des programmes écrits antérieurement pour d’autres clients, et en construisant une partie de leur publicité et de leur réputation sur ces développements antérieurs, présentés comme des progiciels. En réalité, ces programmes ou morceaux de programmes ont été réalisés de façon spécifique pour des clients particuliers et sont le

cclxxix

plus souvent inutilisables pour d’autres clients sans des adaptations considérables. Ils témoignent d’une compétence réelle dans le secteur d’applications concerné, peuvent permettre des économies de développement et donc autoriser des estimations plus attractives pour le client. Mais en règle générale, le logiciel existant n’est que le prétexte à la facturation de développements spécifiques et son rôle principal est de procurer un avantage concurrentiel dans la vente de prestations d’assistance. Pour aller plus loin, il faudrait que l’entreprise se dote d’une organisation adaptée au métier radicalement différent du progiciel, qui exige des investissements, qui fonctionne selon un cycle long et doit commercialiser des produits. Même réduite au départ, cette organisation devrait être adaptée aux cycles longs, c’est à dire être différenciée sur une base fonctionnelle et dotée des mécanismes d’intégration appropriés. De plus, la culture dominante dans cette organisation devrait être radicalement différente de celle du reste de l’entreprise : valoriser la vision à long terme plutôt que la rentabilité immédiate, la persévérance plutôt que la rapidité de réaction, et surtout se fixer pour objectif de minimiser le besoin d’assistance lié à la mise en œuvre des produits au lieu de la maximiser. Une autre voie où s’engagent de nombreuses firmes de service est celui des systèmes « clés en mains », aussi appelés « ingénierie de solutions ». Cette prestation consiste à proposer, pour une application donnée, une solution complète comprenant à la fois le matériel, le logiciel et l’assistance nécessaire. En ce qui concerne le logiciel et l’assistance, cette forme de prestation pose les mêmes problèmes que le pseudoprogiciel que nous venons d’évoquer, mais l’inclusion du matériel ajoute un piège subtil. En effet, les constructeurs de matériel sont à juste titre intéressés et offrent des conditions préférentielles aux firmes de service qui deviennent ainsi leurs revendeurs. La réduction que consentent les constructeurs sur l’achat du matériel est généralement supérieure à la marge réalisée sur la partie services, si bien que l’offreur de systèmes « clés en mains » est tenté de donner la priorité à la revente du matériel, en oubliant de gagner sa vie sur la part de services. Au pire, la société de services risque de se transformer en détaillant de matériel et de fournir à perte ses prestations propres, tout en négligeant souvent les activités associées au matériel telles que la logistique d’approvisionnement, la maintenance, etc. Une telle politique devient catastrophique quand la marge sur le matériel se réduit ou quand les clients préfèrent acheter le matériel séparément. D’une façon analogue, certaines entreprises tentent de répondre à la demande des clients qui souhaitent sous-traiter des projets complets sur la base d’engagements de résultats. Mais là encore, comme nous l’avons vu plus haut dans ce chapitre, réussir dans cette activité exige des compétences, une organisation et une culture très différentes de celles qui conviennent à l’assistance. Il faut non seulement disposer de chefs de projets compétents, mais leur transférer une part importante du pouvoir au détriment des chefs de groupe traditionnels, insuffler à l’entreprise une culture de coopération dont elle était jusque là totalement dépourvue, transformer les motivations des exécutants et trouver un nouvel équilibre entre centralisation et délégation. Les dirigeants doivent pouvoir s’impliquer personnellement dans le contrôle commercial et technique des affaires, ce à quoi ils ne sont pas préparés et dont ils sont le plus souvent incapables.

cclxxx

Ces exemples illustrent l’importance des facteurs organisationnels et culturels dans la réussite ou l’échec en matière de services. Pour l’entreprise d’assistance, réussir dans le progiciel ou le développement impose de mettre en place quelque part dans l’entreprise une organisation et une culture étrangères, que le reste de l’entreprise et singulièrement sa Direction auront d’autant plus de mal à tolérer que la structure et la culture sont par ailleurs homogènes. Entreprendre cette greffe exigerait une clairvoyance exceptionnelle de la Direction quant aux conditions de réussite, et lui permettre de survivre le temps nécessaire exigerait une volonté opiniâtre. Or, quand un dirigeant a réussi dans un certain type d’activités, il est bien rare qu’il admette que des activités nouvelles exigent une organisation et un management différents ce qui lui a permis de réussir jusque là. Tous croient avoir trouvé la clef du management, sans comprendre que leur clef n’ouvre que certaines serrures, et sans imaginer que tenter d’utiliser leur clef habituelle dans d’autres serrures ne peut aboutir qu’à fracturer l’une ou l’autre. Pour toutes ces raisons, et malgré leur discours promotionnel, les sociétés de services sont généralement réticentes à sortir de leurs activités traditionnelles d’assistance pour s’engager véritablement dans des activités qui exigent une plus forte prise de responsabilité. Le plus souvent, elles en méconnaissent ou sous-estiment les conditions de réussite, et donc échouent, ou bien elles se contentent de déguiser leurs prestations classiques sous le vocabulaire d’activités nouvelles. C’est pourquoi aucune société de services n’a jamais joué un rôle important dans le secteur du progiciel, et pourquoi rares sont les entreprises qui travaillent réellement sur la base de contrats de résultats forfaitaires.

La demande de services de support
Une croyance répandue et persistante est que le besoin de services de support augmente inéluctablement. Cette idée repose sur l’hypothèse implicite que les services nécessaires à la mise en œuvre d’une capacité informatique donnée resteraient à peu près constants dans le temps. Le besoin de services serait alors proportionnel à la puissance installée et croîtrait donc beaucoup plus vite que les dépenses en matériel, alors même que les nouveaux produits et les nouveaux usages font apparaître de nouveaux besoins de support. Parallèlement, la capacité des utilisateurs à assurer euxmêmes les tâches correspondantes sur le mode du « self-service » deviendrait de plus en plus insuffisante, ce qui provoquerait une explosion du marché des services. Il se trouve que si ce raisonnement est aussi ancien que l’informatique elle-même, ses conséquences annoncées n’ont jamais été constatées. En 1972, alors qu’IBM lançait son projet « Future Systems », les coûts informatiques des entreprises se répartissaient en 40% pour le matériel, 40% pour le personnel et 20% pour les divers autres postes, ce qui n’était pas sensiblement différent de la répartition des années 60. Compte-tenu de ses projets pour le matériel, IBM prévoyait alors qu’en l’absence de changements radicaux dans les méthodes et les moyens de développement et d’exploitation, la part des dépenses du marché consacrée au matériel tendrait vers zéro et la part personnel deviendrait prépondérante, induisant une forte demande de services mais aussi une restriction sévère des revenus des fournisseurs de matériel.

cclxxxi

IBM, et à sa suite tous les constructeurs, entreprirent alors des développements visant à automatiser ou à alléger les tâches du personnel en les reportant partiellement sur le matériel, principalement à travers des logiciels appropriés : aides à la programmation, aides à l’installation, aides à l’exploitation, etc. Même si le projet FS n’a jamais vu le jour, cette politique a porté ses fruits puisque plus de vingt ans plus tard, la répartition des dépenses informatiques est toujours à peu près la même alors que la puissance installée est considérablement plus élevée. Les besoins en personnel (ou en prestation de service) nécessaires pour accompagner une puissance de traitement donnée ont donc diminué à peu près dans les mêmes proportions. Schématiquement, on assiste à une migration permanente de fonctions de support depuis des services ad hoc vers des logiciels ou des produits spécifiques, puis souvent vers des fonctions incorporées dans le produit même qu’il s’agit de supporter. Par exemple, tous les grands progiciels pour micro-ordinateurs incorporent des moyens de formation et d’aide à l’utilisation qui rendent inutile de suivre des cours, voire de lire la documentation avant de commencer à les utiliser. Seuls les utilisateurs élevés dans la tradition de la « grande » informatique demandent encore à suivre des cours ou lisent la documentation ; les vrais utilisateurs d’informatique personnelle considéreraient cette obligation comme rédhibitoire et jugent au contraire la qualité d’un produit à la possibilité de l’utiliser sans formation préalable. L’explosion de l’informatique personnelle n’a d’ailleurs pas entraîné une explosion parallèle de la demande de services. L’utilisateur non-professionnel n’a pas besoin d’aide à l’exploitation, n’a pas les moyens de s’offrir des développements spécifiques et s’attend donc à ce que les produits qu’il achète soient directement utilisables. Il est probable que cette attitude se généralisera à toute l’informatique en même temps que la culture micro-informatique gagnera toute la société. Le même processus est en cours dans d’autres domaines. Il est bien avancé pour le développement de programmes avec la panoplie des outils de génie logiciel, qui se perfectionne et s’enrichit pratiquement de jour en jour. Il est également en cours pour la maintenance et la gestion des systèmes y compris les réseaux les plus complexes. Dans une première étape apparaissent des aides informatiques à l’exécution de certaines tâches, que ce soit par l’utilisateur ou sous forme de prestation de service, le plus souvent sous la forme de progiciels innovants réalisés par des laboratoires universitaires ou des petites entreprises du logiciel. A ces développements exploratoires succèdent des produits industriels ou des services informatisés assurant le service, ou la reprise de ces fonctions par des grands intégrateurs pour les incorporer dans leurs produits majeurs, ou encore des modification de ces produits pour éliminer ou réduire le besoin de service, par exemple en matière de formation ou de maintenance. Cette démarche de « productisation » des services a été constamment suivie par les constructeurs de produits, à l’origine dans le but d’éliminer des obstacles à la diffusion des produits en les rendant plus conviviaux et plus intuitifs et en simplifiant les tâches de mise en œuvre. Elle est accélérée par l’éclatement de l’industrie et ses effets favorables sur l’innovation, et par la dynamique propre du secteur du progiciel, qui d’une part autorise des innovations ponctuelles, et d’autre part permet à l’enrichissement des produits et à l’accumulation d'expérience de se réaliser sans supplément de prix au niveau du produit fini, pour autant que les volumes soient suffisants. Elle répond de plus à la demande dominante du marché de la micro-

cclxxxii

informatique où les utilisateurs se débrouillent eux-mêmes par tradition, et dont l’attitude se généralisera progressivement à toute l’informatique en même temps que les structures et les pratiques du monde PC. C’est ce phénomène qui, depuis l’origine de l’informatique, maintient les besoins en personnel et en services à un niveau à peu près constant par rapport à la dépense informatique totale, et qui a empêché l’explosion des services sempiternellement prévue par les augures. Nous avons vu qu’il n’existe aucune raison de penser que ce phénomène va s’arrêter dans les prochaines années, bien au contraire.

Les nouvelles demandes
A partir de 1990, la demande de services de support a été impactée négativement par le ralentissement général de la croissance et par la démocratisation de la compétence informatique. Dans la plupart des domaines de compétence, le personnel disponible est devenu suffisant pour qu’à la situation de rareté sur laquelle les Sociétés de service avaient prospéré succède une économie d’abondance favorable aux acheteurs et entraînant une stagnation de la demande et une baisse des prix de marché. Cette situation a été aggravée par l’irruption sur le marché des constructeurs traditionnels et des collaborateurs dont ils se sont séparés. L’activité dominante d’assistance technique, qui représente environ la moitié du chiffre d’affaires des services en informatique (hors progiciels et maintenance), est une activité à cycles courts. Les entreprises ont donc la possibilité d’ajuster rapidement leurs effectifs et leurs dépenses à la demande, pour autant qu’elles soient autorisées à se séparer des personnes dont la compétence est devenue obsolète, ou de leur trouver des voies de reconversion. L’impact sur les profits peut donc être limité. De plus, le marché reste demandeur de compétences spécifiques rares, et les entreprises qui en disposent peuvent maintenir des taux d’activité et des profits supérieurs. Le besoin du marché pour des services d’intégration croît de façon régulière avec l’éclatement de l’industrie des matériels et des progiciels. Mais nous avons vu combien il est difficile à ce besoin latent de se transformer en une demande solvable, et à l’offre de répondre à cette demande de façon efficace et profitable. Malgré cela, on peut s’attendre à de nombreuses tentatives et donc à de nombreux échecs dans ce secteur. Le nombre de firmes effectivement et durablement présentes dans l’intégration de systèmes, faible au départ, ne devrait pas croître très rapidement tans que le marché n’aura pas atteint une maturité suffisante pour juger sainement la qualité d’une proposition et accepter de rémunérer la responsabilité des fournisseurs à sa juste valeur. En termes de structure industrielle, assistance et intégration restent deux secteurs différents, même si certaines grandes firmes sont présentes dans les deux. L’assistance s’accommode d’échelles de production très faibles et forme donc un secteur très dispersé peuplé d’une multitude de petites entreprises. Comme nous l’avons vu, l’intégration exige une taille d'entreprise supérieure et présente de nombreux et sévères obstacles à l’entrée. C’est donc un secteur plus concentré, mais où les marges, qui devraient théoriquement être supérieures, sont en pratique limitées par l’immaturité du marché. C’est probablement ce qui explique l’évolution des plages de profitabilité que

cclxxxiii

nous avons présentée au début de ce chapitre. Sous l’effet de la récession, les minima passent sous zéro, mais les maxima et les moyennes restent en gros au même niveau, l’écart maximum restant relativement faible. Même progressive, la montée en régime de l’intégration de systèmes a une influence sur le secteur de l’assistance. Chaque projet d’intégration utilise une combinaison de compétences diverses et différentes suivant les projets, que l’intégrateur ne peut pas toutes posséder en permanence. Pour satisfaire ces besoins variables dans le temps, il devra faire appel aux fournisseurs spécialisés que sont les firmes d’assistance. Ses responsabilités d’intégrateur les conduiront à se montrer très exigeant sur le niveau et la qualité. Il pourra de plus avoir tendance à préférer les petites entreprises très spécialisées pour ne pas risquer de devoir partager son leadership avec un sous-traitant trop puissant. La coexistence avec un secteur d’intégration tend donc à conserver ou à accentuer la fragmentation du secteur d’assistance en firmes spécialisées par domaine de compétence ou d’applications, opérant dans des niches relativement étroites. En revanche, si leurs compétences deviennent obsolètes, ces firmes spécialisées ne seront pas toujours capables de se convertir à d’autres compétences. On peut donc s’attendre à ce que l’évolution du secteur se fasse surtout par disparition d’entreprises et naissance de nouvelles, plutôt que par évolution d’une population à peu près fixe. A côté des prestations majeures traditionnelles que sont l’assistance, le développement de logiciel et l’intégration de systèmes, et des prestations en voie de disparition que sont le traitement partagé et les systèmes « clés en mains », on a vu récemment apparaître et prospérer de nouvelles offres de « facilities management » ou « infogérance » dans lesquelles le prestataire assure des responsabilités d’exploitation. L’offre introduite au départ par la firme américaine EDS consiste pour le prestataire à reprendre la totalité de l’informatique du client pour une durée indéterminée. La société de services rachète au client les matériels installés, embauche son personnel et s’engage à fournir un niveau de service spécifié par contrat moyennant une redevance périodique forfaitaire. Présentée comme une voie d’évolution naturelle, avantageuse pour le client et inéluctable à terme, cette forme d’infogérance globale est restée à ce jour limitée à un petit nombre de cas spectaculaires et fortement médiatisés, mais n’a pas connu le développement annoncé. On a vu apparaître en son lieu et place toute une gamme de prestations moins radicales, comme l’infogérance dite « de transition » parce que de durée limitée, ou l’infogérance partielle limitée à l’exploitation du site central ou du réseau, ou encore de simples services de support à l’exploitation comme la gestion de parc ou la maintenance des applications. Conçue à l’origine comme une tentative de réintégration de prestations éclatées en une offre unique, l’infogérance suit déjà la dynamique d’éclatement et de spécialisation qui domine toute l’industrie informatique. La définition de l’infogérance devient de plus en plus floue au fur et à mesure qu’elle se résout en prestations distinctes dont certaines sont d’ailleurs anciennes. L’utilisation de plus en plus fréquente du terme « outsourcing », qui peut désigner toutes les formes de sous-traitance, en fait de plus en plus un vocable à la mode dont on pare

cclxxxiv

aussi bien des prestations construites sur des compétences existantes que des prestations anciennes dont on espère ainsi prolonger la vie. Comme toujours lorsqu’un terme à la mode est défini d’une façon aussi incertaine, il devient l’occasion de discussions passionnées dont les intérêts commerciaux ne sont évidemment pas absents. L’infogérance est-elle, comme l’affirment ses partisans, une alternative globale économiquement préférable à la possession d’un système informatique, comme en témoignent les arguments habituellement avancés en sa faveur : « se concentrer sur son métier », « transformer des coûts fixes en coûts variables », « confier la gestion à de vrais spécialistes », … ? Si oui, l’informatique s’orienterait vers une prééminence des entreprises de services, contrairement à la tendance constatée tout au long de ses 40 ans d’histoire. Pour les services eux-mêmes, l’avenir est-il à une prestation globale comme l’affirment les partisans du « FM de systèmes », en sens inverse du mouvement général de l’industrie ? Nous reviendrons sur ces questions dans le chapitre 15.

Conclusions
Même après qu’on en a extrait le progiciel, les services forment un complexe d’activités très hétérogène par leur nature et par leur relation avec les autres secteurs de l’informatique. Il n’est pas toujours évident de séparer les services en informatique proprement dits, qui appartiennent sans conteste à l’industrie informatique, des services dont le seul lien avec l’industrie informatique est d’en utiliser les produits, comme le font pratiquement toutes les autres activités industrielles. Pour les services en informatique proprement dits, l’interaction entre la demande de services et l’évolution des produits est complexe : a priori, la diffusion des produits devrait faire croître la demande de services, mais d’une part les produits évoluent de façon à réduire le besoin de services de support, et d’autre part certaines formes de service pourraient avoir un effet négatif sur le besoin de produits. Les services sont également hétérogènes par l’économie de leur production. La plupart sont faiblement capitalistes et s’accommodent d’une échelle de production très réduite, alors que d’autres, comme le traitement ou certaines formes d’infogérance, exigent des investissements assez importants pour s’apparenter à des activités de production industrielle. Il en résulte des configurations sectorielles allant de l’extrême dispersion à une certaine concentration, et surtout la nécessité de personnalités d’entreprise adaptées à chaque type d’activité, d’autant plus que si les activités de service ont quelque chose en commun, c’est bien d’être extrêmement sensibles à l’adéquation de l’organisation et de la culture d’entreprise aux spécificités de l’activité. Le macro-secteur des services contient donc une grande partie de la diversité et de la problématique de l’industrie informatique tout entière. On y rencontre des généralistes du service à côté de firmes spécialisées dans une forme particulière de prestation. Nous traiterons au chapitre 14 du conflit entre généralistes et spécialistes, et nous conclurons à la domination inéluctable de ces derniers, ce qui est également valable à l’intérieur même du domaine des services. Mais la demande de services est particulièrement mouvante et volatile, si bien que des firmes trop étroitement spécialisées courent le risque de disparaître avec la demande qui leur a donné naissance.

cclxxxv

Une des clés de l’évolution du secteur des services est cette recherche permanente d’adaptation des firmes à la demande, qu’il s’agisse de se convertir d’une spécialité à une autre pour les plus modestes ou de maintenir une position de généraliste pour les plus ambitieuses. Considérer que toutes les entreprises de services se ressemblent, fonctionnent de la même façon et obéissent aux mêmes mécanismes concurrentiels, ou encore que toutes les entreprises de services sont également capables d’aborder toutes les formes de service, serait se condamner à ne pas comprendre la dynamique propre à ce secteur. L’histoire et l’avenir des Sociétés de Service sont faits de leurs efforts pour se définir à l’intérieur de ce monde diversifié et se transformer pour suivre la demande, de leurs nombreux échecs et de leurs quelques réussites.

cclxxxvi

Quatrième partie Vers un nouvel ordre industriel
Unifier, c’est nouer mieux les diversités particulières, non les effacer pour un ordre vain. Saint-Exupéry

Jusqu’ici, notre démarche a été essentiellement analytique. A partir d’un premier grand découpage de l’industrie sur la base des principaux critères économiques de structuration des secteurs industriels, nous avons pu analyser chacun des quatre domaines des composants, du matériel, du progiciel et des services, et les décomposer à leur tour en secteurs distincts dont la structure se caractérise par une plus ou moins grande concentration. La production des composants est soumise à une dynamique de concentration très forte qui ne laisse subsister qu’un petit nombre de producteurs de tailles très inégales, qui se distinguent entre fondeurs et concepteurs « fabless ». Le domaine des matériels est formé d’un grand nombre de secteurs spécialisés par nature d’unité, tous dominés par une dynamique de dispersion plus ou moins accentuée selon le niveau d’assemblage où opère la firme (cartes, unités, etc.), et la stratégie qu’elle a choisie (matériels originaux, matériels standard). On retrouve pour les progiciels une logique générale de concentration analogue à celle qui prévaut pour les composants, mais qui agit dans un grand nombre de secteurs spécialisés comme pour le matériel. Les spécificités de la production de progiciel introduisent des différences considérables d’échelle de production entre ces secteurs, et induisent un mouvement global d’absorption des secteurs périphériques par les secteurs les plus concentrés, compensé par la naissance permanente de nouveaux secteurs pour de nouveaux domaines d’application. Les services comprennent également plusieurs secteurs spécialisés allant d’une extrême dispersion pour l’assistance spécialisée à une certaine concentration pour les services d’intégration. Nous avons également vu que pour réussir dans un secteur donné, une entreprise doit posséder une structure et une culture adaptées aux règles particulières de la concurrence dans ce secteur. A chaque secteur peut donc être associée une personnalité d’entreprise spécifique, de telle sorte qu’il est pratiquement impossible à une même entreprise de réussir dans deux secteurs demandant des personnalités différentes et relevant donc de deux métiers distincts. Ce phénomène d’incompatibilité, particulièrement sensible dans les services, joue de façon d’autant plus forte que l’environnement concurrentiel est plus vif. Il contribue au maintien des spécialisations et de la structure sectorielle acquises, et pousse à l’éclatement les firmes qui ne sont pas spécialisées dans un métier unique. Les analyses sectorielles des chapitres précédents reposent sur les entreprises spécialisées de chaque secteur. Elles s’appliquent donc principalement au monde PC, dominé par des spécialistes, alors que les généralistes dominent encore le monde

cclxxxvii

traditionnel et le monde ouvert. Dans la dernière partie, nous allons examiner l’industrie informatique dans son ensemble et synthétiser les conclusions des chapitres précédents pour proposer une vue globale de l’industrie, de son devenir et de sa place dans l’ensemble de l’économie. Nous aborderons deux questions principales : comment chaque entreprise détermine ses activités et comment les entreprises s’organisent entre elles pour satisfaire le marché. Notre fil directeur sera l’analyse concurrentielle présentée tout au long de cet ouvrage. Dans le Chapitre 14, nous verrons comment les forces concurrentielles poussent les entreprises à séparer leurs activités selon les frontières de ces mêmes secteurs, et les problèmes difficiles que cet éclatement pose aux généralistes. C’est donc l’ensemble de l’industrie informatique qui éclate en secteurs spécialisés, à l’intérieur desquels les représentants des trois mondes se retrouvent en concurrence. Dans chacun de ces secteurs spécialisés, la concurrence fait disparaître les frontières entre les trois mondes du PC, des ordinateurs traditionnels et des systèmes ouverts, et a pour effet d’unifier globalement l’informatique. Mais dans cette industrie éclatée, les produits des différents spécialistes doivent pouvoir s’intégrer dans des systèmes pour répondre aux besoins des utilisateurs. Le chapitre 15 examine ce problème de l’intégration et les opportunités qu’il présente pour les offreurs, en particulier dans le domaine des services. Il montre aussi comment les acteurs peuvent pallier leur spécialisation en tissant entre eux des alliances plus ou moins formelles, allant de la définition de standards à des alliances industrielles, et qui peuvent se révéler plus ou moins efficaces. Enfin le chapitre 16 reprendra le thème des frontières de l’informatique, que nous avons maintes fois évoqué pour en repousser l’examen. A partir des forces qui structurent l’industrie informatique, et qui régissent aussi les industries connexes, nous examinerons les interférences entre l’informatique et les autres industries, en particulier les télécommunications. Cette analyse complétera notre scénario d’évolution globale de l’industrie informatique.

cclxxxviii

Chapitre 14 L’informatique éclatée
Généralistes et spécialistes. Dés-intégration et spécialisation contre intégration et diversification. L’éclatement des généralistes. Fusion et homogénéisation des trois mondes de l’informatique. Microprocesseurs, client-serveur et multiprocesseurs. Les mécanismes de la dés-intégration. Les affres de la transition et le destin des généralistes.

L’analyse des différentes formes de production, que nous avons développée dans les deux parties précédentes, repose sur les spécialisations apparues dans le monde PC depuis 1981. Mais cette spécialisation n’a pas toujours été la règle. Comme nous l’avons vu dans la première partie (chapitres 1 et 2), la première moitié des 40 ans d’histoire de l’industrie informatique a vu la domination sans partage des généralistes intégrés. Encore actuellement, ces généralistes ou leurs successeurs continuent à dominer un certain nombre de segments de marché comme les grands et moyens systèmes ou la maintenance. Ils sont aussi très présents dans les autres segments, y compris ceux de la micro-informatique où ils coexistent et entrent en concurrence avec les firmes spécialisées. Le modèle des généralistes intégrés avait subi ses premières attaques à la fin des années 60 avec la séparation des tarifs décidée par IBM, puis un peu plus tard avec l’apparition des unités compatibles. Mais ces événements, s’ils ont permis l’essor d’un grand nombre de firmes spécialisées, n’ont eu qu’un impact mineur sur la structure et le mode de fonctionnement des grandes firmes, dont la gamme de prestations est restée aussi vaste. De même, au moment où naissait avec la micro-informatique un monde PC éclaté dès l’origine et qui l’est resté, c’est en adoptant une stratégie de généraliste et en offrant un matériel et des logiciels intégrés qu’Apple prenait le leadership de l’informatique personnelle. Un peu plus tard, IBM tentait de remettre en vigueur ce même modèle avec le PS/2 pour le matériel et l’OS/2 pour le système d’exploitation. Plus tard encore, c’est toujours en adoptant le modèle intégré que se développèrent les pionniers des stations de travail comme Sun ou Silicon Graphics, en offrant non seulement des matériels et un système d’exploitation spécifiques, mais en fabriquant leurs propres microprocesseurs et en offrant leurs propres logiciels d’application. Contrairement aux grands généralistes traditionnels, toutes ces entreprises se sont choisi un segment de marché spécifique, mais comme eux elles offrent aux clients de ce segment un système réunissant la totalité des produits et services nécessaires. Est-ce à dire que firmes spécialisées et firmes généralistes sont destinées à coexister de façon durable dans un grand nombre de secteurs, et si oui quelles sont les modalités de la concurrence entre elles ? Que se passe-t-il quand des spécialistes et des généralistes sont en concurrence sur un même segment, c’est à dire pour des produits étroitement substituables ? Plus précisément, quels avantages et quels désavantages concurrentiels résultent respectivement d’une stratégie de généraliste et d’une stratégie

cclxxxix

de spécialisation ? Leur comparaison permet-elle de prévoir l’effacement ou l’éclatement progressif des généralistes, ou au contraire le regroupement des spécialistes ? Une première indication peut être trouvée dans les indicateurs de performance que nous avons examinés au chapitre 5. Les généralistes connaissent depuis 1989 un ralentissement de leur croissance et une baisse de leur rentabilité qui les poussent à des restructurations, des réductions d’effectifs et pour certains d’entre eux à des abandons d’activités. Nous avons vu également que les quelques firmes mixtes qui se positionnent entre les généralistes et les spécialistes réussissent généralement moins bien que les firmes spécialisées dans les prestations individuelles qui composent leur offre. Il semble bien que le simple fait d’offrir une gamme étendue de prestations, que ce soit par leur nature ou par le marché qu’elles visent à couvrir, est devenu un handicap. Si tel est bien le cas, la concurrence entre firmes diversifiées et firmes spécialisées avantage ces dernières et pousse inéluctablement à la spécialisation. Cela étant dit, il nous faut maintenant regarder de plus près les mécanismes et les avantages respectifs de la désintégration et de l’intégration pour rendre compte de l’évolution actuelle des grands généralistes et pour identifier les tendances de fond qui modèleront le devenir de l’industrie.

Intégration et dés-intégration des entreprises
Pour une entreprise, la spécialisation s’oppose à la fois à l’intégration et à la diversification. Une entreprise diversifiée produit plusieurs biens différents qui peuvent être sans relation entre eux, ou qui peuvent être liés soit par le marché soit par le processus de production. Nous ne citerons que pour mémoire le cas de biens totalement indépendants et celui de biens liés par le processus de production mais indépendants sur le marché (par exemple la viande de mouton et la laine), qui sont sans importance en informatique. Dans le domaine de l’informatique, les firmes diversifiées produisent des biens liés, en ce sens qu’ils sont utilisés conjointement et qu’une variation de la quantité vendue de l’un des produits entraîne une variation de la demande pour l’autre, généralement dans le même sens. On parle alors de productions (de produits ou de services) complémentaires. Pour un produit donné, la firme est plus ou moins intégrée verticalement selon qu’elle exécute toutes les étapes successives de production qui conduisent au produit fini. Par exemple, pour la majorité de ses ordinateurs, IBM fabrique les composants mémoire et les microprocesseurs, les intègre sur les cartes et dans les boîtiers et assemble les unités complètes, alors que de nombreux offreurs de micro-ordinateurs se contentent de réaliser l’assemblage final à partir d’éléments acquis sur le marché. Une firme qui produit des biens liés peut procéder à une intégration horizontale de son offre en proposant des produits composites regroupant plusieurs produits liés. Cette pratique est appelée « bundling » en anglais (« bottelage » en français). Elle peut aussi introduire des formes plus subtiles d’interdépendance entre ses produits, par exemple pratiquer pour un produit A des tarifs et des conditions différentes selon que le client achète ou non un autre produit B, ou encore fixer ses prix de vente pour chaque produit

ccxc

de façon à maximiser son profit global plutôt qu’à réaliser un profit sur chaque produit séparément, en acceptant le principe de subventions croisées entre produits. D’une façon générale, la littérature économique et managériale, ainsi d’ailleurs que la pratique dominante des entreprises, privilégient la diversification et l’intégration en les considérant comme le comportement le plus normal de la firme. Comme toutes les décisions de la firme, la diversification et l’intégration présentent des inconvénients et des avantages, mais ceux-ci sont généralement mieux connus et mieux acceptés que ceux-là. Il est admis que les entreprises cherchent toutes à grandir et à étendre leur champ d’influence, donc à se diversifier horizontalement et à s’intégrer verticalement. Grâce à la diversification, on espère obtenir des avantages compétitifs en offrant des produits complémentaires plus compatibles entre eux, en exploitant plus complètement l’implantation commerciale et en offrant aux clients une gamme complète qui permet un « one stop shopping » et peut les fidéliser. En ce qui concerne les coûts, la diversification peut permettre des économies d’échelle ou des économies « d’envergure » par mise en commun d’activités au stade de la production, de la commercialisation ou dans la logistique. Ces avantages peuvent être à la base d’une stratégie de différenciation et créer des obstacles à l’entrée de concurrents dans le secteur composite correspondant à l’ensemble de produits offerts par la firme. Une diversification judicieuse est également considérée comme une protection contre les aléas et les variations saisonnières. Elle peut enfin donner la possibilité de ventes groupées, de bottelage et de subventions croisées. L’intégration verticale a été étudiée par plusieurs économistes, en particulier dans le cadre des théories de la firme, qui cherchent à expliquer pourquoi les activités de production donnent naissance à des organisations structurées où les relations sont régies par une discipline interne plus ou moins hiérarchique, plutôt que par les règles du marché qui forment la base même de l’économie. L’idée principale, proposée par Williamson , est que toute transaction, qu’elle ait lieu entre deux agents économiques indépendants ou entre deux parties d’une même firme, a un coût qui dépend en particulier des modalités de la relation entre les parties à la transaction. Recourir au marché implique des coûts d’exploration et de sélection, des coûts pour la négociation, l’établissement et la gestion du contrat ainsi que pour la résolution des désaccords éventuels. Ces coûts peuvent être réduits ou éliminés en remplaçant le recours au marché par le recours à un organe de production interne à la firme et soumis à la même autorité.
58

Dans le schéma de Williamson, la tendance à internaliser une activité, c’est à dire à l’intégrer, augmente avec trois facteurs : la spécificité et le coût des actifs nécessaires à l’activité qui fait l’objet de la transaction, le degré d’incertitude quant au marché et à la bonne exécution de la transaction, et enfin la fréquence de la transaction. Cette analyse explique la formation des firmes et autres organisations hiérarchiques, qui permettent de remplacer le recours au marché par une coordination directe des différentes activités. Elle constitue aussi la justification théorique implicite des fusions et acquisitions, dont nous reparlerons plus loin. Mais elle forme aussi la base d’un examen critique de l’intégration. De même que celle-ci est justifiée quand les coûts de
58

O. Williamson, Markets and Hierarchies ; The Free Press, 1975

ccxci

transaction internes sont inférieurs aux coûts de recours au marché, elle devra être évitée dans le cas contraire.

La critique de l'intégration
Quels sont donc les coûts et les inconvénients de l’intégration et pourquoi les néglige-t-on si souvent, alors que, dans l’industrie informatique, la réalité prouve qu’ils sont suffisamment élevés pour que le mouvement d’ensemble prédominant aille vers l’éclatement ? Une liste assez exhaustive d’inconvénients potentiels figure dans Porter , qui les recense pour inciter à un examen préalable des opportunités en pesant correctement le pour et le contre de l’intégration. Il en présente les risques comme autant de questions à traiter pour réaliser une intégration efficace, mais ne va pas jusqu'à les présenter comme des motivations pour « dés-intégrer » une firme intégrée. Ces facteurs négatifs, qui prolongent en partie l’analyse des coûts de transaction, peuvent se résumer sous trois grandes rubriques.
59

Premièrement, les économies d’échelle ou d’envergure attendues de la mise en commun d’activités n’ont d’intérêt que si ces activités précises sont sujettes à économies d’échelle, et si elles forment une part importante du coût des produits. Si tel n’est pas le cas, les avantages sont de faible importance. Par ailleurs, une interconnexion entre activités ne procure pas nécessairement un avantage concurrentiel. Exploiter les interconnections potentielles exige de mettre en place dans la firme une stratégie explicite et des efforts particuliers, ce qui implique un coût de coordination. De plus, les activités à rapprocher peuvent avoir des exigences de gestion différentes et les mettre en commun entraîne des coûts de compromis et des coûts de rigidité dus à la perte de souplesse. Enfin, une gestion efficace de l’intégration va à l’encontre des principes de décentralisation et peut affaiblir les incitations à la rentabilité. Ce dernier ordre de considérations nous renvoie à la discussion du chapitre 9 où nous avons mis en lumière le fait que des productions de nature différentes demandent des personnalités d’entreprise différentes, qui ne peuvent souvent pas coexister dans la même firme. Les tendances les plus récentes de l’analyse stratégique et du management de l'entreprise remettent d’ailleurs en question les dogmes établis de la diversification, de l’intégration et de la croissance. L’école dite « de l’excellence » invite l’entreprise à se concentrer sur ce qu’elle sait faire mieux que les autres, quitte à faire moins de choses. Elle met l’accent sur la réactivité et sur l’adaptabilité, et remet en question la croissance en tant qu’objectif suprême en proposant le slogan « small is beautiful ».
60

Pour l’école dite « de la valeur » , l’objectif de l’entreprise est de faire croître sa valeur économique, c’est à dire son cash-flow actualisé net, plus que ses marges ou son chiffre d’affaires. La taille n'est plus un avantage déterminant, car les petites structures
61

59 M.Porter, The Competitive Advantage ; The Free Press, New York, 1985 publié en français sous le titre « L'Avantage Concurrentiel » (InterEditions, 1986). 60

Peters TJ, Waterman RH : In Search of Excellence (Harper & Row, 1982) Rappaport : Creating Shareholder Value (The Free Press, 1986)

61 Alfred

ccxcii

peuvent maintenant accéder au capital, au talent et à l'information aussi facilement que les grandes. Les changements de plus en plus fréquents dans le cycle de vie, le coût des facteurs, la concurrence globale, les taux d'intérêt, … remettent en question les économies d'échelle et les synergies, et des actionnaires plus interventionnistes voire des raiders obligent les chefs d’entreprise à examiner de façon critique et en permanence chacune de leurs activités. Dans cette logique, une réduction de l'activité peut augmenter la valeur de l'entreprise si l'activité cédée est destructrice de valeur, c’est à dire consommatrice nette de liquidités. Les filialisations et les cessions d’activités deviennent des actions de management normales, facilitées par le développement du marché des entreprises. L’intégration ne présente donc pas que des avantages, et il est possible de concevoir des cas où la dés-intégration est au contraire le comportement optimal de l’entreprise, comme l’étude de l’industrie informatique semble en donner de nombreux exemples.

Dés-intégration contre intégration
La prédilection de la littérature et de nombreux chefs d’entreprise pour les stratégies d’intégration peut s’expliquer par différents facteurs. D’une part, il se trouve que les arguments favorables à l’intégration se traduisent assez facilement en parts de marché ou en économies d’échelle ou d’envergure, alors que les arguments défavorables sont moins facilement quantifiables et se rattachent soit à des considérations de culture, soit à des théories très récentes et encore peu connues. Dans de nombreux cas réels, le poids relatif des facteurs quantifiables positifs peut être très inférieur à celui des facteurs négatifs non quantifiables, mais la littérature économique tend à privilégier ce qui est facilement quantifiable, donc à surestimer les facteurs qui militent pour l’intégration. On accrédite ainsi l’idée que le mouvement naturel de l’économie est vers une intégration croissante, contrairement à ce que nous constatons pour l’informatique. C’est un exemple d’effet pervers de la mathématisation de l’économie, qui peut conduire à des conclusions opposées à la réalité observable. Il faut aussi faire la part des effets de mode, qui sont eux-mêmes en relation avec la conjoncture économique. Une période de croissance met au premier plan les objectifs de chiffre d’affaires et renforce tous les facteurs favorables à l’intégration, alors qu’en période difficile, c’est l’objectif de résultat qui devient prioritaire et renforce les facteurs favorables à la spécialisation. Comme grandir est beaucoup plus agréable que se battre pour rester profitable, les chefs d’entreprise adhèrent facilement aux arguments en faveur de l’intégration, et n’acceptent ceux qui poussent à la dés-intégration qu’en leur prêtant un caractère exceptionnel. D’une façon plus générale, plusieurs économistes ont proposé l’idée que le phénomène d’intégration ou de désintégration est en relation avec le cycle de chaque industrie ou secteur. Dans un schéma proposé par Stigler et repris par Porter, une industrie nouvelle apparaît nécessairement sous une forme intégrée et le demeure tant que la taille du marché est insuffisante pour supporter des firmes spécialisées dans les
62

62

George J.Stigler : The Organization of Industry (Richard Irwin, 1968)

ccxciii

différents composants ou les différentes étapes de production. De plus, les besoins du marché ne sont pas encore diversifiés et les processus de production sont encore instables, ce qui rend difficile aussi bien la spécialisation horizontale que la désintégration verticale. La croissance et la maturité favorisent la spécialisation par niche, par nature de produit ou par étape de production, en accord avec la remarque d’Adam Smith selon laquelle « la division du travail est limitée par la taille du marché ». Avec le déclin de l’industrie et le retrait de nombreux acteurs commence un processus de réintégration progressive.

Dés-intégration et homogénéisation de l’industrie
L’évolution des généralistes
Ce sont bien ces mécanismes que nous avons vus à l’œuvre pour l’informatique dans la première partie de cet ouvrage. Le produit intégré « ordinateur » apparu en 1951 sur le marché s’est progressivement décomposé, à partir de la deuxième moitié des années 60, selon trois dimensions : par nature de prestation (matériel, logiciel, différents types de services), par type de matériel et par niche de marché. Cette dissociation s’est effectuée à la fois par apparition de nouvelles entreprises spécialisées et par séparation plus ou moins nette des prestations à l’intérieur des entreprises généralistes, chacun de ces mouvements appelant et favorisant l’autre. Les généralistes traditionnels construisent et tarifent leur offre de façon globale. Certaines prestations sont gratuites, par exemple des services, et les prix de celles qui sont facturées séparément sont fixés afin de procurer le revenu total le plus élevé possible compte tenu des complémentarités, des effets d’entraînement et des substitutions possibles. Au niveau des coûts de revient, chaque prestation facturée doit supporter une part du coût des services et autres prestations gratuites, et la profitabilité individuelle de chaque élément peut varier dans de larges proportions depuis des valeurs négatives jusqu’à des valeurs fortement positives. Chaque affaire, considérée séparément, utilise les différents éléments en proportions différentes qui peuvent conduire à des niveaux de profit différents. La profitabilité globale de la firme généraliste met ainsi en jeu des phénomènes de compensation entre affaires et entre produits. L’action commerciale essaiera d’éviter les cas trop défavorables, par exemple fournir beaucoup d’assistance gratuite pour un logiciel isolé peu profitable, même si la demande du client est légitime. Une partie de la demande ne sera donc pas satisfaite. A l’opposé, il existe aussi des cas favorables à l’offreur où la demande sera satisfaite de façon particulièrement profitable. L’élargissement du marché et la diversification des besoins multiplient ces cas particuliers, où la composition prévisible de la demande est atypique par rapport à la demande moyenne sur laquelle est construite l’offre des généralistes. Une entreprise peut alors acquérir un avantage concurrentiel en se spécialisant sur ces niches de marché et en y adaptant son offre et sa tarification, ce qui implique le plus souvent de rapprocher ses prix de vente des coûts de revient réels propres à cette niche. Par exemple, à partir du moment où le marché comporte une part importante de

ccxciv

renouvellement ou d’installation de systèmes identiques en multiples exemplaires, la demande de matériel « nu » devient suffisante pour ouvrir un marché à des fournisseurs qui pratiquent des prix concurrentiels en faisant l’économie du personnel d’assistance. Parallèlement, des entreprises existantes (principalement de services) peuvent étendre leurs prestations à l’informatique. Prenons l’exemple du financement du matériel. Au début, les organismes financiers restent à l’écart de l’informatique, et le service correspondant est fourni par les constructeurs généralistes qui offrent pour leurs matériels la possibilité de location ou de location-vente. Avec le temps, les organismes financiers s’intéressent à ce nouveau marché, d’abord à travers des firmes spécialisées où ils sont présents, pour finalement intégrer entièrement le financement d’ordinateurs dans leur activité générale de financement. Comme ce sont les firmes financières qui détiennent pour ce service l’avantage concurrentiel le plus fort, l’activité de financement d’ordinateurs finit par passer entièrement du secteur informatique au secteur financier. Si au début, l’originalité de l’objet l’emporte sur la nature de l’activité, c’est à la fin la nature de l’activité qui l’emporte et l’objet est devenu banal. On pourrait en dire autant de services comme la distribution, l’installation, l’entretien ou la mise à disposition de personnel. Pour faire face à cette concurrence spécialisée dans les segments où ils sont vulnérables, les généralistes doivent suivre ce mouvement des prix, ou peuvent le prévenir comme IBM avec l’unbundling. Mais pour maintenir leur profitabilité globale, ils doivent augmenter l’écart entre coûts et prix de vente pour les prestations caractéristiques des segments où ils restent dominants, ce qui les y rend plus vulnérables et tend à faciliter l’entrée de nouveaux concurrents. Plus les segments attaqués par les spécialistes se multiplient, plus les segments relativement protégés se raréfient et deviennent vulnérables. Au total et sur le long terme, ce sont tous les prix de vente qui se rapprochent des coûts de revient, y compris pour certaines prestations jusque là fournies gratuitement et qui deviennent facturées séparément. A travers cette dissociation de leur offre, les généralistes renoncent de fait à certaines synergies et à certains avantages concurrentiels dus à l’étendue même de leur offre, ce qui tend à faciliter encore plus le développement d’une concurrence spécialisée. L’éclatement de l’offre des généralistes et le foisonnement des spécialistes se nourrissent donc l’un de l’autre et gagnent de proche en proche la totalité du spectre des produits et services. Tôt ou tard, la concurrence de plus en plus vive entre généralistes et spécialistes sur chacun des segments de marché posera de façon critique la question de l’adéquation organisationnelle et culturelle de la firme à ses productions, et conduira les généralistes à remettre en cause leur structure : doivent-ils conserver toutes leurs prestations au sein d’une organisation intégrée ou segmenter leur organisation en entreprises plus ou moins indépendantes afin de laisser chacune d’entre elles se doter de l’organisation et de la culture qui lui donneront les meilleurs atouts pour réussir dans son secteur ? Une condition fondamentale pour que ce processus d’éclatement ait lieu est que les niches où existent des opportunités de spécialisation soient assez visibles et assez vastes pour justifier les investissements des spécialistes. Or l’industrie informatique était dominée au départ par quelques généralistes qui se différenciaient par l’architecture de leurs systèmes et en particulier les conventions qui permettent de relier

ccxcv

entre eux leurs éléments. Ces généralistes formaient un secteur concentré où les parts de marché étaient par nature inégales. Il est évident que les spécialistes avaient intérêt à faire porter leurs attaques en priorité sur le fournisseur qui leur procurait le marché potentiel le plus vaste, en l’occurrence IBM. Le processus d’érosion et d’éclatement décrit ci-dessus a touché les généralistes dans l’ordre de part de marché décroissante. Il a été particulièrement rapide pour les secteurs où les investissements étaient les plus faibles et le cycle le plus court, c’est à dire les secteurs les plus dispersés par nature. C’est ainsi que s’est développée autour d’IBM, dans les années 70, une constellation de firmes qui offraient des produits et des services spécifiques, substituables individuellement aux offres correspondantes d’IBM tout en restant compatibles au sein d’un système. Tout en respectant les standards de fait définis par IBM, ces firmes et IBM étaient en concurrence sur de nombreux secteurs, ce qui a eu pour effet global de faire baisser les prix, d’éliminer les subventions croisées entre produits, d’améliorer la qualité et la diversité sous toutes leurs formes et de faire apparaître des produits et services nouveaux. Pour les clients, cette concurrence interne au « monde IBM » a offert de nombreux avantages par rapport à l’offre des autres constructeurs : élévation de la qualité et de la diversité des produits, apports des fournisseurs complémentaires, prix plus compétitifs. Les autres généralistes ont peiné à rester concurrentiels devant cette vitalité et n’ont été protégés que par l’importance des coûts de transfert entre leurs produits et ceux du monde IBM. Au total, même si la firme IBM a été éprouvée par cette concurrence d’un type nouveau, le monde IBM dans son ensemble est resté de plus en plus dominant et les autres généralistes sont devenus marginaux. Il en résulte que les spécialistes n’ont trouvé que peu d’intérêt à attaquer d’autres généralistes, et que le processus d’éclatement s’est pratiquement arrêté à IBM. En revanche, pour le leader IBM, la concurrence avec des spécialistes de chacune de ses prestations a entraîné une érosion de sa propre part du marché, ainsi que de son lien privilégié avec les clients, et de l'influence qu'il peut exercer sur le marché, et in fine de ses marges bénéficiaires. Mais, s’il sait rester concurrentiel sur une gamme suffisante de produits et services, les avantages globaux du « monde » auquel il appartient sur les autres généralistes peuvent compenser sa propre régression au sein de ce monde. Ce processus d’éclatement de l’offre tend à séparer progressivement tous les éléments dont le besoin peut être exprimé et satisfait de façon indépendante : services et produits, parmi les produits ceux qui peuvent être physiquement séparés et qui fournissent des fonctions distinctes, parmi les services ceux qui satisfont des besoins spécifiques, et d’une façon générale les éléments dont le processus de production peut être isolé. Par contre, on n’observe pas de désintégration verticale jusqu’en 1981, sauf à considérer l’intégration de systèmes comme l’étape ultime de la production. Les constructeurs d’ordinateurs continuent à produire leurs propres composants et à réaliser eux-mêmes tous les niveaux d’assemblage. Mais comme l’évolution technologique concentre de plus en plus de valeur ajoutée dans les composants et rend la production de composants de plus en plus capitaliste donc concentrée, les constructeurs d’unités

ccxcvi

centrales sont contraints de se rapprocher des grands producteurs de semi-conducteurs, ce qui ne laisse subsister dans ce secteur que des firmes comme Fujitsu (et sa filiale Amdahl), Hitachi ou NEC. On observe ainsi une certaine tendance à la reconcentration pour les ordinateurs (et les systèmes d’exploitation), à coté d’une poursuite de l’éclatement pour les périphériques, les services et les progiciels d’application.

La fusion des trois mondes
Si l’évolution structurelle du monde de l’informatique traditionnelle résulte principalement de l’accroissement de la taille du marché et de l’élévation de la compétence moyenne des clients, l’apparition du monde de la micro-informatique est la conséquence directe du franchissement d’une étape technologique critique : l’apparition de microprocesseurs sur le marché au début des années 70. L’industrie de la microinformatique se construit d’emblée sur un modèle dés-intégré verticalement entre des fournisseurs indépendants de microprocesseurs (Motorola et Intel), des fabricants de matériels, des producteurs de logiciel et des distributeurs. Des firmes comme Atari, Commodore et surtout Apple se conforment partiellement au modèle traditionnel en combinant matériel et logiciel, alors qu’IBM inaugure avec le PC, à partir de 1981, une structure totalement éclatée y compris pour le système d’exploitation avec Microsoft. Comme nous l’avons vu au chapitre 3, l’explosion du monde PC n’a pas eu d’incidence directe immédiate sur la structure du monde traditionnel, car les marchés sont restés longtemps disjoints. La micro-informatique a privé l’informatique traditionnelle d’une grande partie de son potentiel de croissance. Mais tant qu’il n’a pas été pratiquement possible de remplacer massivement des systèmes traditionnels par des systèmes à base de micro-ordinateurs, les deux mondes ne sont pas véritablement entrés en concurrence et leurs structures ne se sont ni confrontées ni rapprochées. De même, le monde Risc/Unix apparu dans les années 80 est resté longtemps séparé aussi bien du monde traditionnel que du monde PC. Il offre en effet deux types principaux de systèmes. D’une part des « stations », c’est à dire des ordinateurs personnels adaptés à un usage scientifique et à des présentations soignées, ce qui demande des processeurs puissants, de grands écrans, des possibilités graphiques évoluées, sans équivalent au niveau des PC comme des ordinateurs traditionnels. D’autre part des « serveurs », c’est à dire des ordinateurs de taille moyenne destinés à être partagés entre différents utilisateurs dans le cadre d’un réseau de stations ou de micro-ordinateurs. Ces serveurs sont en concurrence directe avec les ordinateurs traditionnels, mais ne peuvent être exploités que dans le cadre d’une architecture de systèmes nouvelle appelée « client-serveur ». Tant que cette architecture n’aura pas atteint une certaine maturité, la concurrence réelle des serveurs est limitée aux miniordinateurs. Mais, comme nous l’avons vu au chapitre 7, les microprocesseurs vont continuer à progresser pendant encore au moins 10 ans, et ils vont rattraper, puis dépasser en performances les grands ordinateurs actuels. Grâce à la dynamique concurrentielle propre à ce secteur, on trouvera en permanence sur le marché un choix de microprocesseurs du dernier niveau technologique pour des prix de quelques centaines de $ l’unité. Même si ce choix est limité et se restreint progressivement à 2 ou 3 par

ccxcvii

génération, il permettra à des assembleurs, en utilisant ces puces du commerce, d’offrir pour une part croissante du marché informatique total des matériels offrant un meilleur rapport prix/performances que ceux des firmes intégrées. A lui seul, ce phénomène suffirait à augmenter de façon constante la part de marché globale des spécialistes et à diminuer celle des généralistes. Mais d’autres développements technologiques en cours vont accélérer l’envahissement de toute l’informatique par les technologies et les structures industrielles issues du monde de la micro-informatique. Ce sont d’une part les techniques d’interconnexion et de mise en réseau de systèmes et l’architecture « client-serveur », qui permettent de remplacer un grand système par un complexe de systèmes interconnectés travaillant en harmonie, et d’autre part les techniques des multiprocesseurs, qui permettent de construire une machine puissante en juxtaposant des microprocesseurs qui travaillent en parallèle. Les développements nécessaires à la mise en œuvre du concept client-serveur se traduisent uniquement par du logiciel, qui traite les problèmes de communication entre systèmes, de gestion de bases de données distribuées, de gestion de systèmes distribués, etc. Dans chacun des domaines concernés, il existe déjà de nombreuses offres concurrentes, généralement incorporées dans les systèmes d’exploitation standard ou compatibles avec eux, et les développements nouveaux comme les perfectionnements de logiciels existants vont bon train. Le marché offre ou offrira prochainement tous les ingrédients nécessaires à la mise en place de systèmes complets utilisant l’architecture client-serveur. Mais l’adoption de cette approche par les utilisateurs suppose une refonte des applications existantes, voire de toute l’organisation informatique, de sorte que le remplacement des grands systèmes intégrés par des réseaux de systèmes plus modestes est cadencé par la capacité propre d’évolution des utilisateurs plus que par le progrès des technologies. Les technologies des multiprocesseurs posent à la fois des problèmes de matériel pour les dispositifs d’interconnexion et de communication entre processeurs et mémoire, et de logiciel pour la gestion de l’ensemble. Ces problèmes sont d’autant plus complexes que le nombre de processeurs est élevé. Pour un petit nombre de processeurs (entre 2 et 4), ils sont déjà suffisamment bien maîtrisés pour qu’il existe sur le marché de nombreuses machines de type SMP (pour « symmetric multiprocessing ») et que les fonctions logicielles nécessaires soient incluses dans des systèmes standard comme Windows NT. Les mêmes technologies sont présentes dans les serveurs Unix de haut de gamme, qui peuvent comporter jusqu’à 64 processeurs. Il est hors de doute que le parallélisme modéré deviendra à court terme une possibilité standard offerte par un grand nombre de fournisseurs de micro-ordinateurs et de progiciels de niveau industriel. Dans le cas des machines dites « massivement parallèles », où on cherche à faire fonctionner ensemble plusieurs centaines, voire des milliers de processeurs, ces mêmes problèmes sont encore imparfaitement résolus. Ces matériels n’ont actuellement d’avantage concurrentiel que pour des problèmes particuliers se prêtant à un degré élevé de parallélisme, et à condition d’être programmés spécifiquement pour cette architecture. Ces systèmes ne sont encore offerts que par des spécialistes de grands systèmes comme Cray ou Convex, ou de grands généralistes comme IBM ou Fujitsu. Mais dans ce domaine peut-être plus que dans d’autres, il faut compter avec le foisonnement d’innovations issues du monde Unix et des laboratoires universitaires, qui

ccxcviii

aboutira un jour à l’incorporation du parallélisme massif dans des systèmes standard de niveau industriel, selon un mécanisme évoqué au chapitre 12. Au total, en même temps que les microprocesseurs standard du commerce atteindront les niveaux de puissance des plus grands systèmes tout en conservant leur prix modeste, des assembleurs de matériels mettront sur le marché des multiprocesseurs dépassant encore ces performances. Parallèlement, les progiciels issus du monde micro et offerts par les spécialistes comme Microsoft incorporeront les fonctions nécessaires à la construction de systèmes complets sur la base de ces matériels. Les assembleurs de matériel et les spécialistes des progiciels, en s’appuyant sur les spécialistes des composants, entreront ainsi progressivement en concurrence à tous les niveaux avec les généralistes ou les firmes moins étroitement spécialisées. Dans une telle concurrence, ce sont les mondes les plus éclatés qui jouissent de l’avantage concurrentiel maximal, comme nous l’avons vu précédemment à propos du monde IBM. On constate qu’il existe actuellement dans l’ensemble de l’informatique plusieurs niveaux de rapport prix/performances. Par exemple, le prix du Mips pour un PC est environ un millième de ce qu’il est pour les grands ordinateurs de structure traditionnelle, le coût d’un même travail est 10 fois plus élevé sur un grand ordinateur traditionnel que sur une station, ou encore un PC est 3 fois moins cher qu’une station de configuration et de puissance équivalentes. De même, les prix pratiqués pour les progiciels dans le domaine des PC sont sans commune mesure avec ceux des progiciels pour grands systèmes. Ces différences n’avaient pas de très grandes conséquences en termes de concurrence tant que les possibilités de substitution restaient limitées par les gammes de puissance ou de fonctions couvertes, mais elles vont devenir déterminantes au fur et à mesure que s’étendent les domaines de concurrence.
63

Le mouvement d’ensemble se fera naturellement du bas de gamme vers le haut, et touchera donc d’abord le monde Unix/Risc et ce qui reste des mini-ordinateurs conventionnels, avant de se propager vers le haut dans le monde des grands systèmes. Toute une partie du monde Unix s’est construit sur le modèle intégré traditionnel où chaque constructeur produit à la fois son microprocesseur, ses matériels et ses logiciels, chaque élément s’appuyant sur les autres. Il a été jusque là individualisé par l’utilisation de processeurs Risc et de systèmes Unix. Mais il est certain que les offreurs de progiciels spécialisés du monde PC, comme Microsoft, Santa Cruz Operation, Novell ou le complexe IBM/Apple/Taligent, vont offrir des systèmes d’exploitation concurrents, et que parmi les nombreux assembleurs de matériel du monde PC, certains vont offrir l’équivalent des stations et des serveurs actuels. Les offreurs Unix intégrés, comme Sun ou Silicon Graphics, seront ainsi concurrencés pour chacun des éléments par des spécialistes qui jouiront d’avantages concurrentiels par les prix, la diversité, la qualité, etc. Maintenir une offre intégrée serait pour eux suicidaire car une insuffisance relative dans un seul des secteurs pourrait condamner l’ensemble. Ils seront donc conduits à séparer leurs prestations et lutter pour chacune séparément, leur avenir dans chacun des secteurs dépendant de leur capacité à conserver ou acquérir des avantages concurrentiels spécifiques dans chacun des secteurs
63

million d’instructions par seconde

ccxcix

où ils restent présents. En tout état de cause, ils devront faire face aux problèmes de désintégration verticale que nous allons aborder dans la suite. A travers cette fusion du monde micro et du monde Risc/Unix, les serveurs s’aligneront sur les standard de prix/performance du monde micro et deviendront d’autant plus concurrentiels par rapport à l’informatique traditionnelle, renforçant ainsi les avantages concurrentiels des systèmes client/serveur. Un mouvement analogue bien que probablement un peu plus tardif accentuera les avantages des grands systèmes massivement parallèles sur les systèmes conventionnels. A terme, les technologies, les standards de performance et la structure industrielle éclatée du monde PC s’appliqueront à toute l’industrie informatique, en forçant les généralistes à réexaminer leur offre, leurs tarifs et leur organisation. Tel est l'enjeu industriel réel des développements technologiques en cours sur les architectures client/serveur et les multiprocesseurs.

Structure sectorielle et innovation
Entre autres avantages concurrentiels, une organisation fragmentée présente celui d’être globalement plus favorable à l’innovation et donc de faire bénéficier plus rapidement et plus complètement les utilisateurs de tous les progrès rendus possibles par l’évolution des technologies. Les produits nouveaux qui résultent potentiellement du progrès technologique ont avec les produits existants des relations variées. Ils peuvent s’adresser à des besoins nouveaux, et donc n’entrer en concurrence avec aucun produit existant, ou au contraire constituer un remplacement possible pour des produits existants et donc entrer en concurrence avec eux sur le marché. Dans une firme diversifiée ou intégrée, ces conflits sont généralement résolus par la Direction Générale. D’une part les différents projets de développement sont en concurrence et les ressources leur sont allouées en fonction de la politique générale de l’entreprise, d’autre part la recherche alimente un réser