Vous êtes sur la page 1sur 12

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Les stratégies concurrentielles

Notes pédagogiques des illustrations des précédentes éditions

La stratégie hybride de IKEA

Il n’est pas facile de mener une stratégie hybride simplement en imitant la sophistication des concurrents mais à un niveau de prix inférieur. En effet, la différenciation risque alors d’être dévalorisée par les clients et l’entreprise sera perçue comme un imitateur à bas prix.

L’exemple de IKEA illustre une stratégie hybride réussie, fondée sur des coûts réduits et une approche différente du marché, qui n’a pas eu comme point de départ une sophistication. De fait, il apparaît qu’à l’origine IKEA a suivi une stratégie d’épuration (élimination de la plupart des coûts tels que montage, vente et livraison, mais baisse limitée des prix), puis est monté en gamme au fur et à mesure de son succès. D’autres exemples de cette trajectoire peuvent être proposés :

Les hypermarchés, après avoir commencé par une stratégie d’épuration par rapport au commerce traditionnel, ont très fortement amélioré leur offre, ce qui les positionne dans une stratégie hybride.

Certains sites de vente sur Internet (voyages, musique, produits informatiques, etc.) offrent plus de valeur pour les clients à un prix inférieur à celui pratiqué par la distribution classique, ce qui correspond bien à des stratégies hybrides.

De fait, on retrouve l’idée que la stratégie hybride correspond à la notion de progrès : elle caractérise des approches nouvelles, des innovations de rupture et des modèles économiques inédits qui précipitent l’évolution d’une industrie. Cependant, ce positionnement finit toujours par être rattrapé par l’offre de référence (dont il précipite l’évolution).

La troisième question concerne les conseils que l’on pourrait donner à une entreprise souhaitant adopter une stratégie hybride. Le premier conseil – c’est la définition de cette stratégie – est de concevoir une nouvelle approche permettant de simultanément réduire les prix et de créer plus de valeur pour les clients. Le deuxième – au moins en théorie – est de mener un audit des ressources et compétences grâce aux méthodes présentées dans le chapitre 4, de manière à identifier quels peuvent être les fondements d’une différenciation robuste et à l’inverse quelles activités peuvent faire l’objet d’économies. On peut ainsi espérer construire une différenciation tout en obtenant une position de coûts plus favorable que celle des concurrents.

NXT écoute les leçons de Dolby

En utilisant les sections 7.5.2 et 7.5.3, le tableau de la page suivante résume la manière dont NXT et Dolby ont cherché à maintenir leur avantage concurrentiel.

Il est clair que NXT tente de suivre l’exemple de Dolby, qui a réussi à verrouiller son marché. On peut cependant se demander si cette ambition est réaliste. En effet, plusieurs menaces sont identifiables :

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Les stratégies concurrentielles

Illustrations des précédentes éditions

La stratégie hybride de IKEA

Combiner prix bas et création de valeur peut être une stratégie gagnante, à condition de se montrer innovant.

Depuis sa fondation en Suède en 1953, IKEA avait construit un réseau global de magasins présent dans 28 pays. Pour autant, son concept de distribution était resté le même : « offrir une large gamme de produits d’ameublement fonctionnels et au design soigné, à un prix si bas que la majorité des gens peuvent les acheter ». Le succès d’IKEA reposait sur la simplicité des produits, des meubles en kit au design scandinave que les clients transportaient et assemblaient eux-mêmes. Les énormes magasins situés à la périphérie des grandes agglomérations, entourés de vastes parkings, intégraient des services tels que cafés, restaurants, accès pour handicapés et même garderies pour enfants. Les clients réclamaient des meubles de style et de qualité, au prix raisonnable et aisément disponibles. IKEA avait répondu à leur attente en les incitant à participer eux-mêmes à la création de valeur en prenant en charge certaines des tâches traditionnellement dévolues au fabricant ou au distributeur, comme l’assemblage et la livraison des produits. De même, l’information sur les produits était diffusée au moyen d’un catalogue soigné, comprenant plus de deux cent pages. Des mètres rubans, des crayons et du papier étaient fournis aux clients dans les magasins, ce qui permettait de réduire le personnel de vente. Afin de proposer des produits de bonne qualité à bas prix, IKEA possédait 30 bureaux d’achat répartis à travers le monde, dont le rôle principal consistait à identifier des fournisseurs potentiels. Les designers du quartier général assuraient alors la sélection de chaque fournisseur pour chaque produit, avec pour critères principaux le coût et la facilité de fabrication. Les fournisseurs les moins chers étaient toujours préférés aux plus expérimentés. Ainsi, un fabricant de chemises avait été choisi pour produire des revêtements de fauteuils. Même si la procédure permettant de devenir un fournisseur de IKEA était très contraignante, les candidats n’avaient jamais manqué. En effet, une fois admis dans le système, un fournisseur pouvait accéder à un marché global, recevoir de l’assistance technique, louer des équipements et obtenir des conseils afin de hisser sa production à la hauteur des standards internationaux de qualité. À la fin des années 1990, la gamme de IKEA comprenait ainsi 12 000 produits, obtenus auprès de 1 800 fournisseurs répartis dans 45 pays et vendus à des prix 20 à 40 % moins élevés que ceux des concurrents. IKEA s’était toujours caractérisé par une culture extrêmement économe, voire spartiate. Ainsi, dans les premières années, l’entreprise avait été délocalisée au Danemark pour échapper à la taxation suédoise. Le directeur général de l’entreprise, Anders Moberg, personnifiait cette philosophie : il circulait dans une Nissan Primera de fonction, s’habillait de manière informelle comme les autres employés, pointait en arrivant à son bureau, voyageait en classe économique et ne descendait que dans des hôtels modestes. Tous les cadres étaient censés se comporter de cette manière. De fait, ces valeurs avaient été étendues à toute l’entreprise, dont les actions n’étaient pas cotées, mais détenues par une fondation néerlandaise. De plus, la stratégie d’expansion de IKEA n’avait jamais reposé sur d’autres ressources que l’autofinancement, pour lequel 15 % du chiffre d’affaires étaient systématiquement réinvestis.

Sources : R. Norman et R. Ramirez, « From value chain to value constellation: designing interactive strategy », Harvard Business Review, vol. 71, no. 4, 1993, pp. 65-77.

Questions

1. Identifiez d’autres entreprises qui suivent une stratégie hybride.

2. Quelles sont les difficultés spécifiques à la stratégie hybride ?

3. Quels conseils donneriez-vous à une entreprise souhaitant suivre une telle stratégie ?

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

NXT écoute les leçons de Dolby

Pour imposer un standard, il faut disposer d’une marque reconnue, de la protection d’un brevet et de relations étroites avec d’autres entreprises.

NXT pensait que sa technologie – les haut-parleurs plats – pouvait trouver sa place dans toutes sortes d’applications, des chaînes stéréo à la sonorisation des lieux publics, des autoradios aux téléphones mobiles. Issus des recherches militaires dans le domaine de l’insonorisation des avions, les haut-parleurs plats utilisaient des matériaux (carton, plastique mince) capables de diffuser des ondes sonores avec la même fidélité de reproduction que des haut-parleurs conventionnels de haut de gamme. Stratégiquement, NXT s’inspirait directement de l’approche de Dolby, le spécialiste des technologies audio dont le nom apparaissait sur la quasi-totalité des génériques de film, des téléviseurs ou des chaînes stéréo. Dolby était une société non cotée dont le chiffre d’affaires avait dépassé les 140 millions d’euros en 2000 et dont le profit était qualifié de « substantiel ». L’essentiel des revenus de Dolby provenait des licences de ses technologies audio, que l’entreprise avait accordées à environ 500 entreprises de biens de grande consommation, dont la plupart des grands fabricants japonais d’électronique. En 20 ans, ces licenciés avaient vendu près de 800 millions d’appareils utilisant les technologies de Dolby, protégées par de nombreux brevets et reconnues grâce à une habile politique de marque. Dolby avait utilisé cet excellent réseau de relations pour diffuser des produits complémentaires aux siens, développés par d’autres entreprises. NXT avait commencé à construire ses propres connexions : 200 licences avaient été cédées à des entreprises telles que Philips, Daimler, Chrysler ou Siemens. De fait, même si l’entreprise était en déficit (pour un chiffre d’affaires 2000 de plus de 21 millions d’euros), son cours d’action était au plus haut. L’approche de NXT était comparable à celle de Dolby à plusieurs titres :

Afin de protéger sa technologie, NXT avait déposé plus de 1500 brevets dans 70 pays, bien plus que Dolby. Ces brevets couvraient non seulement la technologie des haut-parleurs plats mais également leurs applications (par exemple des cartes d’anniversaire parlantes).

Les licenciés devaient travailler en étroite collaboration avec NXT lorsqu’ils adaptaient ses technologies. Contractuellement, l’entreprise avait un droit de veto sur les produits dont elle estimait la qualité insuffisante.

NXT s’assurait toujours que sa marque apparaissait sur les produits proposés par ses licenciés. Comme Dolby, son logo était devenu un symbole de qualité sonore. De fait, les innovateurs entraient spontanément en contact avec NXT, au détriment de ses concurrents.

NXT envisageait de céder des licences concernant des technologies associées à la reproduction sonore, telles que la reconnaissance de la parole.

Cependant, il existait une différence avec l’approche de Dolby. Un tiers des revenus de Dolby provenait en effet du développement de systèmes utilisés par le cinéma, que ce soit en studio ou dans les salles. Selon les responsables de Dolby, cela lui permettait de rester en contact avec la création cinématographique et de glaner des idées pouvant avoir des applications pour ses clients. À l’inverse, NXT ne souhaitait pas avoir d’activité de production, officiellement afin de ne pas concurrencer ses licenciés.

Source : adapté du Financial Times, 6 février 2001.

Questions (les numérotations font référence à la 2 e édition de Stratégique, 2003)

1. En utilisant les sections 7.4.2 (sur la manière de maintenir la différenciation) et 7.4.3 (sur le verrouillage des marchés), identifiez de quelle manière NXT d’une part et Dolby d’autre part pourraient maintenir leur avantage concurrentiel.

2. Pensez-vous que les prétentions de NXT sont réalistes ? Qu’est-ce qui pourrait les contrecarrer ?

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

La stratégie hypercompétitive de Intel

Dans un environnement turbulent, l’avantage concurrentiel peut être obtenu au travers de stratégies hypercompétitives.

Tout au long de son histoire, Intel n’a jamais hésité à passer d’une technologie à l’autre pour assurer son développement : mémoires, processeurs, composants spécialisés, cartes mères d’ordinateurs. De fait, ses concurrents s’étaient montrés incapables d’anticiper ses manœuvres stratégiques. Cependant, après 10 ans de croissance moyenne annuelle de 30 %, l’année 1998 fut marquée par un net ralentissement. Porté par son succès, Intel s’était trop focalisé sur les microprocesseurs et avait adopté un fonctionnement de plus en plus centralisé. À peine nommé, le nouveau P-DG Craig Barrett s’engagea dans une stratégie ouvertement hypercompétitive. La chronologie des opérations fut la suivante :

Avril 1997 : Barrett demande à ses troupes de rompre leurs vieilles habitudes et de se diversifier. Il compare l’activité microprocesseurs de Intel avec un créosote, une plante qui tue toute végétation environnante.

Juillet 1997 : Barret lance le premier d’une série de huit séminaires rassemblant son état-major, destinés à imaginer de nouvelles activités.

Octobre 1997 : achat de la division composants de DEC. L’accord inclut des droits sur le processeur StrongARM, que Intel adapte pour des produits mobiles et des technologies de réseau.

Janvier 1998 : réalisation d’une enquête auprès de 2000 fournisseurs d’accès à Internet. Ceux-ci affirment qu’ils recherchent des serveurs simples d’utilisation qui remplissent certaines tâches telles que l’encodage. Intel lance le développement d’une gamme de serveurs.

Février 1998 : afin de lancer son activité réseaux, Intel tient une conférence de presse à San Francisco, durant laquelle sont présentés plusieurs dizaines de produits, dont des routeurs.

Mars 1998 : afin de restaurer sa part de marché dans les microprocesseurs d’entrée de gamme, Intel lance son modèle Celeron. L’accueil du marché est au départ peu enthousiaste.

Juillet 1998 : lancement d’une nouvelle activité, le financement de start-ups internes à l’entreprise.

Août 1998 : création d’une division chargée de développer des produits ménagers utilisant Internet, dont des téléviseurs permettant l’accès au web et des décodeurs numériques.

Septembre 1998 : étude de l’opportunité du lancement d’une activité d’hébergeur de sites Internet. En dépit de l’éloignement par rapport aux DAS historiques du groupe, le comité de direction donne son accord au bout de 6 semaines.

Novembre 1998 : après seulement 12 mois de développement, lancement d’un site permettant aux clients de passer leurs commandes sur le web. En 1999, les ventes sur Internet s’envolent, pour atteindre un milliard de dollars par mois.

Février 1999 : annonce du développement d’un processeur numérique spécialisé, en coopération avec Analog Devices. Ce composant est destiné aux téléphones mobiles et à l’électronique grand public.

Mars 1999 : acquisition de Level One, fabricant spécialisé dans des composants permettant d’utiliser le réseau électrique pour faire communiquer les ordinateurs.

Avril 1999 : annonce d’un kit de réseau local pour particuliers, premier produit Intel à être vendu directement aux clients finaux par Internet. Il s’agit d’un système utilisant les lignes téléphoniques.

Juin 1999 : acquisition de Dialogic, un fabricant de systèmes téléphoniques pour PC, qui permet à Intel d’accéder aux technologies de convergence entre voix et données.

Septembre 1999 : annonce de 13 composants de réseau et ouverture du premier centre d’hébergement de sites Internet. Avec une capacité de 10 000 serveurs, ce centre peut héberger des centaines d’entreprises de e-commerce.

Octobre 1999 : acquisition de DSP Communication (un spécialiste de la téléphonie mobile) et de Ipivot, une société qui a mis au point une technologie permettant d’accélérer les transactions sécurisées sur Internet.

Février 2000 : lancement de la gamme de serveurs NetStructure (7 modèles), qui en accélérant le trafic sur Internet mettent Intel en concurrence avec Cisco Systems.

Source : adapté de Business Week, 13 mars 2000, pp. 56-61.

Questions

1. En quoi l’approche de Intel s’apparente-t-elle à une stratégie hypercompétitive ?

2. Quels sont les risques de l’approche de Barrett ?

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Les stratégies concurrentielles des constructeurs automobiles japonais en Europe

L’horloge stratégique permet d’expliquer comment les stratégies des constructeurs automobiles japonais ont évolué au cours du temps.

Trajectoire 1 Dans les années 1960 et au début des années 1970, les constructeurs automobiles japonais pénétrèrent sur le marché européen en adoptant un positionnement à bas prix et valeur réduite, car ils estimaient que cette position ne serait pas défendue par les Européens. Leurs produits étaient basiques et considérés comme tels par les clients, qui n’avaient pas d’attentes particulières en termes de valeur. Les volumes de ventes et l’expérience accumulée grâce à cette approche permirent aux Japonais d’établir une tête de pont en Europe avant de déployer d’autres stratégies plus profitables.

Trajectoire 2

À la fin des années 1970 et au début des années 1980, l’amélioration de la qualité des automobiles japonaises

modifia profondément leur image auprès des clients, qui admirent que les véhicules Toyota, Nissan et Honda étaient aussi fiables que leurs équivalents européens. Cependant, les constructeurs japonais continuèrent à

pratiquer une politique de prix bas, ce qui leur permit d’accroître leurs parts de marché.

Trajectoire 3

À la fin des années 1980, la qualité et la fiabilité des automobiles japonaises étaient devenues supérieures à

celles de leurs concurrentes européennes, alors que leurs prix de vente continuaient à être très compétitifs. Les constructeurs européens tentèrent de répliquer en mettant en place des programmes de qualité totale et en réduisant leurs prix de vente.

Trajectoire 4 Au milieu des années 1990, les principaux constructeurs japonais, tout comme certains de leurs concurrents, cherchèrent à différencier leurs produits en proposant – sans augmentation de tarif – des équipements supplémentaires comme les airbags ou la climatisation, ainsi que des extensions de garantie et de service. Ils proposèrent également de nouveaux concepts de véhicules, comme les « 4x4 de loisir » (Toyota RAV 4 ou Honda CR-V). Au début des années 2000, les constructeurs européens suivirent cette tendance, qui de fait ne constituait plus une différenciation.

Trajectoire 5 Toyota tenta d’imposer en Europe sa division d’automobiles de luxe, Lexus, comme un concurrent crédible face à Mercedes, BMW ou Jaguar. En tant que nouvel entrant, Lexus ne disposait pas de la même image de prestige. Aussi, les campagnes de communication visèrent à persuader les clients que les caractéristiques objectives d’une automobile importaient plus que son nom. Cette stratégie, déjà suivie avec succès aux États-Unis, fut cependant plus difficile à mettre en œuvre en Europe.

Trajectoire 8

À la fin des années 1990, Nissan perdait des parts de marché en Europe. Sa gamme de produits était perçue

comme insuffisamment attractive. En mars 1999, Renault prit le contrôle de Nissan et entreprit une vaste opération de développement de nouveaux produits, avec par exemple le lancement simultané de six nouveaux modèles fin 2004.

Préparé par Tony Jacobs, Bristol Business School.

Questions

1. Pourquoi les nouveaux entrants dans une industrie choisissent-ils généralement de pénétrer sur le marché par la trajectoire 1 de l’horloge stratégique ?

2. Pourquoi les concurrents établis (VW, Renault, PSA, Fiat, etc.) n’ont-ils pas réagi à la montée en puissance des constructeurs japonais lorsque ceux-ci sont passés aux trajectoires 2 et 3 ?

3. Serait-il possible de pénétrer sur le marché par la trajectoire 5, pour ensuite évoluer vers d’autres positions ? Quelles seraient alors les évolutions les plus faciles et les plus difficiles ?

4. Au moment de la prise de contrôle par Renault, Nissan s’enlisait sur la trajectoire 8. Supposez que vous êtes alors le nouveau directeur général de Nissan. Sur quelle trajectoire de l’horloge stratégique serait-il pertinent de repositionner votre gamme ?

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Des biscuits dentelés comme avantage concurrentiel ?

En construisant une stratégie de différenciation, les managers ne doivent pas se laisser leurrer par des critères fallacieux.

Lors d’un atelier stratégique, les cadres supérieurs d’une multinationale de l’agroalimentaire discutèrent les fondements de l’avantage concurrentiel pour chacun des domaines d’activité stratégique dont ils étaient responsables. La notion d’avantage fondé sur l’identification des besoins des clients fut rapidement évoquée et l’un des managers, responsable de l’assurance qualité d’une marque de biscuits, fit le commentaire suivant :

« Je suis tout à fait d’accord. Dans notre activité, nous savons ce que les clients veulent et nous avons investi pour pouvoir y répondre. Nos enquêtes montrent que les clients donnent beaucoup d’importance à la dentelure sur le bord des biscuits. Ils veulent une dentelure régulière et bien découpée. Nous venons d’investir 650 000 euros en outillage pour produire ce type de dentelure tout en limitant les déchets. Nous sommes les leaders sur cette stratégie. » Dans la discussion qui suivit, il apparut qu’il y avait au moins trois failles dans cette déclaration. Tout d’abord, le point de référence pour envisager cette stratégie était le consommateur final. L’entreprise qualifiait la grande distribution de concurrent, du fait de l’existence de marques de distributeurs contrôlant 50 % du marché et de la menace constante de ne plus être référencé dans les magasins. Même si le point de vue du consommateur final était bien évidemment important, les clients véritablement stratégiques étaient les distributeurs. Or, l’entreprise n’avait pas de stratégie claire lui permettant de construire un avantage concurrentiel à leur niveau. Deuxièmement, l’identification des besoins des clients était fondée sur une enquête qui avait présélectionné a priori certaines caractéristiques des biscuits, parmi lesquelles figurait la « régularité de la dentelure ». Certains participants à l’atelier stratégique soulignèrent que ce n’était certainement pas parce que « les clients ont coché une case qu’un type du département R&D a décidé de mettre dans le questionnaire » que l’on devait en déduire un critère de différenciation et encore moins investir de fortes sommes pour y répondre. Enfin, devant ces objections, le responsable qualité finit par admettre que rien ne pouvait empêcher un concurrent d’acquérir un outillage identique lui permettant d’obtenir des dentelures tout aussi parfaites. S’il y avait là le moindre avantage concurrentiel – et l’on était en droit d’en douter – celui-ci était aisément imitable.

Questions (les numérotations font référence à la 7e édition de Stratégique, 2005)

Cet exemple illustre trois erreurs classiques des stratégies de différenciation :

(a)

La valeur créée est mal évaluée car on n’identifie par le client pertinent (ou la partie prenante concernée).

(b)

Les bénéfices de la différenciation sont mal définis.

(c)

La différenciation supposée est facile à imiter.

En gardant à l’esprit ces trois points, répondez aux questions suivantes :

1. Est-ce que la stratégie de sophistication de BMW présentée dans l’illustration 5.4 surmonte ces défauts ?

2. En quoi aurait consisté un critère de différenciation pertinent pour l’entreprise de biscuits ?

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Free bouscule l’Internet français

Combiner prix bas et création de valeur peut être une stratégie gagnante, à condition de se montrer innovant.

Le 15 décembre 2004, le fournisseur d’accès Internet Free présenta la première démonstration en France de diffusion de télévision haute définition (TVHD) par ADSL, en collaboration avec France Télévisions. Ce succès couronnait une année 2004 particulièrement riche en rebondissements pour Free.

Le fondateur de Free était Xavier Niel, un entrepreneur qui avait fait fortune dans les années 1980 en créant puis en revendant des services de Minitel rose, avant de créer en 1993 le premier fournisseur d’accès à Internet en France, Worldnet, revendu en 2000 pour 40 millions d’euros. Xavier Niel avait également fondé le service d’annuaire inversé 3617annu en 1997, Free en 1999, racheté la filiale française de l’opérateur australien de téléphonie fixe One.Tel en 2001 et la société de cartes téléphoniques prépayées Kertel en 2003. Ces sociétés, auxquelles s’ajoutait l’hébergeur de sites Internet Online.net, avaient été rassemblées au sein du groupe Iliad, dont Xavier Niel était actionnaire à 70 %.

Au départ, Free proposa un accès à Internet sans surcoût par rapport au prix d’une communication locale, alors que tous ses concurrents (France Telecom, Tiscali, AOL, N9uf Telecom, Cegetel, Club Internet, Tele2) facturaient un abonnement.

C’est en octobre 2002 que Free lança son offre d’accès illimité par ADSL (à 512 Kbit/s) pour 29,99 euros. À cette époque, l’offre comparable la moins chère était à 45 euros. Cependant, les concurrents réagirent en abaissant progressivement leurs prix : fin 2003, tous ou presque proposaient un accès à 512 Kbit/s pour environ 30 euros. Cependant, dans l’intervalle, Free avait proposé trois innovations majeures : alors que son tarif était maintenu à 29,99 euros, l’opérateur avait doublé sa vitesse d’accès à 1 024 Kbit/s et surtout ajouté en août 2003 un service de téléphonie gratuit et illimité, puis en décembre 2003 une offre de télévision numérique (une centaine de chaînes dont une soixantaine gratuites), le tout grâce à la Freebox, un terminal de connexion ADSL remis à tous les nouveaux abonnés, auquel il suffisait de relier son ordinateur, son téléphone et son téléviseur.

Début 2004, le groupe Iliad fut introduit en Bourse avec succès, mais Xavier Niel fut mis en examen pour proxénétisme aggravé et abus de biens sociaux. Il était accusé d’avoir investi dans les années 1990 dans trois peep-shows qui auraient servi de couverture à des activités de prostitution. Ce rebondissement, s’il écarta Xavier Niel du devant de la scène au profit de son directeur général Michaël Boukobza, ne freina en rien l’expansion de Free. Toujours sans augmentation du prix de l’abonnement, la vitesse fut portée à 6 Mbit/s puis à 15 Mbit/s en octobre 2004, alors qu’un accord était signé avec Canal+, permettant de diffuser la chaîne cryptée et son bouquet CanalSatDSL sur la Freebox.

Début 2005, Free était devenu le numéro deux français de l’accès à Internet, avec plus de 1 million de clients en ADSL et 17 % de part de marché, derrière l’opérateur historique France Telecom mais loin devant les autres concurrents. Le chiffre d’affaires de Iliad avait atteint les 491 millions d’euros en 2004, en croissance de 68 % par rapport à 2003. Free représentait les deux tiers de ce chiffre, mais les autres activités du groupe connaissaient également une très forte croissance.

Cette expansion effrénée provoquait cependant quelques déboires pour les clients. Si entre 2002 et 2004, le nombre d’abonnés ADSL de Free avait été multiplié par cinq cent, le service clientèle n’avait pas crû en conséquence. De fait, les délais d’activation des lignes et de remplacement des vieux modems par des Freebox ou encore le temps d’attente pour obtenir le service de support téléphonique pouvaient être très longs, au point de décourager certains clients. Soucieux de s’affranchir le plus possible de sa dépendance vis-à-vis du réseau de France Telecom, les investissements prioritaires de Free concernaient avant tout son infrastructure technologique (un réseau de 12 000 kilomètres de fibres optiques, près de 2000 serveurs et routeurs, ajout de nouvelles fonctionnalités à la Freebox) et non le service clientèle ou la publicité. Le maintien de l’abonnement à 29,99 euros, malgré la multiplication de la vitesse par trente et l’ajout du téléphone et de la télévision, semblait être à ce prix.

Parti d’une simple offre d’accès à Internet à bas prix en 1999, Free avait bouleversé l’offre de référence du marché, au point de se retrouver cinq ans plus tard positionné comme un fournisseur haut de gamme. Free était plus cher que ses concurrents qui en étaient restés à une offre d’accès à Internet (comme AOL), mais proposait un service beaucoup plus élaboré qui le plaçait en concurrence non seulement avec France Telecom pour Internet et pour la téléphonie, mais aussi avec le satellite ou le câble pour la télévision. Petite société cotée en Bourse, Free était confronté à de puissantes multinationales, mais sa stratégie avait modelé le paysage français de l’Internet à haut débit, qui était devenu le moins cher et le plus concurrentiel d’Europe.

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Sources : iliad.fr ; Les Echos, 17 décembre 2003 et 12 février 2005 ; lexpansion.com ; Le Monde, 12 novembre 2004.

Questions (les numérotations font référence à la 7e édition de Stratégique, 2005)

4. En référence au schéma 5.3, en quoi peut-on dire que Free suit une stratégie hybride ?

5. Que conseilleriez-vous aux concurrents de Free ?

6. Identifiez d’autres entreprises qui suivent une stratégie hybride. Quels conseils donneriez-vous à une entreprise souhaitant suivre une telle stratégie ?

Dolby et Visa verrouillent leur marché

Pour imposer un standard, il faut disposer d’une marque reconnue, de relations étroites avec d’autres entreprises et de la volonté de les protéger.

Dolby

Dolby était le spécialiste des technologies audio dont le nom apparaissait sur la quasi-totalité des génériques de film, des téléviseurs ou des chaînes stéréo. Il s’agissait d’une société non cotée dont le chiffre d’affaires dépassait les 140 millions d’euros et dont les bénéfices étaient qualifiés de « substantiels ». L’essentiel des revenus de Dolby provenait des licences de ses technologies audio, que l’entreprise avait accordées à environ 500 entreprises de biens de grande consommation, dont la plupart des grands fabricants japonais d’électronique.

En vingt ans, ces licenciés avaient vendu près de 800 millions d’appareils utilisant les technologies de Dolby,

protégées par de nombreux brevets et reconnues grâce à une habile politique de marque.

Par ailleurs, un tiers des revenus de Dolby provenait du développement de systèmes utilisés par le cinéma,

que ce soit en studio ou dans les salles. Selon les responsables de Dolby, cela permettait de rester en contact avec

la création cinématographique et de glaner des idées pouvant avoir des applications pour les clients. Dolby utilisait également son excellent réseau de partenariats afin de diffuser des produits complémentaires

aux siens, développés par d’autres entreprises.

Visa

Fin 2003, Mastercard International intenta un procès contre Visa aux États-Unis afin de bloquer l’instauration

d’un « droit d’interruption de service ». Cette nouvelle procédure permettait à Visa de faire subir des pénalités financières prohibitives à ses cent principaux émetteurs si jamais ils diminuaient leur volume de transactions. L’avocat de Mastercard analysait la situation de la manière suivante : « Les intentions de Visa sont claires : au lieu de développer des programmes à valeur ajoutée et des solutions qui bénéficient aux émetteurs, aux

commerçants et aux consommateurs, ils cherchent à verrouiller leur position dominante sur les transactions en magasin en pénalisant les membres de leur réseau qui voudraient les quitter. Ils veulent instaurer une procédure d’intimidation afin de rendre le changement de marque virtuellement impossible. C’est comme si une compagnie aérienne annonçait à ses passagers au milieu d’un vol que s’ils désirent utiliser une autre compagnie au cours des

dix prochaines années, ils devront payer une forte amende rien que pour pouvoir descendre de l’avion. Ce n’est

rien d’autre qu’une manœuvre à peine déguisée visant à empêcher toute concurrence et à enfermer des clients qu’ils risqueraient de perdre. Cette procédure, qui cherche à contraindre injustement la liberté de choix des émetteurs, n’est pas fondée sur un attachement légitime à la marque. En contournant la concurrence, elle finira nécessairement par pénaliser les consommateurs. Les institutions financières qui émettent des cartes Mastercard

et Visa devraient avoir le droit de prendre des décisions fondées sur leur propre évaluation du pouvoir de la marque, de la qualité de service et d’autres facteurs de concurrence qui peuvent bénéficier à leurs clients. Au lieu

de cela, la procédure de Visa fixe des pénalités prohibitives et érige des barrières à la sortie qui limitent

drastiquement les options des émetteurs ».

Sources : adapté du Financial Times, 6 février 2001 ; Business Wire, 18 septembre 2003.

Questions (les numérotations font référence à la 7e édition de Stratégique, 2005)

3. En utilisant les sections 5.4.2 (sur la manière de maintenir la différenciation) et 5.4.3 (sur le verrouillage des marchés), identifiez de quelle manière Dolby et Visa tentent de maintenir leur avantage concurrentiel.

4. Que pourraient faire leurs concurrents pour riposter à cette situation de verrouillage ?

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

NXT est un nouveau venu qui ne bénéficie pas encore d’une position concurrentielle dominante susceptible de l’inscrire dans le même type de boucle de rétroaction positive que celle dont bénéficie Dolby.

Est-il pertinent de détenir un outil de production ? NXT s’y refuse afin de ne pas concurrencer ses licenciés. À l’inverse, Dolby y voit une manifestation physique de sa présence et de son identité sur le marché, points qui font justement défaut à NXT.

On peut également se demander si tous les utilisateurs des technologies de NXT sont disposés à signer des accords d’exclusivité qui leur interdisent de recourir à des technologies concurrentes. Il s’agit d’un point de négociation particulièrement délicat : il est plus que probable que NXT insistera pour obtenir ce type d’accord, mais vraisemblablement pas au point de décourager certains utilisateurs potentiels. De fait, son verrouillage du marché risque d’être moins efficace que celui qui a été mis en place par Dolby.

Causes de la pérennité

Dolby

NXT

Difficultés d’imitation

- Complexité

Dolby et NXT ont développé une stratégie complexe de protection juridique et d’accords de licences.

- Ambiguïté causale

Les réseaux de licences s’appuient sur des relations avec d’autres entreprises et les renforcent.

- Encastrement dans la culture

Dolby a recours à des pratiques établies de longue date

Par rapport à Dolby, NXT est un nouveau venu

Difficultés de transfert

- Actifs intangibles

La marque et la réputation de Dolby sont bien établies

NXT doit encore établir sa marque et sa réputation

- Coûts de transfert

Dolby a la confiance de ses utilisateurs

NXT cherche à s’assurer que toutes ses technologies sont protégées

- Co-spécialisation

Dolby et NXT cherchent à susciter le développement conjoint de produits sous licence

Verrouillage

 

- Dominance

Dolby est en position dominante

NXT est suiveur

- Position de pionnier

Dolby et NXT ont été des pionniers

- Boucle de rétroaction

En place

Encore à démontrer

- Préservation

Dolby et NXT protègent rigoureusement leurs technologies

rigoureuse

La stratégie hypercompétitive de Intel

Il est clair que Intel a été impliqué dans une escalade hypercompétitive du type de celle qui est décrite dans le schéma 7.7. La stratégie de Barrett a été une réponse à cette situation. La section 7.8.3 est une bonne description de ce qu’il a tenté de faire. Il a essayé de « casser le moule » en

© 2003, 2005, Pearson Education France

2

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

mettant en doute les fondements établis de l’avantage concurrentiel de Intel. Pour cela, il a lancé toute une série d’initiatives, en supposant vraisemblablement que certaines réussiraient alors que d’autres échoueraient. Tous ces signaux discordants ont également rendu la stratégie de Intel particulièrement imprévisible pour ses concurrents.

Quels sont les risques de ce type d’approche ?

Le nombre et la diversité des initiatives peuvent plonger dans la confusion non seulement les concurrents, mais aussi les actionnaires et les salariés.

Il existe un risque de gaspillage des ressources de l’entreprise entre un nombre trop élevé d’activités.

Cette approche repose également sur l’hypothèse que si l’une des initiatives est couronnée de succès, les managers de Intel seront capables de l’identifier et de la développer rapidement. Or, dans le passé, Intel a parfois été critiqué pour la myopie et sa lenteur.

Enfin, un certain nombre de concurrents cherchent eux aussi à expérimenter de nouvelles idées. Par conséquent, même si certaines des initiatives de Intel sont pertinentes, elles risquent d’être surpassées par celles des concurrents.

Les stratégies concurrentielles des constructeurs automobiles japonais en Europe

Cette illustration permet aux participants de distinguer les différentes stratégies génériques qui composent l’horloge stratégique du schéma 5.3.

La trajectoire 1 permet souvent de pénétrer sur un marché car il est probable que les plus gros concurrents en place se positionnent sur des stratégies plus génératrices de valeur. Dans les années 1960 et 1970, les constructeurs automobiles européens supportaient des coûts bien plus élevés que les Japonais, qui ainsi ont pu se spécialiser sur des véhicules à bas prix, pour lesquels leur absence de réputation n’était pas rédhibitoire.

On peut se demander pourquoi les occidentaux n’ont pas réagi lorsque les Japonais ont évolué vers les trajectoires 2 et 3. On peut supposer que leur structure de coûts ne le leur permettait pas, que leur capacité d’innovation – notamment en termes de procédés – était insuffisante ou qu’ils étaient victimes de l’inertie qui touche souvent les leaders établis. Quoiqu’il en soit, il n’a fallu que 25 ans aux Japonais pour s’imposer comme des concurrents non seulement crédibles mais menaçants.

Pénétrer un marché à partir de la trajectoire 5 implique de réduire les prix – et donc les coûts. Or, une entreprise qui a construit des compétences à partir de la sophistication risque d’éprouver d’importantes difficultés à réduire ses coûts. De même, le marché peut réagir négativement à ce qu’il considèrera comme une descente en gamme. Passer de la sophistication à la stratégie hybride revient à réduire les prix tout en maintenant la sophistication. Pour réussir une évolution de ce type, il convient de définir avec précision quelles sont les compétences requises pour la différenciation et quelles sont celles qui peuvent être sous-traitées, restructurées, voire abandonnées, afin de réduire la position de coûts.

Nissan avait dérivé sur la trajectoire 8 et devait donc se repositionner. On peut estimer que le repositionnement le plus pertinent consiste à s’orienter sur la trajectoire 3 (stratégie hybride) en proposant des produits qui présentent une valeur plus élevée pour un prix moindre. C’est en grande partie la stratégie qui a été déployée par Carlos Ghosn, le dirigeant nommé par Renault pour redresser Nissan. Cependant, ce repositionnement nécessite une très fine compréhension de ce que les clients valorisent et des compétences requises pour proposer ces fonctionnalités.

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

Des biscuits dentelés comme avantage concurrentiel ?

Les participants sont appelés à discuter dans quelle mesure BMW (illustration 5.4) échappe aux erreurs classiques de la différenciation. On peut affirmer que dans le cas de BMW :

La valeur est correctement évaluée et les clients clairement ciblés : les acheteurs de BMW sont généralement fidèles et le chiffre d’affaires de l’entreprise connaît une forte croissance.

Les bénéfices de la différenciation sont bien définis : qualité, exclusivité, sportivité.

La durabilité de l’avantage concurrentiel est plus difficile à estimer, en particulier face à la pression croissante des autres constructeurs spécialisés sur ce même créneau, mais également du fait des progrès constants – notamment en terme de qualité ou de perfectionnement technologique – des constructeurs généralistes.

La deuxième question pose la question d’une différenciation pertinente pour une entreprise de biscuits. Selon les principes énumérés ci-dessus, on peut partir des questions suivantes :

Qui est le client le plus déterminant en termes stratégiques ? Certes, le consommateur final est important, mais le distributeur est vital.

Par conséquent, qu’est-ce qui est le plus valorisé par les distributeurs ? On peut penser à la marque, à la vitesse et à la fiabilité de livraison, au partage d’information, à la participation aux promotions, etc. La stratégie de différenciation doit donc être conçue de manière à mieux répondre à ces attentes.

Est-il possible de maintenir une différenciation de ce type ? Tout dépend des ressources et compétences sous-jacentes. Si une marque forte est difficile à imiter, un système logistique l’est généralement beaucoup moins. Tous les fournisseurs de la grande distribution participent aux promotions, mais il est nettement plus difficile d’établir des relations de confiance étroites avec les distributeurs.

Free bouscule l’Internet français

La stratégie de Free est typique d’une stratégie hybride (trajectoire 3 sur le schéma 5.3) :

offrir une offre plus élaborée mais moins coûteuse que l’offre de référence (qui correspondait au départ à l’offre des puissants concurrents, notamment celle de France Telecom). Il n’est pas facile de mener une stratégie hybride simplement en imitant la sophistication des concurrents mais à un niveau de prix inférieur. En effet, la différenciation risque alors d’être dévalorisée par les clients et l’entreprise sera perçue comme un imitateur à bas prix. Free a su éviter cet écueil en se montrant innovateur à plusieurs reprises. Néanmoins, cette surenchère technologique a été financée au détriment du niveau de service, ce qui doit alerter les dirigeants de Free en termes de pérennité : une fois les clients conquis par la richesse de l’offre, la qualité de service est indispensable pour les fidéliser.

Les concurrents de Free ont pour la plupart choisi de suivre son positionnement, afin de ne pas créer un différentiel de prix/valeur trop important aux yeux des clients. De fait, on retrouve l’idée que la stratégie hybride correspond à la notion de progrès : elle caractérise des approches nouvelles, des innovations de rupture et des modèles économiques inédits qui précipitent l’évolution d’une industrie. Cependant, ce positionnement novateur finit toujours par être rattrapé par l’offre de référence. C’est ainsi qu’à partir de fin 2004 France Telecom a lancé sa Livebox, N9uf Telecom sa Neuf Box ou Cegetel sa C-Box. On peut remarquer que ces concurrents ont poussé l’imitation du positionnement de Free jusqu’à adopter une marque faisant explicitement référence à la Freebox, ce qui signale bien que Free a redéfini l’offre de référence. Soulignons tout de même que le lancement de la Livebox par France Telecom a été perturbé par de nombreux problèmes techniques, notamment en ce qui concerne la télévision par ADSL. Le service de support téléphonique a été rapidement débordé par les réclamations des clients et plusieurs responsables ont été sanctionnés.

© 2003, 2005, Pearson Education France

4

Historique Stratégique

Gerry Johnson, Kevan Scholes, Richard Whittington, Frédéric Fréry

La troisième question concerne les conseils que l’on pourrait donner à une entreprise souhaitant adopter une stratégie hybride. Le premier conseil – c’est la définition de cette stratégie – est de concevoir une nouvelle approche permettant de simultanément réduire les prix et de créer plus de valeur pour les clients. Le deuxième – au moins en théorie – est de mener un audit de la capacité stratégique grâce aux méthodes présentées dans le chapitre 4, de manière à identifier quels peuvent être les fondements d’une différenciation robuste et à l’inverse quelles activités peuvent faire l’objet d’économies (le service clientèle dans le cas de Free). On peut ainsi espérer construire une différenciation tout en obtenant une position de coûts plus favorable que celle des concurrents.

Dolby et Visa verrouillent leur marché

En utilisant les sections 5.4.2 et 5.4.3, le tableau suivant résume la manière dont Dolby et Visa ont cherché à maintenir leur avantage concurrentiel.

Causes de la pérennité

Dolby

Visa

Difficultés d’imitation

- Complexité

Stratégie complexe de protection juridique et d’accords de licences

Plus de complexité

- Ambiguïté causale

Relations fondées sur des réseaux de licences

Les concurrents ont réussi à imiter

- Enchâssement dans la culture

Dolby a recours à des pratiques établies de longue date

Probablement encore un avantage

Difficultés de transfert

- Actifs intangibles

La marque et la réputation de Dolby sont bien établies

La marque est toujours forte

- Coûts de transfert

Dolby a la confiance de ses utilisateurs

Fortes pénalités de sortie pour les distributeurs

- Co-spécialisation

Développement conjoint de produits sous licence

Une partie du système est développée conjointement

Verrouillage

 

- Dominance

Dolby est en position dominante

Partage de la position dominante avec Mastercard

- Position de pionnier

Dolby a été un pionnier

Visa a été un pionnier

- Boucle de rétroaction

En place

Principale cause du succès passé

- Préservation rigoureuse

Dolby protège rigoureusement ses standards techniques

Fortes pénalités de sortie pour les distributeurs

Il ressort de cette comparaison que Visa protège sa position dominante à tout prix, car son avantage de marché subit une évidente érosion. Au contraire, la position dominante de Dolby est toujours fondée sur un positionnement réellement différencié de celui de ses concurrents.