Vous êtes sur la page 1sur 19

L’avantage concurrentiel au cœur des stratégies des entreprises

Un avantage concurrentiel (ou avantage comparatif), théorisé par Porter dans Avantage
Concurrentiel en 1985, se définit comme étant l’offre qui permet de différencier une entreprise de ses
concurrents. Cela permet à l’entreprise d’avoir une meilleure position sur le marché et ainsi d’être
pérenne mais, pour ce faire, l’avantage concurrentiel doit être durable dans le temps, identifiable et
défendable face à ses concurrents. Dès lors, une entreprise peut avoir un avantage concurrentiel
selon la stratégie qu’elle choisit : différenciation, domination par les coûts ou focalisation (ou
stratégie de niche).

La notion d’avantage concurrentiel est incontournable lorsque vous devez parler des stratégies de
l’entreprise. Cela rajoute un plus à votre réponse car vous justifiez le choix de l’entreprise d’avoir
choisi telle ou telle stratégie et vous ne faites pas qu’une description : vous analysez et tirez les
conséquences de la stratégie choisie. Il n’est cependant pas nécessaire d’insister longuement sur ce
point si dans une question suivante ou précédente, ou vous demande quels sont les avantages
concurrentiels (il ne faudrait pas que vous vous répétiez) de l’entreprise.

L’environnement et son influence sur l’entreprise

Lorsque dans une question on vous demande d’analyser l’environnement de l’entreprise, les 5 forces
concurrentielles de Porter est un outil important pour parler du micro-environnement de l’entreprise.
En effet, les forces concurrentielles énoncent les autres acteurs sur un marché qui peuvent entraver
ou non la pérennité de l’entreprise et ainsi exercer une force sur elle. Porter a théorisé cet outil dans
un article de 1979, publié dans la Harvard Business Review et intitulé How Competitive Forces Shape
Startegy.

L’environnement et son influence sur l’entreprise

Lorsque dans une question on vous demande d’analyser l’environnement de l’entreprise, les 5 forces
concurrentielles de Porter est un outil important pour parler du micro-environnement de l’entreprise.
En effet, les forces concurrentielles énoncent les autres acteurs sur un marché qui peuvent entraver
ou non la pérennité de l’entreprise et ainsi exercer une force sur elle. Porter a théorisé cet outil dans
un article de 1979, publié dans la Harvard Business Review et intitulé How Competitive Forces Shape
Startegy.

L’entreprise se divise en effet selon deux grandes activités :

Les activités de soutien :

Infrastructure de la firme : la direction générale et les autres fonctions de support (comptabilité,


juridique, etc.) ;

Gestion des ressources humaines : recrutement, rémunération, formations proposées, gestion de


carrière, etc. ;

Développement technologique : systèmes d’information, gestion des connaissances, recherche et


développement ;

Approvisionnement : achat de matières pour la production, les fournitures, les moyens de


production.
Les activités de base :

Logistique interne : réception, stockage, manutention interne ;

Production : transformation des matières achetées en produits finis ;

Logistique externe : livraison ;

Commercialisation et ventes : moyens et méthodes que l’entreprise utilise pour faire connaître son
offre (marketing) ;

Services : les activités en complément de l’offre principale de l’entreprise (service après-vente,


formation, maintenance).

La chaîne de valeur de Porter permet donc de mettre en lumière les avantages concurrentiels d’une
entreprise, c’est pourquoi la structure de cette chaîne peut vous aider à structurer la liste des
avantages concurrentiels de l’entreprise (avantages concernant la R&D, avantage lié à la marque,
avantage lié aux compétences des salariés, etc.). Il est en effet important de structurer vos réponses
et ne pas énumérer des avantages concurrentiels les uns à la suite des autres. Par ailleurs, cet outil
stratégique peut aussi être mobilisé lorsque vous devez faire un diagnostic interne de l’entreprise,
c’est-à-dire lorsque vous devez analyser les forces et les faiblesses de l’entreprise. On a souvent
l’habitude d’utiliser les ressources tangibles et intangibles d’Edith Penrose, mais la chaîne de valeur
est une alternative qui permet aussi de répondre à la question.

La classification des parties prenantes

Pour rappel, une partie prenante se définit comme étant un individu ou un groupe d’individus en
relation avec l’entreprise, qui peut affecter ses décisions ou au contraire être affecté par elles.

Une autre définition, bien plus large, est proposée par Post, Preston et Sachs. Pour eux, les parties
prenantes sont tous les individus, ainsi que les éléments constitutifs, qui contribuent de façon
volontaire ou non à la capacité de l’entreprise à créer de la valeur, qui en sont les principaux
bénéficiaires et/ou en supportent les risques. Cette définition est intéressante dans le sens où elle
permet d’introduire une dimension non volontaire, touchant ainsi des parties prenantes qui ne sont
pas forcément des acteurs actifs (notamment pour revendiquer des intérêts) mais plutôt des acteurs
passifs.

Généralement, on distingue deux sortes de parties prenantes :

● Les parties prenantes internes : les dirigeants, les salariés, les actionnaires, les
représentants des salariés…

● Les parties prenantes externes : les clients, les fournisseurs, les concurrents, les banques,
les ONG, les syndicats, la société civile, la collectivité…

Les parties prenantes se distinguent de par leur intérêt propre : l’intérêt des salariés (être bien

rémunéré, avoir des conditions de travail décentes) peut différer de l’intérêt des actionnaires (la
rentabilité de l’entreprise) et, parfois, être en totale opposition.

Par ailleurs, Clarkson introduit une autre distinction entre les parties prenantes, distinction mise en
exergue par la finalité financière de l’entreprise. Nous retrouvons donc :
● Les parties prenantes primaires : ce sont les parties prenantes dont la participation est
nécessaire à la survie de l’entreprise, on retrouve donc ici les clients, les actionnaires… Ce
sont eux qui font vivre l’entreprise, lui permettent d’être rentable, etc.

● Les parties prenantes secondaires : la relation avec ces dernières n’est pas vitale pour
l’entreprise.

Les parties prenantes sont-elles en opposition ou coopèrent-elles toutes ensemble ?

De nombreux auteurs ayant écrit à ce sujet témoignent d’une réelle opposition entre les parties
prenantes, ceci s’expliquant par le fait que chacun cherche à satisfaire ses propres intérêts, et ce
parfois au détriment de ceux des autres. Dans la théorie des coalitions d’individus de Cyert et March,
bien que les individus aient tous un intérêt dans l’entreprise, leurs attentes diffèrent et sont
contradictoires. Les individus tentent alors de maximiser leurs intérêts propres, ce qui crée une
entreprise composée de coalitions. Le rôle du dirigeant est alors d’arbitrer et de chercher la
coopération de tous. Les décisions prises ne sont donc pas le fruit de choix stratégiques, mais
résultent de négociations et de compromis entre les différents individus.

D’autres auteurs ont une autre approche sur la nature des décisions prises par l’entreprise. En effet,
certains individus ont davantage de pouvoir et d’influence que d’autres. Selon la théorie des jeux de
pouvoir et de contre-pouvoir de Crozier, celui qui détient le pouvoir peut influencer les autres, les
contraindre à agir, jouer sur leurs incertitudes, afin d’obtenir dans sa relation avec ces derniers que
les décisions prises lui soient favorables. Ainsi, l’individu qui possède ce pouvoir dispose d’une marge
de manœuvre bien plus importante que ceux qui s’en retrouvent dépourvus. Cela permet à l’individu
d’obtenir la satisfaction de ses intérêts propres.

Un mode de gouvernance défini par l’intérêt porté aux différentes parties prenantes

Pour commencer, il est important de définir le terme de gouvernance si vous ne le connaissez pas. La
gouvernance se définit comme étant l’ensemble des mécanismes définis dans l’entreprise qui
permettent de répartir et réguler les pouvoirs.

Nous pouvons définir deux modes de gouvernance au sein des organisations : un mode de
gouvernance porté sur l’intérêt des actionnaires (shareholders capitalism) et un mode de
gouvernance porté sur l’intérêt de l’ensemble des parties prenantes (stakeholders capitalism).

Selon Friedman, l’entreprise a une seule responsabilité : satisfaire l’intérêt des actionnaires,
c’est-à-dire maximiser la valeur actionnariale et créer de la richesse pour reverser davantage de
dividendes. Il s’agit donc d’un modèle shareholders qui vise à se préoccuper seulement des
actionnaires et mettre de côté les revendications des autres parties prenantes. Force est de constater
que ce modèle est source d’insatisfaction pour les autres parties prenantes et peut gravement
affecter le climat social de l’entreprise.

Selon Freeman, au contraire, il est essentiel pour l’entreprise de prendre en compte les intérêts des
parties prenantes et ainsi chercher à les concilier. Ce modèle stakeholders est bien plus moderne : en
plus de prendre en compte les parties prenantes (ce qui contribue au bien-être de ces dernières),
cette vision est beaucoup plus réaliste. Attention toutefois, Freeman propose tout de même une
distinction entre les parties prenantes importantes et celles qui ne le sont pas. Les parties prenantes
trop petites restent insignifiantes, l’entreprise doit tout de même se focaliser sur ses enjeux
stratégiques réels. En effet, vouloir satisfaire toutes les parties prenantes peut importe leur taille
revient à se focaliser sur de soi-disants enjeux socialement responsables et perdre de vue l’intérêt
stratégique de l’entreprise. Contrairement à Clarkson, il ne propose aucun critère afin de classifier les
parties prenantes selon leur importance.

Le modèle stakeholders s’avère être le plus performant des deux. En effet, en plus d’être plus réaliste
quant au fonctionnement de l’entreprise, la prise en compte des intérêts légitimes des différentes
parties prenantes permet de réduire le risque de conflit social, favorise l’adhésion de tous et la
performance économique de l’entreprise s’en retrouve améliorée. De plus, la prise en compte des
intérêts des parties prenantes rentre dans le cadre de la responsabilité sociale et sociétale de
l’organisation.

La pression croissante des parties prenantes et leur implication

L’exemple des ONG illustre parfaitement cette idée. Ces dernières années, les ONG sont de plus en
plus visibles auprès des clients et peuvent influencer -ou plutôt contraindre- les choix stratégiques
des entreprises (ces dernières voulant éviter un bad buzz, une dégradation de leur image, etc.).
L’évolution des attentes est en effet en pleine évolution : les clients attendent de l’entreprise qu’elle
ait un comportement presque irréprochable. Prise en compte de l’impact environnemental, respect
des salariés et des conditions de travail, transparence financière… Mais alors, comment définir si une
partie prenante est en mesure d’affecter les décisions d’une entreprise ?

Mitchel, Agle et Wood ont élaboré trois caractéristiques qui permettent de définir l’importance d’une
partie prenante :-

● La puissance, c’est-à-dire la capacité des parties prenantes à influencer les résultats finaux
des projets de l’entreprise, faciliter ou bloquer une décision, mobiliser la presse, etc.

● L’urgence, soit le calendrier des impacts du projet sur les parties.

● La légitimité, c’est-à-dire la capacité à endosser la cause.

Pour qu’une partie prenante soit considérée comme essentielle (et donc écoutée et prise en compte),
elle doit impérativement avoir ces trois caractéristiques. Si elle n’en possède que deux, elle est
légitime à avoir des attentes vis-à-vis de l’entreprise, sans plus. Au contraire, si elle n’en possède
qu’une seule, son importance est seulement potentielle ou latente : l’entreprise peut se contenter
d’une simple action de surveillance au cas où cette partie prenante prendrait de l’ampleur, pour le
moment elle n’est pas considérée comme essentielle et ne sera pas prise en compte dans le
processus de décisions.

Par ailleurs, d’autres auteurs s’intéressent au processus d’implication des différentes parties
prenantes. Selon le modèle d’implication des parties prenantes d’Aggeri et Acquier, cela repose sur :

● Toute organisation a des parties prenantes qui ont des exigences à son égard

● Toutes les parties prenantes n’ont pas la même capacité d’influencer l’organisation

● La prospérité de l’entreprise dépend de sa capacité à répondre aux demandes des parties


prenantes influentes

● La fonction principale du management est d’arbitrer entre les demandes potentiellement


contradictoires des parties prenantes.

Pourtant, ce modèle a ses limites puisqu’il établit le postulat que c’est l’organisation qui est
influencée et doit satisfaire les intérêts de ses parties prenantes, alors qu’il se peut tout à fait que
l’entreprise ait aussi des attentes envers ses parties prenantes (ses fournisseurs, par exemple).
Les choix stratégiques de l’entreprise ne sont pas forcément réfléchis à l’avance

Traditionnellement, les travaux théoriques sur le management avaient l’habitude de définir la


stratégie comme étant un processus de réflexion : la stratégie était dite délibérée, c’est-à-dire qu’elle
résultait d’une démarche volontaire permettant de voir à long terme. Cette dernière était menée par
les dirigeants de l’entreprise qui appliquaient alors la stratégie choisie. Mintzberg remet en cause
cette analyse reposant sur une planification stratégique afin de mettre en avant une autre analyse,
celle de la stratégie émergente non planifiée.

En effet, pour Mintzberg, il n’y a pas seulement des stratégies délibérées. Ces stratégies sont par
ailleurs souvent complétées par ces stratégies émergentes qui dépendent de l’environnement de
l’entreprise.

Pourtant, ces deux modèles de stratégies ont leurs limites. La stratégie délibérée nécessite une
implication sur plusieurs années au sein d’un environnement incertain, elle est décidée et imposée
par une poignée de personnes qui n’ont pas forcément conscience de toutes les réalités de
l’entreprise. La stratégie émergente, quant à elle, n’est pas en reste puisqu’elle présente elle aussi
quelques failles. Le caractère « au jour le jour » de cette stratégie entrave la projection à long terme
de l’entreprise. De plus, la stratégie émergente ne permet pas de mettre correctement en place une
coordination entre les différents acteurs de l’entreprise.

De ce fait, la complémentarité de ces deux notions apparaît comme une évidence puisque cela
permettra à l’organisation de s’adapter à son environnement tout en contrôlant la situation.

Les composantes de la structure d’une entreprise

Pour commencer, il est important de rappeler que la structure se définit comme étant l’ensemble des
mécanismes qui visent à définir les différents niveaux de responsabilité et les modes de coordination
mises en œuvre dans l’entreprise. Bien que complexe aux premiers abords, ce chapitre répond à une
question toute simple : comment s’organise l’entreprise ?

Pour mieux comprendre l’intérêt de cette notion de structure, on pourrait évoquer un terme que
vous avez déjà dû entendre : l’entreprise libérée. Ce nouveau modèle d’entreprise, théorisé par Isaac
Getz et Brian M. Carney, s’oppose aux structures traditionnelles puisque les salariés, ici, ont la
possibilité de prendre individuellement des initiatives (non sans qu’il n’y ait aucun contrôle pour
autant, attention !). Ce modèle repose sur la confiance et la reconnaissance des compétences des
salariés : ils connaissent mieux que les dirigeants leur métier, pourquoi ce seraient ces derniers qui
imposeraient les directives ? Le but est donc de modifier la structure de l’entreprise afin de la rendre
plus souple.

Nous fermons donc cette petite parenthèse pour en revenir aux différentes structures. Nous pouvons
en compter 4 :

-La structure simple : le dirigeant est au cœur de l’entreprise, il prend seul les décisions et a un lien
direct avec ses salariés du fait de la petite taille de l’entreprise. Si la proximité avec les salariés est
facilitée, ces derniers ne peuvent prendre part à la prise de décision, ce qui peut les démotiver.
Néanmoins, cela permet une cohérence dans les décisions prises.

-La structure fonctionnelle : les différentes activités sont regroupées par fonction et sous l’autorité
d’un responsable spécialisé dans son domaine. Les salariés reçoivent donc les ordres par ces
responsables, mais cela peut causer une pluralité des ordres (par exemple, un salarié peut recevoir
deux ordres contradictoires venant de deux responsables).
-La structure divisionnelle : ce modèle s’applique par exemple aux entreprises internationales qui ont
des unités dans plusieurs pays. Les unités de l’entreprise sont autonomes et les salariés sont dirigés
par un seul manager. Cela permet à l’entreprise d’être flexible sur son marché mais peut poser
problème quant à la cohérence dans la stratégie.

-La structure matricielle : il s’agit ici d’un mix entre les structures fonctionnelle et divisionnelle. C’est
par exemple le cas lors de la création d’une équipe projet : les salariés sont à la fois sous l’autorité
d’un chef de projet mais aussi d’un responsable de fonction. Cela permet à l’entreprise d’être réactive
puisque ces équipes sont constituées au fil des besoins, mais cela peut entraîner une contradiction
des ordres reçus et un conflit entre les différents chefs sur la priorité des tâches à effectuer.

C’est là que nous retrouvons (enfin) notre cher Mintzberg. Ces structures sont organisées et ont
différentes composantes qui permettent de coordonner, prendre des décisions et appliquer ces
dernières. Ces composantes, selon Mintzberg, sont :

-Le sommet hiérarchique : ce sont ici les managers qui dirigent l’entreprise, prennent les décisions.

-La ligne hiérarchique : ce sont les managers qui dirigent et animent les différentes équipes, tout en
restant sous le contrôle du sommet hiérarchique.

-Le centre opérationnel : ce sont les salariés qui exécutent le travail.

La technostructure : ce sont les spécialistes et experts qui réalisent des travaux d’analyse, de conseils,
de planification et de contrôle des activités. Ce sont par exemple le directeur marketing, le directeur
des ressources humaines, le directeur des systèmes d’information, etc.

-Les fonctions de support logistique : ce sont ceux qui fournissent les services internes (cafétéria,
entretien des locaux, etc.).

Ce sont ces composantes qui déterminent donc la structure d’une entreprise. Si on reprend le cas de
l’entreprise libérée, on constate que certaines de ces composantes – comme la ligne hiérarchique –
ont été retirées afin de permettre davantage d’initiative de la part des employés qui constituent le
centre opérationnel.

Cette structure peut être influencée par différents facteurs

Même si ce n’est pas Mintzberg qui explique cela, il semble important de compléter ses travaux par la
notion de facteurs de contingence qui est directement liée à la structure de l’entreprise. En effet, les
facteurs de contingence sont des éléments internes ou externes qui influencent la structure de
l’entreprise. C’est aussi l’occasion, pour vous, de connaître d’autres auteurs essentiels liés à la
structure. Ces facteurs de contingence sont donc :

-La stratégie de l’entreprise : en effet, selon Chandler, c’est la stratégie qui permet de définir la
structure. Les changements de stratégie au sein d’une organisation nécessitent une modification des
dispositifs de répartition, de coordination et de contrôle du travail.

-L’environnement : l’entreprise adapte sa structure à son environnement selon Burns et Stalker. Si


l’environnement est stable, que les évolutions sont prévisibles, que la prise de décision est centralisée
et que la ligne hiérarchique y est très développée, l’entreprise aura une structure dite mécanique,
c’est-à-dire que sa structure sera comme figée, n’évoluera pas. Au contraire, la structure dite
organique correspond aux entreprises dont l’environnement est instable, l’obligeant alors à être plus
souple sur les tâches effectuées. Le terme organique représente bien cette idée : la structure est
vivante et évolue. Lawrence et Lorsch ont quant à eux une autre approche de l’environnement. Si
l’environnement est instable, les entreprises devront se fractionner en différents unités (c’est la
différenciation, à ne pas confondre avec la différenciation au niveau stratégique, attention) mais
maintenir malgré tout la cohésion au sein de ces différentes unités (il y a donc une intégration au
niveau de la coordination).

Le système technique : Woodward explique que le mode de production choisi détermine la structure
de l’entreprise. Si la production est unitaire ou en petite série, il y a une faible spécialisation de
l’entreprise, d’où une standardisation et un ajustement mutuel quasi inexistants. La structure y est
très flexible. S’il y a une production en grande série, nous aurons tout naturellement une forte
spécialisation du travail et une standardisation des procédures. La structure y est surtout mécaniste.
Enfin, si le processus de production est continu, il y a une forte spécialisation du travail ainsi qu’une
structure flexible.

-La taille et l’âge de l’entreprise : selon Aston, la taille influence la structure de l’entreprise. Par
exemple, les grandes entreprises auront des tâches spécialisées, des procédures formalisées, des
unités différenciées et une forte coordination.

-Les facteurs culturels : il s’agit ici de la culture de l’entreprise.

Les configurations organisationnelles

Pour commencer, selon Mintzberg, toute activité humaine repose sur deux éléments : la division du
travail entre les différentes tâches (conception, exécution, contrôle) et la coordination de ces
dernières. À ce titre, Mintzberg différencie 6 mécanismes de coordination :

-L’ajustement mutuel : le travail est réalisé grâce à une communication informelle entre les salariés,
c’est par exemple deux ouvriers qui communiquent entre eux par voie orale pour se coordonner.

-La supervision directe : ici, une seule personne donne des ordres et des instructions à ses
subordonnés.

-La standardisation des procédés : les procédés de travail sont transmis aux salariés, il s’agit ici de la
façon dont le travail doit être réalisé.

-La standardisation des résultats : ici, c’est la fixation d’objectifs qui dicte les résultats à atteindre.

-La standardisation des compétences : la coordination se fait par une standardisation des savoirs via
une formation spécifique de celui qui exécute le travail. Les salariés savent exactement quoi faire
grâce à leurs qualifications et n’ont pas forcément besoin de communiquer entre eux.

-La standardisation des normes : il s’agit ici d’une standardisation des normes qui dictent le travail
à réaliser dans sa globalité.

À partir de là, Mintzberg définit différents types d’organisation. Elles sont au nombre de 5 :

-L’organisation entrepreneuriale : il s’agit ici de la structure simple (le dirigeant au cœur de


l’entreprise et qui prend toutes les décisions du fait de la petite taille).

-L’organisation mécaniste : cette organisation s’applique lorsque les tâches sont répétitives, plutôt
simples, par exemple les biens manufacturés. La standardisation des procédés est importante, d’où la
nécessité d’avoir une forte technostructure pour transmettre les procédés de travail aux salariés.

-L’organisation professionnelle : c’est une organisation qui nécessite des professionnels qualifiés. Le
centre opérationnel, au cœur de l’organisation, repose donc sur une standardisation des
compétences.
-L’organisation divisionnelle : elle correspond aux organisations dont les différentes activités ont été
réparties par grands domaines. Ces unités autonomes sont responsables de leurs résultats. La ligne
hiérarchique y est très forte et la coordination repose sur la standardisation des résultats. On
retrouve ce type d’organisation chez les grandes entreprises dont les activités sont diversifiées.

-L’organisation innovatrice ou l’adhocratie : il s’agit de la création de groupe pluridisciplinaires qui se


créent au gré des besoins et des projets de l’entreprise. L’environnement dynamique oblige
l’entreprise à être flexible, d’où la prédominance de l’ajustement mutuel au sein du centre
opérationnel et des fonctions de support afin de se coordonner efficacement.

Qui est Joseph Alois Schumpeter ?

Né en 1883 et mort en 1950, Joseph A. Schumpeter est un économiste Autrichien dit « hétérodoxe »,
c’est-à-dire que sa pensée va à l’encontre de l’orthodoxie, la pensée dominante, celle qui est
considérée comme la plus juste par une majorité. En effet, Schumpeter n’est ni Keynesien, ni
néoclassique, ni même proche de l’école Autrichienne de Vienne alors qu’il découvre l’économie par
des auteurs appartenant à cette école. S’il est considéré comme tel, c’est surtout pour son opinion
sur le capitalisme en démocratie qu’il juge condamné à s’écrouler, à l’instar de Karl Marx, bien que ce
ne soit pas du tout pour les mêmes raisons. Mais ce qui nous intéresse chez lui, ce sont les deux mots
qui sont inséparables de son nom, innovation et entrepreneur, deux concepts clés à la fois en
économie et en management (ce n’est pas le sujet HEC de l’année dernière qui prouvera le contraire),
ce qui en fait un auteur mobilisable dans les deux matières.

La croissance économique par les cycles et les grappes d’innovation

L’innovation source de croissance

L’innovation est le concept clé pour comprendre les théories de Schumpeter. Dans Le cycle des
affaires (1939), il propose une typologie des innovations qui en distingue trois sortes : les innovations
de produits, de processus et de procédés. La première désigne tout simplement l’invention d’un
nouveau produit par une entreprise qui peut être consommé par les consommateurs, la seconde
concerne une innovation dans le matériel utilisé pour la fabrication du produit tandis que la dernière
concerne l’organisation, la structure de l’entreprise et du processus de production de ce produit.

Avec cette typologie, Schumpeter présente alors trois moyens pour une entreprise d’être innovante
et pour lui, ce sont des innovations de produits, de processus ou de procédés qui permettent la
croissance économique. En effet, il constate que le progrès technique et les découvertes scientifiques
engendrent des innovations de rupture qui, elles aussi, vont engendrer de nombreuses autres
innovations, bien que moins « disruptives » que celle d’origine. Ces innovations favorisent la
croissance de plusieurs façons : celles de produits favorisent la consommation en proposant de
nouveaux produits à consommer, tandis que celles de processus et de procédés permettent soit de
réduire les coûts de production, d’augmenter les marges et donc de plus investir ou embaucher, soit
d’innover encore plus permettant ainsi un cercle vertueux. On constate alors que pour Schumpeter,
une innovation en appelle généralement d’autres, voire beaucoup d’autres, d’où le terme de
« grappes d’innovation ».

Cependant, ces grappes ne sont pas infinies. Ces innovations qui découlent d’une innovation
disruptive majeure finissent par être de moins en moins importantes jusqu’à s’essouffler. Par
conséquent, la croissance engendrée par ces grappes s’étiole également. C’est donc pour cela que
Schumpeter considère l’activité économique comme cyclique : puisque la croissance découle
principalement du rythme d’apparition des innovations, celle-ci est très importante lorsqu’une
découverte scientifique a permis un progrès technique important qui engendrera de nombreuses
innovations, puis s’estompe lorsque celle-ci n’est plus source d’innovation. L’analyse cyclique de
Schumpeter doit donc venir compléter vos connaissances sur les cycles d’affaires que vous connaissez
déjà, c’est-à-dire les cycles de Juglar, de Kitchin et de Kondratiev, qui sont d’ailleurs des auteurs dont il
s’est inspiré pour son ouvrage.

L’évolution des cycles schumpetériens dans le temps

L’analyse de Schumpeter sur les cycles d’innovations n’est pas qu’une théorie abstraite. Elle est basée
sur des travaux et des observations concrètes dont les données empiriques confirment l’existence de
tels phénomènes. Même après sa mort, aujourd’hui, on constate encore de tels cycles suite à des
innovations de rupture. Le schéma suivant regroupe à la fois les observations faites par Schumpeter
mais également le prolongement de sa théorie jusqu’à aujourd’hui.

Ce graphique permet alors de constater rapidement un phénomène : les cycles engendrés par les
grappes d’innovations sont de plus en plus courts. Deux facteurs provoquent cela : D’une part, les
innovations sont de moins en moins disruptives et ont un impact de moins en moins durable sur
l’économie, ce qui fait que les effets des innovations sur la croissance s’épuisent plus rapidement,
raccourcissant la durée des cycles. Par exemple, si les nouvelles technologies de l’information et de la
communication ont bien évidemment bouleversé les processus de production et de consommation
au début des années 2000, c’est une innovation qui a eu évidemment beaucoup moins d’impact que
la machine à vapeur dans les années 1850, véritable révolution des moyens de transport. D’autre
part, le temps d’apparition entre une nouvelle innovation majeure est de plus en plus court. En effet,
la période de récession n’est pas plus longue, ce qui devrait être le cas si les innovations
apparaissaient toujours au même rythme puisque les cycles s’épuisent plus rapidement. Cela signifie
donc que l’on entre plus rapidement dans un nouveau cycle car le temps d’apparition entre deux
innovations majeures est plus court.

Les grappes d’innovations de Schumpeter peuvent permettre d’analyser la conjoncture actuelle de


l’activité économique et ses futures fluctuations. Les cycles étant de plus en plus courts et
s’accélérant, la croissance dans les pays risque de beaucoup plus fluctue, les périodes de croissance et
de récessions alternant de plus en plus rapidement.

L’effet de l’innovation sur l’emploi

« Progrès technique et emploi ». Voilà un sujet des plus classiques que vous avez sûrement dû traité
au moins une fois durant vos études. Sur ce sujet, la théorie de Schumpeter de « la destruction
créatrice » est juste incontournable.
Dans les grappes d’innovations, nous avons vu ces dernières comme plutôt créatrices et semblent
favorables à l’emploi. En effet, qui dit plus de croissance dit généralement créations d’emplois car les
entreprises ont besoin de plus de main d’œuvre pour faire face à l’augmentation de la production. De
plus, ces innovations créent de nouveaux emplois bien plus qualifiés et plus créateurs de richesses.
On ne compte plus aujourd’hui tous les nouveaux métiers qui sont apparus avec l’essor de
l’informatique, des nouvelles technologies, d’internet… dans à peu près n’importe quel secteur
d’activité.

Cependant, il est également incontestable que ces innovations soient la cause de disparition de
nombreux autres emplois dont les qualifications sont si faibles que les machines peuvent aujourd’hui
faire la même chose plus rapidement, mieux et à des coûts moindres. Dans le secteur secondaire, les
innovations ont permis de tels gains de productivité que c’est sûrement la cause principale du
phénomène de désindustrialisation des pays développés. L’effet des innovations sur l’emploi n’est
donc pas seulement positif ou négatif, il est les deux à la fois et c’est pour cela que Schumpeter parle
de destruction créatrice. Cette théorie peut être résumée (même si c’est un peu simpliste et
réducteur) par la phrase « l’innovation détruit des emplois peu qualifiés et créée des emplois
qualifiés ».

Si la théorie de Schumpeter ne fait aucun doute, ce qui fait cependant débat est de savoir si ces
innovations créent plus d’emplois qu’elles n’en détruisent ou non. La suppression des emplois peu
qualifiés pose en effet le problème du « déversement de main d’œuvre » (expression d’Alfred
Sauvy ; La machine et le chômage (1980)). En effet, que deviennent ces personnes dont le travail a
été supprimé ? Si celles-ci ne disposent pas d’atouts suffisant pour pouvoir trouver un autre travail
dans un autre secteur d’activité, celles-ci se retrouvent alors au chômage. L’enjeu est donc d’assurer
une formation suffisante pour que l’employabilité des personnes leur permette de retrouver un
travail, sinon l’innovation participe bien à l’accroissement du chômage structurel. On peut également
se demander si la disparition de ces emplois peu qualifiés, généralement pénibles et peu
épanouissant, n’est pas en réalité une aubaine pour les individus et le bien-être social, mais il faut
alors assurer un revenu à ces personnes dont l’emploi a disparu, et c’est l’un des arguments
principaux des défenseurs du revenu universel aujourd’hui, qui permettrait alors aux individus de se
concentrer sur des tâches plus épanouissantes qui pourraient même profiter à l’ensemble de
l’économie et non pas créer des « assistés » comme l’affirment les détracteurs d’un tel revenu.

Schumpeter et l’entrepreneur comme fondement du capitalisme

On en vient aux théories plus managériales de Schumpeter, à savoir celles qui concernent
l’entrepreneur et son lien avec l’innovation, qu’il expose dans son œuvre la plus connu : Capitalisme,
socialisme et démocratie (1942).

Qu’est-ce qu’un entrepreneur pour Schumpeter ? Ce n’est pas simplement un chef d’entreprise,
encore moins celui qui possède le capital dans une entreprise et qui jouit d’une rente grâce à la
possession des moyens de production. Pour lui, un entrepreneur est avant tout une personne qui est
animé par le goût du risque, par la volonté d’innover et de sortir des sentiers battus. Contrairement
au simple chef d’entreprise et plus encore au rentier, celui-ci n’est pas (que) motivé par la perspective
de réaliser du profit. Il souhaite plutôt bouleverser le monde dans lequel il vit, changer ce qui lui
déplaît en se donnant les moyens lui-même d’apporter une réponse qui lui semble plus pertinente.

En ce sens, Schumpeter en tant qu’économiste hétérodoxe était lui-même un entrepreneur puisque


qu’après avoir appris l’économie de manière tout à fait classique, il s’est distingué volontairement des
plus gros mouvements de pensés économiques de son époque et d’avant. Ainsi, c’est donc
l’entrepreneur qui permet l’innovation dans un système capitaliste et les plus grandes révolutions
commerciales et industrielles proviennent d’entrepreneurs. Par exemple, le nouveau processus de
production d’Henry Ford avec sa Ford T révolutionna à la fois la manière de produire et de
consommer, avec le succès que l’on connaît.

Ainsi, lorsqu’une entreprise souhaite innover, le dirigeant de l’entreprise doit avoir l’esprit
entrepreneur au sens de Schumpeter. Et pour lui, cet esprit ne peut se cultiver et prendre forme que
dans un certain type de structure d’entreprise bien particulier qui est une structure souple, qui
permet à chacun des membres de participer au processus de prise de décision et de création, et qui
favorise la coopération et le partage des points de vus pour enrichir la vision de l’entrepreneur qui ne
souffre d’aucune limite interne pour laisser parler son inventivité et prendre des risques. Ainsi,
Schumpeter s’oppose totalement à la vision de la parfaite structure d’organisation de Max Weber
pour qui « la bureaucratie est la meilleure forme d’organisation que l’on connaisse pour diriger des
êtres humains » (Etat et société (1925)). Pour ce dernier, l’organisation doit être rigide, avec des
règles strictes, et même le dirigeant qui prend les décisions stratégiques ne décident pas tout seul
mais doit rendre des comptes aux actionnaires qui peuvent avoir des intérêts divergents, car ils ne
recherchent que le profit pour toucher plus de dividendes de ce dernier et donc l’empêcher de
prendre des décisions trop risquées ou qui ne maximisent pas les bénéfices pour des enjeux plus
sociétaux ou environnementaux, ce qui, pour Schumpeter, réduit à néant les chances d’innover.

Dès lors, dans un sujet de management HEC comme celui de l’année dernière où le mot
« innovation » revenait toutes les trois lignes, évoquer Schumpeter, et notamment sa typologie des
innovations ainsi que la structure d’entreprise pertinente pour laisser l’entrepreneur prendre des
risques et innover était plus que pertinent, notamment dans la première question concernant le
processus de prise de décision qui a tant déconcerté les candidat, pour montrer en quoi les décisions
prises par le dirigeant de l’entreprise, dont les prises de risques lui permettaient de correspondre aux
critères de l’entrepreneur, l’étaient dans un souci constant d’innover.

Le salaire d’efficience

Stiglitz n’est pas celui que l’on considère comme à l’origine de la théorie du salaire d’efficience. En
effet, dès 1957, ce sont les travaux d’Harvey Leibenstein qui lui ont donné naissance. Ce dernier part
d’un constat empirique, et à priori plutôt logique, qu’une hausse du salaire entraîne une hausse de la
motivation chez le salarié et donc une hausse de la productivité de celui-ci. Cependant, au plus le
salaire devient élevé, au moins la hausse de motivation et donc de productivité devient significative
jusqu’à atteindre un niveau où une hausse de la rémunération n’entraine plus de hausse de la
productivité et ne devient donc plus que génératrice de coûts supplémentaires. Pour améliorer la
motivation du salarié, il faudra alors jouer sur d’autres leviers, notamment ceux qui ne sont pas
financiers (cf cette fiche sur la motivation et celle-ci sur la politique de rémunération en RH).
L’employeur doit alors trouver le niveau de rémunération optimal, c’est-à-dire celui qui maximise la
motivation du salarié sans pour autant générer de coûts inutiles. C’est ce niveau de rémunération
optimal que l’on nomme « salaire d’efficience ».

Les travaux de Joseph Stiglitz et Carl Shapiro dans Equilibrium unemployment as a worker discipline
device (1984) consistent alors à montrer que ce salaire d’efficience est un des facteurs qui empêchent
l’offre et la demande de se rencontrer au prix d’équilibre sur le marché du travail, et donc qui créent
du chômage. En effet, entre le salarié et l’employeur, on retrouve une situation ’asymétrie
d’information qui fait que l’employeur n’est pas certain que l’employé maximise sa productivité. Or,
pour éviter ce que les deux auteurs nommeront le comportement de « tire-au-flanc », c’est-à-dire où
le salarié ne fait que le strict minimum, il agit alors sur ce puissant levier de motivation qu’est la
rémunération afin justement d’atteindre ce fameux salaire d’efficience. On constate alors que ce
niveau optimal de rémunération conduit à une hausse des salaires qui devient générale sur le marché
du travail puisque la plupart des employeurs vont adopter le même comportement pour motiver
leurs salariés. On se retrouve alors avec un prix supérieur à celui qu’on le devrait avoir en situation de
concurrence pure et parfaite, ce qui provoque du chômage involontaire en rigidifiant le marché du
travail. Cette conséquence devient alors d’autant plus motivante pour les salariés qui ont un emploi
puisqu’ils auront peur de perdre leurs avantages et feront tout pour ne pas les perdre, ce qui incite
encore plus les employeurs à adopter ce type de comportement.

Outre le fait que le salarié soit plus productif, les deux auteurs montrent que l’employeur est
également gagnant en diminuant le turn-over. En effet, si l’entreprise se rend bien compte que son
salarié tire-au-flanc, elle devra alors le remplacer car celui-ci nuit trop à la productivité. Or, remplacer
un salarié induit deux coûts très importants : le licenciement du salarié, et son remplacement, qui
génère également des coûts car le temps d’adaptation représente une baisse de la productivité, et
rien n’assure que le prochain candidat sera le bon. Une simple hausse du salaire pour motiver le
salarié de base est donc beaucoup plus rentable que prendre le risque que les salariés flânent et
deviennent moins productifs.

La situation d’asymétrie d’information entre l’employé et l’employeur conduit donc ce dernier à


rechercher le salaire d’efficience qui est source de chômage involontaire. Les travaux de Stiglitz et
Shapiro sont évidemment un incontournable en cas de sujet sur le chômage, notamment pour
contredire la thèse des néoclassiques comme quoi le chômage est volontaire et ne résulte que de
l’intervention de l’Etat. Mais il peut être tout à fait pertinent de mobiliser la théorie du salaire
d’efficience en management, sur une question portant sur la politique de rémunération de
l’entreprise ou sur la motivation des salariés par exemple.

Les enjeux de l’information en management

Avant de s’intéresser à proprement parler au SI, il convient de comprendre quels sont les enjeux qui
gravitent autour de la notion d’information. Commençons par une définition et surtout certaines
distinctions. Dans Systèmes d’information et management des organisations (2005), Robert Reix
donne la définition suivante : « C’est l’interprétation d’une ou plusieurs données dans un contexte
défini qui fournit à l’entreprise une connaissance ». L’auteur distingue donc
ici donnée, information et connaissance. La donnée est une simple valeur numérique (ex : 5%,
20°C…) et l’information consiste à donner du sens à cette valeur (ex : le CA de l’entreprise a
augmenté de 5% en 2017 par rapport à 2016, la température moyenne à Paris entre Mai et Juin a été
de 20°C…). Et du moment où l’entreprise détient une information, cela lui apporte
une connaissance, c’est-à-dire qu’elle exploite cette information (ex : l’entreprise a été plus
performante d’un point de vue commercial en 2017, il a fait plus chaud à Paris qu’à Lille…). On voit
alors tout l’intérêt de l’information dans un contexte managérial et concurrentiel. Grâce aux
informations, l’entreprise enrichie sa connaissance dans un certain domaine ce qui lui permet ainsi de
prendre des décisions stratégiques beaucoup plus efficientes.

Cependant, toutes les informations ne se valent pas. Une information peut être plus ou moins bonne
et sa qualité influencera celle de la connaissance apportée à l’entreprise par l’exploitation de cette
information. Reix donne ainsi 5 critères pour juger de la qualité de l’information :

● L’exhaustivité

● L’exactitude
● La fiabilité

● La forme

● La précision

Une source d’information peut donc être jugée pertinente à partir du moment où ces 5 critères sont
remplis car elle apporte des informations qui débouchent sur des connaissances précises, précieuses
et à haute valeur ajoutée. Si les autres informations ne doivent pas être ignorées, l’entreprise doit
cependant être plus prudent dans leur traitement pour ne pas baser sa stratégie sur des informations
qui ont abouti à des connaissances fausses ou vagues.

Outre la qualité de l’information, Reix distingue les enjeux suivant à propos des données qui
détermineront la qualité des informations :

● La collecte : elle peut se faire par des sources internes (enquête de satisfaction client,
sondage…) ou externes (études de marché, achats à des prestataires…).

● Le stockage : pour cela, les entreprises ont recours au cloud computing, c’est-à-dire
l’utilisation de services ou d’applications informatiques qui permettent l’accès aux
informations partout, à n’importe quel moment, via n’importe quel outil de
communication (ordinateur, téléphone…).

● L’exploitation : c’est le datamining. Ce terme désigne l’ensemble des techniques qui


permettent de donner du sens à des données afin de créer une connaissance et pouvoir les
exploiter stratégiquement.

● Le Big Data : Ce terme désigne le fait que de nos jours, la masse d’information disponible
est devenue tellement volumineuse qu’elle ne peut plus être analysée par l’homme ou les
techniques classiques d’exploitation de données. L’entreprise doit donc se doter de moyens
technologiques pour ne pas se retrouver noyée dans un flux d’informations trop important
pour elle qui lui empêcherait alors de trouver les données et informations vraiment
pertinentes.

Le système d’information et son lien avec la stratégie

Reix nous donne du SI la définition suivante : « Le système d’information est vu comme l’ensemble
des éléments et des sous-ensembles technologiques participant à la gestion, au stockage,
au traitement et à la diffusion de l’information au sein de l’entreprise. Il se fonde sur l’interaction
entre hommes, organisations et technologies ». Cette définition nous donne alors les 4 grands rôles
du SI :

● Gérer l’information

● La stocker

● La traiter

● La diffuser

Au plus l’entreprise possède un SI remplissant ces 4 fonctions, au plus elle sera performante, réactive
et pertinente dans sa prise de décision et sa stratégie. On distingue alors des SI dans chacun des
principaux domaines de la gestion : le SI comptable, le SI marketing, le SI ressources humaines…
Intéressons-nous maintenant aux liens entre SI et stratégie. Il faut avoir en tête le couple
information/action pour comprendre la dimension stratégique du SI. En effet, l’information influence
et déclenche l’action, qui, elle-même, apportera de nouvelles informations et ainsi de suite. Le SI
devient stratégique dans la mesure où, à travers ses 4 rôles, il influence la relation de ce couple. Un SI
doit permettre un stockage important d’informations pertinentes qui doivent être traitées
efficacement pour prendre les meilleures décisions possibles, et permettre la diffusion la plus rapide
possible pour être le plus réactif.

Se pose alors la question de savoir si le SI de l’entreprise est en cohérence avec sa stratégie. Galbraith
propose le modèle de l’équilibre capacité-besoin de traitement. Selon lui, la stratégie mise en œuvre
par l’entreprise génère des besoins en ce qui concerne les 4 fonctions du SI, et un SI peut être
considéré comme efficace dès lors qu’il satisfait ces besoins.

Le modèle de Venkatraman (1994), met lui en évidence plusieurs possibilités d’équilibre entre le SI et
la stratégie dont voici les deux cas les plus opposés et les plus récurrents :

● L’alignement par la recherche de l’adéquation : La stratégie de l’entreprise implique une


restructuration et une modification du fonctionnement du SI. C’est donc ici le SI qui
s’adapte à la stratégie.

● Le développement d’un avantage concurrentiel basé sur le SI : Ici, l’entreprise cherche à


faire du SI un outil qui lui permet de se distinguer de la concurrence et fonde sa stratégie
sur la performance et l’efficacité de son SI. C’est donc le SI qui influence la stratégie.

Dans tous les cas, il faut donc garder en tête que le SI est intimement lié à la stratégie de l’entreprise
et qu’il participe à la réussite de celle-ci. Pour améliorer la performance de son SI, l’entreprise peut
alors agir sur les variables suivantes :

● L’automatisation de l’échange de certaines données avec certaines parties prenantes :


c’est l’échange de données informatisé (EDI).

● La sécurisation.

● La mise en place d’un système de veille pour améliorer et automatiser la collecte de


données.

● L’usage de workflows : ce sont des modèles décrivant les processus d’actions en


mentionnant les diverses tâches, acteurs, moments et délais.

● L’utilisation de plateformes collaboratives.

La notion de PGI

Les questions portant sur le PGI sont très récurrentes dans les sujets. Il est donc essentiel d’en
connaître la définition, ses avantages mais également ses défauts.

Selon Reix, le Progiciel de Gestion Intégré (PGI, ou ERD en anglais) est un progiciel dont l’objet est de
satisfaire les besoins de tous les services de l’entreprise et de les optimiser. Il est composé de
plusieurs modules interdépendants et paramétrables. Il permet en fonction des autorisations
allouées aux utilisateurs de regrouper au sein d’une même base les données comptables,
commerciales, de production…
Les intérêts du PGI sont nombreux et représentent de belles opportunités pour l’entreprise :

● Il unifie les bases de données des différents services de l’entreprise.

● Il permet une meilleure cohérence du SI et une plus grande réactivité dans la prise de
décision.

● La saisie des données est décentralisée dans les différents services opérationnels de
l’entreprise, ce qui limite les saisies redondantes.

● Pour les gestionnaires, le PGI permet par ailleurs de générer automatiquement certaines
écritures comptables en fonction d’évènements saisis dans d’autres modules du progiciel
par d’autres utilisateurs.

Cependant, la mise en œuvre d’un PGI n’est pas sans contraintes :

● C’est une base de données ouverte à une multitude d’utilisateurs. Il faut donc veiller à
la sécurité, à la fiabilité des informations en gérant des droits d’accès aux différents
modules.

● C’est un progiciel paramétrable, qui est adaptable à la structure de l’entreprise afin de


répondre à ses besoins d’information. Le paramétrage est cependant long car il doit être
minutieux.

● L’installation d’un PGI est en conséquence très coûteuse.

● Il peut également être source de rigidité pour l’entreprise dans son fonctionnement.

La notion de tableau de bord

Depuis que la notion de tableau de bord est au programme (2016), celle-ci a été abordé dans la
quasi-totalité des épreuves dans des dossiers différents, c’est-à-dire aussi bien en marketing (HEC
2016) ou en analyse financière (HEC 2017) qu’en ressources humaines (ECRiCOME 2017). C’est donc
également une notion importante à maîtriser.

Dans Le tableau de bord prospectif (2001), Kaplan et Norton définissent le tableau de bord comme un
outil managérial informatique aidant à piloter l’entreprise. C’est un outil de détection des
dysfonctionnements, de communication entre les hiérarchies et d’évaluation de la performance en
fonction des objectifs fixés. Il est constitué d’indicateurs concernant différentes variables choisies par
la direction pour lesquelles des objectifs ont été fixés. Des tableaux de bord peuvent être construits
dans tous les domaines de la gestion de l’entreprise (commercial, marketing, RH, finance…).

Pour la fabrication d’un tableau de bord, les deux auteurs préconisent l’utilisation de la méthode
OVAR (Objectif/variables d’actions/responsabilité). La direction fixe des objectifs à atteindre dans
certains indicateurs, qu’ils soient quantitatifs (évolution du CA, du taux de marge, de l’autonomie
financière…) ou qualitatifs (satisfaction des clients, image de marque…), et celle-ci délègue la
responsabilité d’atteindre les objectifs fixés aux acteurs de l’échelon hiérarchique inférieur.

C’est une démarche structurée qui peut répondre à trois types de besoins :

● Piloter la performance en assurant le déploiement des axes, cibles et objectifs stratégiques


dans toute l’organisation

● Offrir une méthodologie favorisant le dialogue interhiérarchique et/ou fonctionnel dans


l’organisation, elle suscite de manière construite la communication.
● S’appuyer sur une démarche formalisée pour concevoir les tableaux de bord de l’entreprise
à partir des besoins clés d’information pour les décisions concrètes opérationnelles aux
différents niveaux de responsabilités.

La gestion prévisionnelle des emplois et des compétences

La GPEC est tout simplement un pilier de la gestion des ressources humaines. En effet, une entreprise
se doit d’avoir une vision sur le long terme, même en ce qui concerne ses salariés. Si ce n’est pas le
cas, des déséquilibres vont probablement faire leur apparition ce qui la déstabilisera et l’empêchera
de mettre correctement en œuvre sa stratégie. Pour bien comprendre le concept de la GPEC, il faut
avoir en tête que le but principal est d’assurer une adéquation entre les ressources en hommes de
l’entreprise et ses besoins pour atteindre ses objectifs. En cas d’inadéquation, cela peut se traduire de
deux manières différentes :

– Un déséquilibre quantitatif : l’entreprise est en sureffectif ce qui représente des coûts inutiles,
ou, au contraire, en sous-effectif, et se retrouve dans l’incapacité de réaliser la production, ou, tout
du moins, pas d’une façon optimale.

– Un déséquilibre qualitatif : les salariés dont disposent l’entreprise ne possèdent pas les
compétences nécessaires.

Les ressources en hommes sont donc à la fois quantitatives et qualitatives et le but de la GPEC est bel
et bien de parvenir à ce que ces deux dimensions soient en accord avec les besoins de l’entreprise et
d’éviter les situations d’inadéquations dans le futur. Pour résumer tout cela, on peut très bien retenir
la définition de Jean-Marie Peretti dans Ressources Humaines (2017) : « La GPEC vise l’adéquation
quantitative et qualitative des ressources humaines de l’entreprise avec ses besoins. La GPEC est une
obligation légale (loi du 18 janvier 2005) et est devenue à la fois un outil de dialogue social et un
instrument de la stratégie de l’entreprise ». Il préconise alors un schéma en 4 étapes pour sa mise en
place :

– Analyse des ressources (quantitatives et qualitatives) et des besoins actuels.

– Analyse des ressources et besoins futurs : Les besoins de l’entreprise vont forcément évoluer ci
l’entreprise croît ou change de stratégie, et les salariés qui travaillent au sein de celle-ci changent
d’année en année, ce qui fait varier le nombre le salarié mais également les compétences disponibles.
Il faut alors prendre en compte la pyramide des âges pour anticiper les départs à la retraite, les
évolutions de poste, les éventuels licenciements ou démissions…

– Identification des écarts : c’est l’étape la plus importante. Cela peut être un manque en termes
numérique (il faudrait 5 ouvriers qualifiés et l’entreprise ne devrait, suite aux prévisions réalisées, en
disposer que de 2) ou en termes de compétences (l’entreprise dispose des 5 ouvriers mais seuls 3 ne
disposent des nouvelles compétences nécessaires pour réaliser la production).

– Politique d’ajustement : grâce aux écarts identifiés dans l’étape 3, l’entreprise peut agir et ainsi
éviter de se retrouver en situation d’inadéquation entre les ressources et les besoins. Cela peut se
traduire par des recrutements ou de la formation en cas de manque, ou des licenciements par
exemple en cas de sureffectif.

Face à une question sur la GPEC (ex : « Déterminer dans quelle mesure la mise en œuvre d’une
démarche de GPEC aurait pu faciliter la création du poste de coordinateur réseau » dans le sujet HEC
2013), on peut donc utiliser cette définition puis rappeler rapidement les 4 étapes de sa mise en
œuvre pour montrer ce que cela apporte à l’entreprise.

Le recrutement des salariés

Le recrutement est justement le processus par lequel l’entreprise embauche une personne à un poste
déterminé pour combler un besoin quantitatif ou qualitatif. C’est un processus plutôt long et coûteux
donc l’entreprise a tout intérêt à faire attention à prendre la bonne décision pour ne pas recruter une
personne qui, finalement, ne correspond pas au poste. Et c’est là tout l’enjeu de mener une bonne
politique de recrutement.

Dans The Market for Lemons : quality incertainty and the market mechanism (1970), George Akerlof
démontrait que sur la plupart des marchés, on ne retrouve pas le critère de transparence de
l’information de la concurrence pure et parfaite. On se retrouve toujours effectivement dans la
situation où une personne détient l’information et l’autre non, ce qui fait que celui qui la détient peut
être tenté d’abuser de cette situation et l’autre se méfie alors naturellement de toutes les
informations qu’il reçoit, ne pouvant savoir si elles sont vraies ou fausses. Et le marché du travail ne
fait pas exception. L’employeur ne peut être vraiment certain si les informations que pourrait lui dire
le salarié sont vraies ou fausses et le recrutement doit permettre de déterminer si le salarié
correspond bien aux besoins de l’entreprise. C’est le phénomène « d’anti-sélection ». On distingue
généralement cinq étapes dans le processus de recrutement que nous allons détailler.

La première consiste à définir une stratégie de recrutement (1). En 1973, l’économiste Michael
Spence expliquait sa théorie du signal dans Jobs Market Signaling. Il définit un signal comme ce qui
permet au salarié de se démarquer des autres sur le marché du travail. Ces signaux sont ses
diplômes, son expériences professionnelle… et sont justement une première étape qui permettent
d’éliminer l’incertitude et l’anti-sélection. Mais si les signaux sont un moyen pour les salariés de se
démarquer, ils le sont également pour les entreprises qui cherchent à recruter les meilleurs éléments
et surtout, celui qui répondra aux besoins. Tout l’enjeu de cette première étape est donc pour
l’entreprise d’émettre des signaux afin de se rendre attractive et de parvenir à attirer le profil qui
correspond à ses besoins.

Le modèle des îles de l’économiste Edmund Phelps (The new microeconomics in inflation and
employment theory, 1970) met en évidence l’importance de l’attractivité d’une entreprise. Dans ce
modèle, Phelps présente les entreprises comme des îlots et la personne en recherche d’emploi
voyage entre les îles pour voir laquelle lui plaît le plus et sur laquelle donc il restera. Bien sûr, le
salaire proposé est un paramètre important, mais d’autres éléments entre en jeu comme les
perspectives d’évolution de carrière, les conditions de travail, l’image de l’entreprise…

La deuxième correspond à la préparation du recrutement (2). Il faut analyser pourquoi on cherche à


recruter, quels sont les besoins et, à partir de là, déterminer un profil de référence qui résume quelles
sont les caractéristiques du candidat recherché. Cela comprend par exemple les diplômes, le nombre
d’année d’expérience dans le secteur ou à ce poste, les qualités requises, le salaire envisagé, l’âge…
(attention toutefois à respecter les normes en matière de discrimination à l’embauche).

Ensuite vient la recherche de candidatures (3). Cette recherche peut être interne ou externe. En
effet, avant d’embaucher une nouvelle personne, il est préférable de voir si simplement former une
personne déjà présente dans l’organisation ne serait pas plus pertinent. Favoriser la promotion
interne motive les salariés en leur offrant des perspectives d’évolution, limite les coûts et le temps de
recherche lié aux démarches du recrutement externe, l’entreprise connaît déjà le salarié et peut lui
faire confiance, le salarié est déjà intégré ce qui évite le risque de mauvaise intégration d’une
nouvelle personne, et permet au salarié d’être plus polyvalent en acquérant de nouvelles
compétences. Pour autant, cela limite le choix, engendre des coûts de formation, risque de créer des
conflits avec les salariés qui ne jouissent pas de la promotion, et peut désorganiser l’entreprise.

Il doit donc y avoir un arbitrage avec le recrutement externe qui lui permet de recruter un profil de
candidat bien précis dans un échantillon bien plus large et apporte du sang neuf mais peut démotiver
les salariés qui ne bénéficient pas de promotion interne, et il y a un risque que la personne ne
corresponde malgré tout pas (phénomène d’anti-sélection) ou ne parvienne pas à s’intégrer. De plus,
cela accroît la masse salariale de façon considérable sur le long terme.

Une réflexion doit également être menée sur quels canaux utiliser pour recruter. On considère que
pour être efficace, une annonce doit être vu, lu, comprise et incitative. Dès lors, de nos jours,
l’e-recrutement prend une place incontournable dans les processus de recrutement (sites spécialisés,
réseaux sociaux, les sites internet des entreprises…).

Après la recherche vient la sélection des candidats (4). Après un premier tri fait sur examen des CV,
l’entreprise procède à des entretiens pour déterminer quel est le candidat qui correspond aux
besoins avec, éventuellement, des tests ou une période d’essai pour vérifier que la personne
correspond bien aux attentes et parvient à s’intégrer à l’équipe.

Enfin, le salarié est accueilli et intégré (5).

Ainsi, sur une question sur le recrutement (ex : « Analyser la pertinence de recourir à un recrutement
interne pour ce nouveau poste de coordinateur réseau » dans le sujet HEC 2013), après avoir défini et
rappeler quels sont ses enjeux, il peut être pertinent de rappeler très succinctement les 5 étapes du
recrutement (voire juste les citer) et seulement s’attarder sur celle qui fait précisément l’objet de la
question (ici, le choix entre recrutement interne ou externe).

La rémunération des salariés

En 1957, les travaux de l’économiste Harvey Leibenstein ont permis de mettre au point la théorie du
« salaire d’efficience ». Cela traduit le fait que la rémunération est à la fois un facteur de motivation
pour le salarié et un coût pour l’entreprise. Ses travaux ont notamment montré qu’au plus le salaire
est élevé, au moins une hausse du salaire est source de gain de productivité chez le salarié et de
motivation. La politique de rémunération de l’entreprise doit donc trouver le salaire d’efficience qui
maximise la productivité du salarié tout en minimisant les coûts.

On peut décomposer la rémunération selon les critères suivants : fixe ou/et variable, directe ou/et
différée, individuelle ou/et collective.

Mais on peut également la décomposée ainsi :

– La rémunération principale (le salaire de bases et les primes)

– Les périphériques légaux (participation aux résultats obligatoire dans les entreprises de plus de
50 salariés, l’intéressement, les plans d’épargnes, l’actionnariat salarié)

– Les avantages en nature

– Les périphériques éloignés (retraite complémentaire, assurance vie…)

En cas de question sur la politique de rémunération de l’entreprise (ex : « proposer un système de


rémunération des commerciaux en indiquant ses avantages et ses limites » dans le sujet ESC 2017),
après avoir définie en quoi consiste la politique de rémunération et quelles sont ses enjeux, vous
n’avez plus qu’à choisir un de ces modèles d’analyse de la politique de rémunération en fonction des
informations données dans les annexes.

La formation des salariés

Dans Human Capital: A Theoretical and Empirical Analysis (1960), Gary Becker définit le capital
humain comme l’ensemble des savoirs et des savoir-faire qu’une personne peut mobiliser pour
réaliser la production de l’entreprise. Ce capital peut notamment s’accroître par la formation initiale,
celle dispensée par l’éducation, et celle continue, c’est-à-dire toutes les mesures de formation dont
aura bénéficier le salarié durant sa carrière. La formation du salarié peut donc se définir comme
l’augmentation du capital humain de l’employé par l’entreprise.

La formation est une composante de la gestion des carrières. Celle-ci consiste à assurer une
adéquation entre les envies personnelles du salarié en termes d’évolution de carrière au sein de
l’entreprise (ou en dehors) et les besoins futurs en compétence. On voit donc ainsi le lien entre
politique de formation et la GPEC et le recrutement (cela permet de combler un besoin en
compétence sans passer par le recrutement externe), la motivation (la perspective d’acquérir de
nouvelles compétences et d’évoluer est une source de motivation) et même la rémunération (le
salarié va sûrement réclamer un meilleur salaire suite à ce nouveau poste qui nécessite plus de
compétences).

On notera également la présence de dispositifs légaux permettant aux salariés de se former. Le


compte professionnel de formation (CPF) est un compteur d’heures que le salarié cumule tout le long
de sa carrière et qu’il peut utiliser pour obtenir une formation qualifiante. Le congé individuel de
formation (CIF) est un congé que le salarié, selon son ancienneté, peut demander pour s’absenter de
son poste afin d’obtenir une formation. Enfin, la validation des acquis de l’expérience (VAE) permet à
un salarié de traduire son expérience sous la forme d’un diplôme par un établissement de formation
supérieur.

Vous aimerez peut-être aussi