Vous êtes sur la page 1sur 77

THEME : PRATIQUE DE LA PLANIFICATION

POST FINANCEMENT EN GESTION DES PROJETS


ET SUCCES DES STARTUPS AU CAMEROUN : CAS
DES STARTUPS DE LA VILLE DE DOUALA.

1
CHAPITRE III : CHOIX METHODOLOGIQUE ET DEMARCHE TECHNIQUE DE
LA PRATIQUE DE LA PLANIFICATION POST FINANCEMENT EN GESTION
DES PROJETS ET SUCCES DES STARTUPS DE LA VILLE DE DOUALA

La recherche poursuit deux ordres principaux de buts, à savoir d’une part, contribuer à
la construction de modèles théoriques qui permettent de comprendre différents aspects du
phénomène et, d’autre part,  améliorer les pratiques du phénomène en s’appuyant sur un
corpus de connaissances solidement étayé. Compte tenu de ces buts, on peut considérer que la
recherche concerne tous les acteurs du processus non seulement le chercheur patenté mais
aussi l’acteur de terrain qui, soucieux de développer une attitude réflexive par rapport à sa
pratique, sera un jour confronté à la nécessité d’analyser les résultats de son action et d’ajuster
sa pratique en fonction de ces résultats.
Si on accepte l’idée que tous les acteurs sont concernés par la recherche, il est essentiel
de les former aux principes et aux méthodologies propres à ce processus qui permet
d’appréhender le monde qui nous entoure en respectant les principes de la démarche
scientifique. Comme nous le montrerons par la suite, la recherche peut emprunter des chemins
multiples et diversifiés avec toutefois une volonté commune qui est de rassembler des
données pour pouvoir tirer des conclusions.
Lorsque nous parlerons de recherche dans ce texte c’est de recherche empirique qu’il
s’agira c’est-à-dire d’une recherche qui est marquée par la volonté de mettre les concepts, les
modèles ou les théories à l’épreuve des faits pour les confirmer, les infirmer ou les préciser.
Ce chapitre est divisé en deux sections, une première sur la présentation du canevas de la
recherche, une deuxième sur la définition des variables, présentation du logiciel utilisée, test
des hypothèses et de la statistique utilisée.

SECTION 1 : PRESENTATION DU CANEVAS DE LA RECHERCHE


Après avoir présenté la littérature liée à notre étude, ce chapitre est centre sur l’approche
méthodologique de la recherche et caractéristique de l’échantillon. en effet, la méthodologie
peut être appréhendée comme l’enchainement des étapes par lesquelles doit passer toute
recherche. Elle peut également se définir comme étant le processus de contrôle de la qualité de la
recherche scientifique (evrad et al.1993).
C’est la démarche empruntée pour résoudre un problème posé. Il s’agit d’un schéma directeur
faisant apparaitre un lien logique entre le problème, les questions de recherches, les données et
les résultats obtenus. Généralement, dans la méthodologie de recherche, on développe les aspects
touchant d’abord, la localisation de la recherche et la procédure de sélection de l’échantillon,

2
puis, la collecte de données et l’analyse théorique des outils statistiques utilisés. Elle présente les
méthodes et techniques qui ont permis de présenter, d’analyser et d’interpréter les résultats
obtenus au cours de notre recherche. ce chapitre est divisé en deux sections, une première sur la
présentation du cadre d’étude  de la recherche, une deuxième sur approche méthodologique
adoptée.
1.1. Choix méthodologiques de la recherche
Il est question de présenter le choix méthodologiques de la recherche, orientation
méthodologique adoptée, les différents types d’étude, choix du type et de l’approche retenu
pour notre recherche, opérationnalisation des hypothèses de recherche : approche conceptuel
et enfin Le processus d’échantillonnage
1.1.1. Orientation méthodologique adoptée.
La méthodologie est le cadre qui favorise la constitution des connaissances (Gavard-
Perret et al, 2009). Quant à la méthode scientifique, elle revient à élaborer des outils et
techniques de recherche. En général elle favorise l’obtention des données crédibles en rapport
avec l’élément, objet de l’investigation et le problème principal. Face à la difficulté que révèle
le choix de la méthode de recherche la collecte et l’analyse des données, deux méthodes sont
couramment utilisées : la méthode qualitative et celle dite quantitative.
Une étude quantitative est une analyse qui mesure les comportements ou opinions des
consommateurs (grand-public, décideurs dans les entreprises, internautes. etc..). Les études
quantitatives sont utilisées par les industries, les commerçants, les institutions (voire les
associations) dans un but précis. Par exemple, les fabricants de biscuits vont utiliser les études
quantitatives pour connaître un comportement ou son évolution face à un produit de
biscuiterie. Alors qu’un département de l’État peut utiliser les études quantitatives pour
connaître la volonté des habitants de ce département face à un sujet d’utilité publique.
Souvent, une étude quantitative est précédée par une étude qualitative.
En effet, elles sont complémentaires et n’ont pas le même objectif. L’étude qualitative
met en avant les comportements et opinions de certains consommateurs, alors que l’étude
quantitative mesure la quantité de consommateurs qui ont un certain (même) comportement,
afin de se faire une idée concrète de la pensée générale. L'étude quantitative est donc un
dénombrement et une validation des hypothèses précédemment définies dans l'étude
qualitative.
NB : L'étude quantitative est donc un dénombrement et une validation des hypothèses
précédemment définies dans l'étude qualitative c'est-à-dire que toute étude quantitative est
toujours précédée d’une étude qualitative, mais dès l’instant où l’on passe à la validation des

3
hypothèses pour une confirmation ou une infirmation, la recherche quantitative prend le
dessus sur le côté qualitatif d’où notre recherche retenue ici est une recherche quantitative
1.1.2. Variables codées informatiquement afin d’être exploitables pour l’analyse
statistique
La question qui se pose est de savoir comment transformer une série de questions et de
réponses en variables codées informatiquement afin d’être exploitables pour l’analyse
statistique pour produire des fréquences ou pourcentages, des diagrammes à bande, des
diagrammes circulaires etc. Et enfin pour effectuer le test statistique pour la confirmation ou
non de nos hypothèses de recherche ? La réponse naturelle à cette question consiste à associer
une variable quantitative (ou codage numérique) au caractère qualitatif.
L’intérêt principal du codage numérique (ou de la représentation quantitative des variables
qualitatives) est de pouvoir se ramener à des lois discrètes afin de produire des chiffres et de
pouvoir, de calculer les moyennes, fournir des pourcentages et si possible effectuer des
manipulations diverses en cas de besoins.
Cette étape vise à transformer une série de questions et de réponses en variables codées
informatiquement afin d’être exploitables pour l’analyse statistique. Les données vont se
présenter usuellement sous la forme d’un tableau dont chaque colonne correspond à une
variable et chaque ligne à un individu (au sens statistique du terme). L’opération de
codification correspond à un chiffrement, elle consiste à accorder un chiffre unique à une
variable, à une modalité ou une réponse donnée.
1.1.3. Choix du type et de l’approche retenu pour notre recherche
Une méthode d’investigation est une procédure définie qui permet d’interroger
scientifiquement une certaine réalité. Les méthodes sont donc des procédures de travail. Pour
appréhender un phénomène, tout chercheur doit opérer un choix parmi les différentes et
multiples méthodes qui dépendent du type de recherche et de la nature de ses hypothèses. La
recherche est l’instrument le plus important pour la connaissance évoluée, pour promouvoir le
progrès et pour permettre à l’homme de rester relié plus efficacement à son environnement,
pour accomplir ses objectifs et pour résoudre des conflits.
Ainsi le but de la recherche est souvent d’appréhender un problème ou quelque
chose qui a besoin d’être décrite, d’être expliquée ou améliorer ou à laquelle le plus
d’information est nécessaire pour prédire les événements et prendre des décisions requises.
Notre recherche a pour l’objectif principal d’apprécier l’impact de la planification post
financement en management des projets sur le succès des startups au Cameroun. De la
formulation de l’objectif, il ressort que notre recherche est du type de recherche de relation ou

4
de liaison et exprime une relation entre la planification post financement en management des
projets et le succès des startups au Cameroun; elle est aussi empirique dans la mesure où elle
se base sur des données recueillies sur le terrain, dès lors, l'approche épistémologique
envisagée est l’approche positiviste et s’appuyant sur la démarche hypothético-déductive.
Ainsi, la stratégie de recherche privilégiée est une enquête en coupe instantanée auprès
des individus/ startup peurs rencontrées dans la ville de douala. . Une approche
corrélationnelles-explicatives est retenue ici dans la mesure où on tente de déterminer à quel
degré une relation existe entre deux ou plusieurs variables, ceci dû au faite que nous partons
d’une hypothèse principale et à cette hypothèse principale sont associées des hypothèses
secondaires.
il sera également question d’utiliser l’économétrie après avoir effectué l’analyse
factorielle qui sont des outils fréquentent utilisé en science économique et sociale consistant à
vérifier les hypothèses à partir des données chiffrées tirées de la réalité du terrain dans le but
de mieux étayer notre recherche de relation ou de liaison.
1.1.4. Opérationnalisation des hypothèses de recherche : modèle conceptuel
Les hypothèses constituent donc les soubassements, les fondations préliminaires de ce
qui est à démontrer ou à vérifier sur le terrain. Une hypothèse est en quelque sorte une base
avancée de ce que l'on cherche à prouver. C'est la formulation proforma de conclusions que
l'on compte tirer et que l'on va s'efforcer de justifier et de démontrer méthodiquement et
systématiquement. En bref et d'une façon très générale, on peut dire qu'une hypothèse est
une supposition que l'on fait d'une chose possible ou non et dont on tire une conséquence.
Elles sont généralement formulées sur la base des prédictions de la théorie ou d’une revue
de la littérature empirique portant sur le sujet.
Notre littérature empirique a permis de formuler pour notre étude les hypothèses
suivantes :
H1 : le succès des startups camerounaises est garanti par la pratique de la planification en
management des projets.
H2 : le succès des startups camerounaises n’est pas uniquement garanti par la pratique de la
planification en management de projet.
Schéma 4 : Schéma conceptuel de l’étude.

5
La planification en management des projets Outils de la planification en management des projets

La pratique de la planification en management des projets


Les Canaux de transmission des startups

H2: le succès des startups camerounaises n’est pas uniquement garanti par la pratique de la planification en mana
ps camerounaises est garanti par la pratique de la planification en management des projets.

Le succès des startups camerounaises est garanti.

Source: Auteur inspiré du cours d’initiation à la méthodologie de recherche de Raymond-


Thietart et al. 4e édition, Dunod, paris, 2014.

1.1.5. Choix et justification des outils d’enquête


Il existe plusieurs méthodes de collecte des données. le chercheur peut opter pour la
combinaison de plusieurs méthodes ou pour le choix d’une d’entre elles. Dans le cadre de
notre recherche, nous avons opté pour l’utilisation des méthodes suivantes : la recherche
documentaire ; le questionnaire.
1.1.5.1. La recherche Documentaire
Comme son nom l'indique, cette méthode de pré-enquête consiste à répertorier et à
consulter des documents, les plus spécifiques et les plus spécialisés possibles sur le sujet de la
recherche. On utilisera donc les registres, rapports, séries statistiques, manuels, thèses etc. et
même, s'il en existe, des documents audio-visuels, afin d'en savoir le plus que l'on peut, à
l'avance, sur le problème traité ou sur des problèmes identiques, similaires. notre recherche
documentaire s’est faite dans différentes bibliothèques en l’occurrence, la bibliothèque de
l'université de douala et par les tics notamment internet et ses auxiliaires. Mais cette méthode
ne nous a pas permis d’avoir des informations suffisantes pour répondre à notre question de
recherche.

6
1.1.5.2. La collecte de données : Le sondage par questionnaire
Un questionnaire est un moyen de communication essentiel entre l’enquêteur et
l’enquêté. Il comporte une série des questions concernant les problèmes sur lesquels on attend de
l’enquêté une information. La meilleure réponse recherchée dans le questionnaire est celle qui, à
travers la subjectivité des individus, exprime directement ou indirectement le phénomène social
que l’on veut connaitre ou comprendre. Il s’agit donc d’une démarche méthodique qui doit
satisfaire à certaines exigences de rigueur.
Le sondage par questionnaire est une opération statistique classique qui consiste, pour
étudier un phénomène quelconque dans un ensemble donné, à limiter les analyses à une partie de
cet ensemble, question de réduire les coûts et d’apporter les précisions à certaines estimations.
Cette démarche est fondée sur la représentativité de la partie sur laquelle s’effectue en définitive
l’étude, communément désignée échantillon. Toute la problématique de la validité de la méthode
réside dans la technique de choix de l’échantillon.
Aussi, les informations qui permettront de caractériser le champ d’étude sont
collectées par un questionnaire structuré qui est le principal instrument de l’enquête par sondage.
le but de l’enquête par un questionnaire est de collecter des informations dont l’analyse permet
de porter un jugement d’ensemble sur «pratique de la planification post financement en gestion
des projets et succès des startups au Cameroun : cas des startups de la ville de douala».
Ainsi, après avoir rappelé le but de l’enquête par sondage, nous aborderons tour à tour
les questions relatives au processus d’échantillonnage et à la démarche pratique de collecte de
données.
1.1.6. L’accès au terrain
Il est question ici de présenter la technique d’échantillonnage, les méthodes
empiriques ou non aléatoires ou non probabiliste, la justification du choix de notre méthode
non aléatoire ou non probabiliste.
1.1.6.1. Le processus d’échantillonnage 
L’échantillonnage peut être défini comme la détermination d’un échantillon dans une
population c’est-à-dire de la fraction représentative d’une population ou d’un ensemble
statistique qui sera interrogée au cours d’une enquête par sondage en vue d’obtenir un résultat
représentatif. Les méthodes d’échantillonnage consistent à construire un échantillon d’une
population mère afin d’en estimer les caractéristiques et opinions.
On distingue deux catégories de méthodes d’échantillonnage : les méthodes probabilistes
et les méthodes non probabilistes (dites également empiriques), nous avons opté pour la

7
technique non probabiliste qui nous permettra d’effectuer un échantillonnage aléatoire par la
méthode d’échantillonnage non aléatoire
 Définition des méthodes empiriques ou non aléatoires ou non probabiliste
Les méthodes d’échantillonnage non probabilistes, ne s’appuient pas sur le hasard
pour sélectionner les individus d’une population. Les échantillons ainsi constitués ne sont
donc pas probabilistes et, de ce fait, on ne peut leur appliquer la notion de marge d’erreur
statistique. Autrement dit, on ne connaît pas le niveau de précision des estimations ainsi
produites. Ils présentent toutefois d’autres avantages, comme ceux d’être peu coûteux, rapides
et faciles à utiliser.
Ces méthodes sont fréquemment utilisées en recherche qualitative. Ici l’échantillon est
formé à partir de l’opinion d’une ou de plusieurs personnes suffisamment éclairé pour
identifier les unités qui représentent adéquament la population. Aucun calcul statistique
compliqué n’est utilisé. L’échantillon obtenu par cette méthode comporte des avantages mais
ceux-ci sont accompagné d’un inconvénient majeur, en effet aucune technique statistique
n’intervient dans le choix de l’échantillon et il devient difficile d’évaluer objectivement
jusqu’à quel point cet échantillon est représentatif dans cette catégorie ; Ici l’échantillon
dérive d’un choix raisonné.
2.6.1.1.2. Définitions des sondages par choix raisonné. 
Une méthode d’échantillonnage raisonnée est une méthode de sélection d’un
échantillon par laquelle la représentativité de l’échantillon est assurée par une démarche
raisonnée. La méthode d’échantillonnage raisonnée la plus utilisée et la plus connue est la
méthode des quotas. Une méthode d’échantillonnage raisonnée est une alternative à une
méthode probabiliste. elle consiste à construire, à partir d’informations à priori sur la
population étudiée, un échantillon qui ressemble autant que possible à cette population.la
désignation de l’échantillon résulte d’un choix raisonné, d’où le nom de la méthode.
Il s’agit des procédés empiriques, comportant une part d’arbitraire et ne permettant pas
d’évaluer la précision des estimations. Ils présentent toutefois des avantages, notamment de
coût et de rapidité, par rapport à la méthode de sondages aléatoires. On peut noter : la
méthode des quotas, la méthode des unités types, la méthode du Random route ou des
itinéraires, la méthode l’échantillon boule de neige,  la méthode du volontariat ou de
convenance, la méthode de l’échantillon sur place  méthode de sondage à chaud :

8
2.6.1.1.3. Justification de notre méthode empirique ou non aléatoire ou non probabiliste
La technique de sondage retenu pour notre recherche est un sondage par la méthode
choix raisonné parce que l’on s’intéresse aux individus/ startup peurs rencontrées dans la ville
de douala susceptible de fournir des informations importantes et nécessaires servant à la
réalisation de la recherche.
Et ces acteurs sont connus d’avance et peuvent faire partie des services différents au
alors être dans le même service et aussi parce que la méthode par choix raisonné est celle la
plus répandue du fait qu’en pratique, elle donne de bon résultats, à condition d’avoir été
pratiqué avec méthode et rigueur.
1.2. Description de l’instrument de collecte des données.
Il s’agit de présenter clairement l’instrument sans lequel nous n’aurions pas eu les
données manipulées dans le cadre de notre étude.
 L'instrument de recherche
On appelle instrument de recherche le support, l'intermédiaire particulier dont va se servir
le chercheur pour recueillir les données qu'il doit soumettre à l'analyse. Ce support est un outil
dont la fonction essentielle et de garantir une collecte d'observations et/ou de mesures
prétendues scientifiquement acceptables et réunissant suffisamment de qualités d'objectivité et
de rigueur pour être soumises à des traitements analytiques.
L'instrument de recherche est donc, finalement, un ensemble technique spécial que le
chercheur devra, le plus souvent, élaborer pour répondre aux besoins spécifiques de sa
recherche en termes d'informations dont le traitement conduira aux objectifs qu'il s'est fixé.
1.2.1. Présentation du questionnaire
L’instrument de mesure qui a été utilisés dans le cadre de cette recherche est le
questionnaire qui a été adressé aux individus/ startup peurs rencontrées dans la ville de douala
un exemplaire du questionnaire et les lettres d'envoi qui ont accompagné les questionnaires
lors de la collecte seront en annexe du présent document. Ce questionnaire a été élaboré sur la
base de la littérature proposée au chapitre précédent ; nous avons, durant l'élaboration du
questionnaire eu recours régulièrement, à notre directeur de recherche qui a régulièrement
orienté la façon de poser les questions, les détails des différentes étapes qui ont ponctuée
l'élaboration du questionnaire se trouvent dans la prochaine section relative à la phase
d’élaboration du questionnaire.

9
En bref, notre questionnaire est regroupé autour de plusieurs grandes sections et ces
sections comportent des sous sections et notre instrument d’enquête est constitué en majorité
des questions fermées et en minorité des questions semi-ouvertes.
1.2.2. Phase préliminaire d'élaboration du questionnaire et enquête pilote ou pré-test.
L’élaboration du questionnaire est un travail complexe et souvent difficile d’autant
plus qu’il peut commander toute la suite de nos recherches. En effet le chercheur se trouve
souvent dans une situation ambiguë car il se pose l’épineux problème de savoir comment
formuler les questions pour qu’elles soient facilement comprises par les destinataires et
d’autre part comment ventiler le questionnaire. En dépit de toutes ces difficultés rencontrées
lors de l’élaboration du questionnaire, il n’en demeure pas moins qu’il reste un élément
indispensable à notre recherche.
 La pré-enquête
la pré-enquête est une phase de terrain assez précoce dont les buts essentiels sont d'aider à
constituer une problématique plus précise et surtout à construire des hypothèses qui soient
valides, fiables, renseignées, argumentées et justifiées. De même, la pré-enquête permet de
fixer, en meilleure connaissance de cause, les objectifs précis, aussi bien finaux que partiels,
que le chercheur aura à réaliser pour vérifier ses hypothèses. Très souvent aussi, on a recours
à la pré-enquête pour effectuer le choix d'instrument et le mode de construction de celui-ci.
1.2.3. Déroulement de l’enquête sur le terrain
Il est question ici de présenter la diffusion/ventilation des questionnaires et collecte
des données et le taux de réponse au questionnaire administré.
1.2.3.1. Diffusion/Ventilation des questionnaires et collecte des données
La troisième étape est la diffusion des questionnaires et la collecte proprement dite.
Les informations recueillies lors du pré-test ont permis d'évaluer à environ dix minutes le
temps de réponse pour un répondant/répondante et c'est en tenant compte du temps nécessaire
de réponse d’un répondant/répondante que le délai estimatif pour la collecte final de donnée
sur le terrain a été fixé à plus de deux semaines.
1.2.4. La population de l’étude ou population mère
La population d’étude se définit comme étant un ensemble d’éléments de référence
possédant tous une même propriété et sur lequel porte une étude. Dans le cadre de notre
étude, nous définissons la population de l’étude comme l’ensemble des sujets auxquels le
chercheur va s’intéresser au cours de ses investigations.

10
1.4.1.1. La population accessible
D’après Berlier, N. (1998), la population est un ensemble des éléments sur lesquels
porte la recherche, partant de cette définition nous pouvons dire que la population est
l’ensemble des individus ayant les caractéristiques identiques poussant le chercheur à amener
une enquête sur eux. La population d’étude ou population mère est l’ensemble des individus
dont les caractéristiques répondent aux objectifs de l’étude envisagées et qui servent de
support à la vérification des hypothèses. Dans le cadre de notre étude, Il s’agit ici des
individus/ startup peurs rencontrées dans la ville de douala.
1.4.1.5.. L’échantillon
Aucun concept n’est aussi fondamental pour conduire la recherche et interpréter ses
résultats que l’échantillon. Sauf de vouloir entreprendre une étude complète, la recherche est
sans grande mutation conduite par le biais d’un échantillon à partir duquel les généralisations
appliqués à la population d’où émane l’échantillon sont obtenues. Dans le cadre d’une étude, il
est rarement possible d’interroger toute la population cible. D’où la nécessité de constituer un
échantillon, tiré de manière représentative de la population cible.
Un échantillon est dit représentatif lorsqu’il est en tout point semblable à la population
cible, c'est-à-dire, possédant les mêmes caractéristiques que la population d’où il est tiré. La
taille de l’échantillon est utile pour une certaine précision et une fiabilité des résultats.
Notre échantillon est constitué de quarante-huit (48) individus/ startup peurs rencontrées
dans la ville de douala. .
Tableau : répartition de l’échantillon selon le genre
  Effectifs Pourcentage
Masculin 34 70,8
Féminin 14 29,2
Total 48 100,0
Source : Auteur à partir des données d’enquête.

SECTION 2 : DEFINITION DES VARIABLE, PRESENTATION DU, TEST DES


HYPOTHESES ET DE LA STATISTIQUE UTILISE AINSI QUE DU LOGICIEL
UTILISE.
Nous allons définir nos variables, puis présenter le logiciel et les tests d’hypothèses de
notre recherche
2.1. la méthode d’analyse des données
Le dépouillement du questionnaire se fera à l'aide du progiciel SPSS.20 (Statistical Package for
the Social Sciences), suivi de l'analyse descriptive à travers les graphiques grâce au logiciel

11
EXCEL pour décrire la population échantillonnée, l’analyse factorielle pour révéler les
interrelations entre caractères et proposer une structure de la population ,ensuite la vérification
du lien entre les variables se fera grâce au modèle de régression linéaire multiple.
2.1.1. Analyse uni variée et bi variée de données collectées sur le terrain
Il est question de présenter ici l’Analyse uni variée qui utilise prioritairement la statistique
descriptive et l’analyse bi variée  qui fait usage de la statistique descriptive par les tableaux
croisées.
2.2. ANALYSE FACTORIELLE
On présentera ici la définition de l’analyse factorielle, but des analyses factorielles,
principe de l’analyse factorielle, type de questions auxquelles l'analyse factorielle permet de
répondre, les étapes d’une analyse factorielle.
2.2.1. Définition
La méthode de l'analyse factorielle date du début du 20ième siècle (Spearman, 1904) et a
connu de nombreux développements, plusieurs méthodes de calcul ayant été proposées. Si
cette méthode a d'abord été utilisée par les psychométriciens, son champ d'application s'est
peu à peu étendu à de nombreux autres domaines, par exemple en géologie, médecine,
finance. On distingue aujourd'hui deux grands types d'analyse factorielle :
 L’analyse factorielle exploratoire (en anglais, exploratory factor analysis ou EFA)
 L’analyse factorielle confirmatoire (en anglais, confirmatory factor analysis ou CFA)
L'EFA correspond à ce qui est décrit ci-dessous et à ce qui est utilisé par SPSS. Il s'agit d'une
méthode qui permet de découvrir l'existence éventuelle de facteurs sous-jacents synthétisant
l'information contenue dans un plus grand nombre de variables mesurées. La structure liant
les facteurs aux variables est inconnue a priori et seul éventuellement le nombre de facteurs
est supposé. La CFA dans sa version traditionnelle s'appuie sur un modèle identique à celui de
l'EFA, mais la structure liant les facteurs sous-jacents aux variables mesurées est supposée
connue. Une version plus récente de la CFA est liée aux modèles d'équations structurelles.
2.2.2. But des analyses factorielles
La présentation synthétique d’un grand ensemble de données résultant de l’étude de
plusieurs caractères quantitatifs ou qualitatifs sur une population n’est pas facile. Les procédés
classiques de la statistique descriptive à une dimension permettent de résumer l’information
recueillie sur chaque caractère (variable) pris isolément. En revanche, ils ne fournissent
aucune méthode visant à décrire l’information globale dont on dispose quand on considère les
caractères étudiés dans leur ensemble. Les interrelations entre les caractères et leurs effets sur
la structuration de la population risquent alors d’échapper à l’utilisateur.

12
L’Analyse en Composantes Principales (ACP) et l’Analyse Factorielle des
Correspondances (AFC) ont pour but de révéler ces interrelations entre caractères et de
proposer une structure de la population. Un des intérêts majeurs de ces analyses est de fournir
une méthode de représentation d’une population décrite par un ensemble de caractères dont
les modalités sont quantitatives (mesures continues), pour une ACP, ou qualitatives (pour une
AFC).
2.2.3. Principe de l’analyse factorielle
L'analyse factorielle cherche à réduire un nombre important d'informations (prenant
la forme de valeurs sur des variables) à quelques grandes dimensions. Comme dans
toute analyse statistique, on tente donc d'expliquer la plus forte proportion de la variance
par un nombre aussi restreint que possible de variables (appelées ici composantes ou
facteurs). On utilise le terme de variables latentes pour parler de ces variables qui existent
au plan conceptuel seul et qui ne sont pas mesurées.
L'analyse factorielle tente de donner un sommaire des patrons de corrélations entre
les variables. Elle tente de décomposer les patrons de corrélations pour les expliquer par
un nombre restreint de dimensions. Elle est souvent utilisée comme méthode d'analyse
exploratoire en vue de créer des échelles.
2.2.4. Type de questions auxquelles l'analyse factorielle permet de répondre
(Tabachnik et Fidell, 1989: 601).
 Combien de facteurs sont nécessaires pour donner une représentation juste et
parcimonieuse des données?
 Quelle est la nature de ces facteurs, comment peut-on les interpréter?
 Quelle proportion de la variance des données peut être expliquée par un certain
nombre de dimensions (facteurs) majeures?
 Jusqu'à quel point la solution factorielle est conforme à la théorie que je voulais
vérifier?
 La structure factorielle est-elle la même pour divers groupes ?
 Quel score auraient obtenu les sujets si on avait pu mesurer les facteurs ?
2.2.5. Les étapes d’une analyse factorielle
 Une première étape consiste à construire, à partir du tableau de données, un nuage de
points. Ce nuage est défini par les distances mutuelles entre les points et la masse
affectée à chaque point. Dans le cas de l’AFC, distance et masses se déduisent du
tableau initial. Dans le cas plus général de l’ACP, l’utilisateur doit faire des choix (cf.
sous-section ci-dessous sur ACP).
13
 La deuxième étape consiste à déterminer des sous-espaces sur lesquels on pourra
projeter le nuage de points sans trop le déformer.
Afin de dégager les principales tendances, on procède à des ajustements linéaires successifs
du nuage initial. Le premier ajustement consiste à déterminer l’axe qui restitue au mieux la
forme géométrique et massique du nuage (ou, si l’on veut, de sorte que les distances entre les
projections des profils du nuage sur cet axe soient le plus proche possible des distances
initiales (cf. sous-section ci-dessous sur la régression). C’est le premier axe d’inertie ou
premier axe factoriel du nuage. On détermine ensuite le plan qui restitue au mieux la
proximité entre points.
Ce plan contient nécessairement le 1er axe factoriel. L’axe orthogonal à celui-ci dans
ce plan est le 2ème axe factoriel. Et ainsi de suite pour les dimensions 3, 4, etc.
Remarque : Le traitement mathématique comporte la diagonalisation de matrices, pour la
recherche des axes privilégiés. Celle-ci se fait par le calcul des vecteurs propres et des
valeurs-propres de la matrice. Les valeurs propres sont des coefficients numériques
intervenant dans l’interprétation, aussi les verra-t-on apparaître dans les résultats.
2.2.6. L’analyse en composante principale et la méthode des scores
L’ACP permet de confirmer l’unidimensionnalité d’un item ou alors permet de révéler
ses dimensions cachées. Le but de cette analyse est de résumer le maximum d’informations
possibles, en perdant le moins possible pour faciliter l’interprétation d’un grand nombre de
données initiales et donner plus de sens aux données réduites. Si l’ACP révèle les dimensions
Cachées du phénomène, il faut interpréter et donner un nom à chacune des dimensions. On a
réalisé l’ACP sur l’attitude des employés par rapport à l’entreprise, le style de leadership du
dirigeant, la qualité de l’information comptable et la variable «nature du système
d’information comptable (qualité du système d’information comptable)».
2.2.6.1. Analyse des outils de mesure et description de l’échantillon
Il est question ici de présenter l’évaluation de la fiabilité de l’échelle de mesure à
travers l’usage du Coefficient alpha de Cronbach 
2.2.6.1.1. Vérification et validité de l’échelle mesure
Pour vérifier si notre échelle est suffisamment fidèle pour être utilisée dans un questionnaire,
nous avons procédé à l'analyse des qualités psychométriques de cet instrument de mesure à
l’aide :
 Du coefficient alpha de Cronbach.

14
 Des indices de corrélation item-total dont l’analyse est destinée à vérifier si un item est
bien construit et s'il démontre une corrélation élevée avec le score total corrigé, sans
pour autant présenter une forte corrélation avec un autre item,
2.2.6.1.2. Évaluation de La fiabilité de l’échelle de Mesure : le Coefficient alpha de
Cronbach 
Le coefficient alpha de Cronbach, parfois appelé simplement coefficient Alpha et noté
 , est une statistique utilisée notamment en psychométrie pour mesurer la cohérence interne

(ou la fiabilité) des questions posées lors d'un test (les réponses aux questions portant sur le
même sujet devant être corrélées). Sa valeur s'établit entre 0 et 1, étant considérée comme
"acceptable" à partir de 0,7.
2.2.6.1.3. Définition et fondement
Créé par Lee Cronbach en 1951, le coefficient alpha de Cronbach est un indice statistique. Il
est généralement utilisé pour déterminer la cohérence de l'ensemble de questions composant
un test psychologique. Le coefficient alpha de Cronbach peut prendre plusieurs valeurs, de 0
jusqu'à 1. Tous les scientifiques ne s'accordent pas sur la valeur minimale à obtenir pour que
le test soit considéré comme fiable. Certains estiment le test satisfaisant dès lors que le
coefficient alpha de Cronbach atteint au moins 0,7, d'autres fixent la valeur à obtenir à au
moins 0,8.
 Présentation de L’alpha de Cronbach
L’alpha de Cronbach mesure la cohérence interne de l’échelle de mesure, plus cet
indice est proche de 1 et plus les items sont fortement corrélés entre eux ce qui indique qu’ils
mesurent bien le même concept. En général, pour une étude exploratoire, les chercheurs
(Evrard et alii, 2000) considèrent que cet indice est acceptable lorsqu’il est compris entre 0,5
et 0,8. Pour une étude confirmatoire (en particulier pour une échelle qui a déjà été testée), la
valeur de l’alpha doit être supérieure à 0,8. Il permet donc l’estimation de la fidélité du score à
un test. Le coefficient alpha peut être conçu comme une généralisation au cas de variables
continues de la formule de Kuder-Richardson (KR-20) pour items dichotomiques.
2.2.6.1.4. Analyse corrélationnelle : matrice de corrélations
La matrice des corrélations est tout simplement la matrice des coefficients de
corrélation calculés sur plusieurs variables prises deux à deux. En général, il s’agit des
coefficients de corrélation linéaire de Pearson. C’est donc aussi la matrice des variances-
covariances de variables réduites. La matrice est évidemment symétrique et sa diagonale est
constituée de 1 puisque la corrélation d’une variable avec elle-même est parfaite.

15
Donc, sa trace est égale au nombre de variables. Une matrice des corrélations permet
de détecter rapidement certaines liaisons. C’est donc en amont des études qu’on l’utilise.
Toutefois, dès que le nombre de variables devient important, les interprétations deviennent
difficiles et on se tourne souvent vers les analyses factorielles.
2.2.6.1.5. Analyse de la validité et de la fiabilité des facteurs identifiés
Il est question de la définition du test ou mesure de Kaiser-Meyer-Olkin (KMO), de la
Présentation de la Mesure de Kaiser-Meyer-Olkin (KMO) de parler du test de sphéricité de
Bartlett
2.2.6.1.5.1. Le test ou mesure de Kaiser-Meyer-Olkin (KMO)
Définition : Le test de Kaiser-Meyer-Olkin (KMO) est un indice d’adéquation de la
solution factorielle qui indique dans quelle mesure les variables retenues représente un
ensemble cohérent et qui permet de constituer alors une mesure adéquate du concept. En règle
générale, une valeur de test du KMO inférieure à 0,5 est considérée comme inacceptable
(>0,60 = médiocre ; > 0,70 = moyen et >0,80 = méritoire).
2.2.6.1.5.2. Présentation de la Mesure de Kaiser-Meyer-Olkin (KMO)
Plus communément appelé le KMO, la mesure de Kaiser-Meyer-Olkin est
un indice d'adéquation de la solution factorielle. Il indique jusqu'à quel point l'ensemble
de variables retenu est un ensemble cohérent et permet de constituer une ou des
mesures adéquates de concepts. Un KMO élevé indique qu'il existe une solution factorielle
statistiquement acceptable qui représente les relations entre les variables.
Une valeur de KMO de moins de 0,5 est inacceptable et d’après la référence de SPSS
(professional statistics) notamment dans guide utilisateur on a le classement suivant : 0,5 est
misérable ; 0,6 est médiocre ; 0,7 est moyenne ; 0,8 est méritoire ; 0,9 est merveilleuse. Le
KMO reflète le rapport entre d'une part les corrélations entre les variables et d'autre part, les
corrélations partielles, celles-ci reflétant l'unicité de l'apport de chaque variable.
2.2.6.1.5.3. Le test de sphéricité de Bartlett
Cette mesure indique si la matrice de corrélation est une matrice identité à l'intérieur de
laquelle toutes les corrélations sont égales à zéro. Nous espérons que le test soit significatif
(p < 0,05) pour que nous puissions rejeter l'hypothèse nulle voulant qu'il s'agisse d'une
matrice identité qui signifie que toutes les variables sont parfaitement indépendantes les
unes des autres. Ce test vérifie l'hypothèse nulle selon laquelle toutes les corrélations
seraient égales à zéro.
On doit donc tenter de rejeter l'hypothèse nulle i.e. que le test doit être significatif
(la probabilité d'obtenir la valeur du test doit être plus petite que 0 ,05). Toutefois le test

16
est très sensible au nombre de cas; il est presque toujours significatif lorsque le nombre
de cas est grand. Ses résultats sont donc intéressants presque uniquement lorsqu'il y a
moins de 5 cas par variable.
2.2.6.1.5.4. Récapitulatifs sur les critères méthodologiques pratiques et concrets de
manipulation et du choix des instruments de mesure dans une analyse factorielle.
Il s’agit de présenter le choix du type d’analyse factorielle à réaliser, L’analyse de la
qualité de la représentation des variables, L’analyse de la variance expliquée des facteurs,
L’analyse des corrélations entre les variables et les axes.
2.2.6.1.5.4.1. Le choix du type d’analyse factorielle à réaliser
Généralement, l’analyse factorielle peut être réalisée avec ou sans rotation. Cela
revient à se demander si l’échelle est multidimensionnelle ou unidimensionnelle. Si la théorie
stipule que le construit est unidimensionnel, on réalise aucune rotation. Dans le cas contraire,
deux types de rotation peuvent être envisagés : la rotation orthogonale (Varimax, ou
Quartimax et Equamax) ou la rotation oblique (Oblimin ou Promax). Théoriquement, les
échelles utilisées dans cette recherche sont justement multidimensionnelles. Pour cette raison,
nous avons procédé à des analyses factorielles avec rotation orthogonale varimax dans
l’intérêt de faciliter l’interprétation des facteurs.
Tableau 6.2 : Règles de décision pour la rotation de l’analyse factorielle.
Statut théorique du Choix de l’analyse factorielle
construit
Unidimensionnel Analyse factorielle sans rotation
Multidimensionnel Analyse factorielle avec rotation orthogonale (Corrélation entre
les axes < 0,3)
Analyse factorielle avec rotation oblique (Corrélation entre les
axes > 0,3)
Source : Rolland (2003).
2.2.6.1.5.4.2. L’analyse de la qualité de la représentation des variables
Elle permet en réalité de mesurer le pourcentage de variance expliquée par les
variables sur la ou les dimensions extraites. Le résultat de cette analyse permet de savoir si les
items sont bien représentés par la ou les dimensions du construit (cf. tableau 6.3).
Tableau 6.3 : Interprétation de la qualité de représentation des variables
% de la variance expliquée par Interprétation des résultats
chaque variable
Si > 0,5 Bonne qualité de représentation de la variable
Si < 0,5 Mauvaise qualité de représentation de la variable.
Variable exclue et nouvelle analyse factorielle
réalisée
Source : Rolland (2003).

17
2.2.6.1.5.4.3. L’analyse de la variance expliquée des facteurs
Le pourcentage de la variance expliquée par chaque facteur et en cumulé permet de
répondre à la question suivante : les axes résument-ils bien l’information ? (cf. tableau 6.4).
Pour déterminer le nombre de facteurs à retenir, nous avons procédé à une analyse des valeurs
propres. Seuls les facteurs ayant des valeurs propres supérieures à 1 ont été retenus. Nous
nous sommes également servis du pourcentage de variance expliquée cumulée des facteurs.
Les facteurs retenus doivent expliquer au moins 60% de la variance (Malhotra et al., 2007).
Tableau 6.4 : Interprétation de la variance expliquée des facteurs
% de la variance expliquée par Interprétation des résultats
les facteurs
Si valeur propre > 1 La valeur propre représente le % de variance expliquée
par chaque facteur, le facteur est retenu quand sa valeur
propre est >1 (règle de Kaiser)
Si variance cumulée > 60% Les axes retenus doivent expliquer plus de 60% de la
variance (Malhotra et al.,, 2007)
Source : Malhotra et al. (2007).
2.2.6.1.5.4.4. L’analyse des corrélations entre les variables et les axes
Il s’agit ici de répondre à la question suivante : les items contribuent-ils à une
explication correcte de l’axe ou des axes ? Cela revient à procéder à l’analyse de la corrélation
entre les variables et les axes. Dans le cadre de cette recherche doctorale, la matrice des types
est étudiée (cf. tableau 6.5).
Tableau 6.5 : L’analyse factorielle.
Type d’analyse factorielle Matrice Règles de décision
Analyse sans rotation Matrice des Corrélation > 0,5
composantes
Analyse avec rotation orthogonale ou Matrice des Corrélation > 0,5
oblique composantes Différence de
Rotation varimax Matrice des types contribution entre l’axe
Rotation oblimin principal et un autre axe
> 0,3
Source : Rolland (2003).
2.2.7. ANALYSE DES RELATIONS CAUSALES PAR LA REGRESSION LINEAIRE
Il est question ici de présenter la définition des variables, des hypothèses et de la
statistique utilisée et présentation du logiciel utilisée, Analyse multi varié ou Statistique
d’estimation, présentation et spécification du modèle retenu pour notre recherche, Type et
explication des tests utilisés dans cette recherche, l’interprétation du test de régression
multiple, les logiciels utilisés dans notre recherche.

18
2.2.7.1. Définition des variables, des hypothèses et de la statistique utilisée et
présentation du logiciel utilisée
Nous allons définir nos variables, présenter les d’hypothèses, la méthode statistique
utilisée de notre recherche ainsi que le logiciel utilisé. Notons que dans le cadre de notre
rédaction, les variables indépendantes sont celles qui seront manipulées, jonglées et voire
même éclatées en indicateurs. Ces indicateurs nous permettent d’élaborer l’objectif de notre
étude qui sera par la suite déclinées en hypothèses de recherche. Nos variables indépendantes
sont celles qui agissent sur la variable dépendante, elles ne peuvent donc être détachées de la
variable dépendante dans le cadre de notre étude.
2.2.7.2. Définition des concepts de variables dans une recherche.
Il s’agit ici de définir Variable dépendante et la Variable indépendante 

 Variable dépendante : C'est la variable désignée généralement par le symbole Y. Elle


dépend, dans ses variations, d'autres phénomènes ou variables que l'on peut étudier ou
manipuler, On peut écrire la relation Y = f(X)
 Variable indépendante : C'est la variable qui influence la modification de la variable
étudiée. Elle peut être manipulée par l'expérimentateur pour étudier son rôle dans les
variations de la variable dépendante. On la note généralement par le symbole X. Pour
une même variable dépendante, on peut avoir plusieurs variables indépendantes, on
écrit alors : Y= f(X1, X2, X3 ...), Dans notre rédaction, les variables indépendantes sont
celles qui seront manipulées et même éclatées en indicateurs. L’objectif de notre étude
qui sera par la suite déclinées en hypothèses de recherche est élaboré par ces
indicateurs. Nos variables indépendantes sont celles qui agissent sur la variable
dépendante, elles ne peuvent donc être détachées de la variable dépendante dans le
cadre de notre étude.
 Variables confusionnelles. Une variable de confusion est une variable indépendante
(autre que la variable supposée causale dans l’hypothèse), qui a ou peut avoir un effet
sur la variable dépendante, mais dont la distribution est systématiquement corrélée
avec la variable causale dans l’hypothèse.
 Variables contrôlées. Les variables contrôlées sont des variables indépendantes
(autres que les variables causales) qui sont des variables de confusion potentielles et
qui doivent être contrôlées ou neutralisées lors de la planification de l’étude ou de
l’analyse des résultats. Noter que celles-ci sont seulement les variables connues ou

19
contrôlables. Dans la plupart des études, il est impossible de tenir compte de toutes les
variables en dehors de celles qu’on soupçonne être des variables causales.
 Variables intermédiaires ou impliquées. Lorsque l’effet d’une variable causale sur
la variable dépendante subit l’action d’un troisième ensemble de variables, ces
dernières sont appelées variables intermédiaires. Ce sont en fait des variables
dépendantes par rapport à la variable causale, mais elles sont indépendantes pour ce
qui concerne la variable étudié. Ce sont des variables intermédiaires dont certaines
doivent être spécifiées dans le plan d’étude et dont il faut collecter les données.
2.2.7.3. Identification des variables et des hypothèses
Il est question dans cette sous-section de rapprocher chaque variable indépendante
avec l’hypothèse qui la soutienne.
Tableau : Identification des variables
HYPOTHESES TYPES DE VARIABLES
Variables Variable dépendante
indépendantes
le succès des startups camerounaises est la pratique de la
garanti par la pratique de la planification planification en
en management des projets. management des le succès des startups
projets camerounaises
le succès des startups camerounaises les Canaux de
n’est pas uniquement garanti par la transmission des
pratique de la planification en startups.
management de projet.
Source : auteur de la recherche
2.2.7.4. Mesure des variables ou Caractéristique des variables
Parmi les étapes suivies par le chercheur tout long de son travail, l’opérationnalisation
des concepts joue un rôle très important. Un concept est par nature une notion abstraite
définie par le chercheur pour l’aider dans la construction de la connaissance. Ainsi, pour
aboutir à des meilleurs résultats chaque concept impliqué dans une hypothèse doit être
parfaitement défini, compris et bien opérationnalisé par le chercheur.
Opérationnaliser un concept signifie alors trouver ses différents indicateurs de mesure.
Autrement dit, il s’agit de déterminer la nature des données à collecter ; de passer du concept
à la variable proprement dit et de la variable aux données à mesure. La mesure des variables
est une phase importante du processus de recherche, puisque l’enjeu est de construire des
mesures de variables fiables et valides. Les concepts que nous avons utilisés comportent des
aspects non directement mesurables. Il faut donc trouver des dimensions révélatrices de
chacun d’eux. La mesure des variables est indispensable à toute recherche car elle permet de
percevoir ce qui n’est pas directement appréhendée.

20
2.2.7.5. Choix de l’échelle de mesure de notre recherche
Mesure ou opérationnaliser une variable consiste à définir les indicateurs ou items de mesure
et choisir des différentes modalités d’un attribut dans la réalité étudiée. Les modalistes
correspondent ici aux échelles qui permettent d’évaluer l’indicateur. Il s’agit ici de présenter de
façon simple l’usage des données recueillis sur le terrain dans notre recherche ainsi que son
échelle de mesure.
 Présentation sommaire du niveau de mesure des échelles  
Pour toutes les échelles, on peut trouver le niveau de mesure. Il y en a quatre 
principales qui sont : nominale; ordinale, intervalle, rapport .Le niveau de mesure de données
qualitatives est une échelle nominale ou ordinale, les données quantitatives, pour leur part, ont un
niveau de mesure d'intervalle ou de rapport.  
 Échelle ordinale
Cette échelle possède deux propriétés : l’identification et l’ordonnancement. Il est
toujours possible pour cette échelle d’établir le rang des modalités. Les modalités qui composent
une échelle ordinale sont munies d'une structure d'ordre établie en fonction d'un critère donné.
Par exemple, sur une échelle de satisfaction sémantique en 4 points, les chiffres 1 à 4 n’ont
aucune autre signification que d’indiquer un rang.  Pour son traitement statistique descriptif elle
fait usage de la Fréquence et de la médiane or par définition l’échelle de LIKERT est ordinale.
Tableau n°4 : usage des données recueillis sur le terrain dans notre recherche.
Nom de la variable manipulation dans notre recherche échelle de
mesure du
logiciel
variables dépendantes
le succès des startups variable codées au niveau du questionnaire afin
camerounaises. d’être exploitables informatiquement pour ordinale
l’analyse statistique.
Variables indépendantes
Facteurs liés à l’équipe variable codées au niveau du questionnaire afin
projet  d’être exploitables informatiquement pour ordinale
l’analyse statistique.
Facteurs liés à la gestion variable codées au niveau du questionnaire afin
de projet d’être exploitables informatiquement pour ordinale
l’analyse statistique.
Facteurs liés à variable codées au niveau du questionnaire afin
l’information  d’être exploitables informatiquement pour ordinale
l’analyse statistique.
Facteurs liés à la variable codées au niveau du questionnaire afin
planification en elle-même d’être exploitables informatiquement pour ordinale
l’analyse statistique.
les Canaux de variable codées au niveau du questionnaire afin ordinale

21
transmission des startups. d’être exploitables informatiquement pour
l’analyse statistique.
Source: auteur inspiré des documents issus du site http: // w w w. spss.com
2.2.7.6. Analyse multi varié ou Statistique d’estimation
Nous allons également dans le cadre de notre travail utilisées quelques outils de
l’économétrie qui est une branche de la science économique consistant à vérifier les
hypothèses à partir des données chiffrées tirées de la réalité dans le but de mieux étayer notre
recherche de relation ou de liaison
2.2.7.6.1. Buts et caractéristiques du Modèle de Régression
Généralement, la régression a pour but de fournir des informations sur l’effet que peut
avoir une variable indépendante ou explicative sur une variable dépendante ou à expliquer.
L’intérêt pour les modèles de régression est important dans la mesure où ceux-ci constituent
un approfondissement pour les modèles d’analyse bivariée qui restent la plupart du temps de
nature descriptive. Cette étape descriptive est néanmoins nécessaire avant d’effectuer des
analyses de régression, qui eux sont de nature explicative, puisqu’elle permet de repérer les
Premières associations entre les variables.
Selon la nature des variables, la régression peut prendre deux formes : linéaire ou non
linéaire. La régression linéaire est adaptée à des variables continues, alors que le modèle de
régression non-linéaire concerne plutôt des variables non-continues. Le modèle de régression
linaire est sans doute le plus connu et le plus utilisé par la recherche en sciences de gestion.
Ce succès relève de la simplicité de son utilisation ainsi qu’il offre des possibilités de
prévision. Toutefois pour son application, la régression linéaire suppose quelques conditions
contraignantes (Evrard et al, 2003).
C1) Il s’agit en premier de la nature des variables qui doivent être quantitatives ou
métriques, c'est-à-dire mesurée sur des échelles de proportion ou d’intervalle. Cette première
condition constitue un obstacle devant les recherches en sciences de gestion qui disposent
dans la majorité des cas de données qualitatives.
C2) La seconde condition concerne l’indépendance des variables explicatives. Cette
condition signifie qu’aucune association ne doit exister entre les variables explicatives. Dit
autrement, le coefficient de corrélation entre deux ou plusieurs variables indépendantes doit
être nul ou très faible, sinon, le cas contraire, il y a un problème de colinéarité.
C3) Enfin, une troisième condition est également importante à mentionner. Elle
s’apparente aux erreurs ou résidus. Ces derniers doivent être distribués selon une loi normale

22
de moyenne 0 et de variance constante. Les erreurs doivent également être indépendants des
variables explicatives.
NB : Ces conditions ne sont que rarement réunies dans les échantillons fournis pas les
enquêtes en sciences de gestion (enquête par questionnaire). Pour pallier ces problèmes, il est
possible de procéder à des analyses factorielles (ACP ou ACM) pour obtenir des axes
capables d’être traités comme des variables quantitatives. Il est également possible dans le cas
de multi colinéarité de procéder par une régression pas à pas en utilisant que les variables
indépendantes qui ne sont pas corrélées entre elles.
2.2.7.6.2. Modélisation et Régression Linéaire
Pour étudier un phénomène économique, on essaie de représenter celui par le
comportement d’une variable, cette variable économique pouvant dépendre elle-même de
d’autres variables que l’on relie entre elles par une relation mathématique.
2.2.7.6.2.1. Présentation et spécification du modèle retenu pour notre recherche
Il est question ici de définir le modèle de régression linéaire multiple, les hypothèses
du modèle linéaire multiple, le rôle du terme aléatoire, de l’écriture économétrique du modèle
de régression multiple, de la méthode économétrique de recherche retenue qui est ici la
méthode des moindres carrés ordinaires (MCO).
2.2.7.6.2.1.1. Modèle de Régression Linéaire Multiple
Le modèle de régression multiple est une extension du modèle de régression simple
(ou une variable endogène est expliquée par une variable exogène) le modèle de régression
multiple est une généralisation du modèle de régression linéaires dans lequel figurent
plusieurs variables explicatives. Par construction le modèle est linéaires en X avec X la
matrice formé de n lignes et k+1 colonnes (k étant le nombre de variable explicatives réelles
c’est adire constante exclue), et nous distinguons les hypothèses stochastiques (liée à l’erreur)
des hypothèses structurelles.
2.2.7.6.2.1.2. Hypothèses du modèle linéaire Multiple
 Hypothèses stochastiques
xi ,t
H1 : les variables sont observés sans erreurs
E  i   0
H2 : , l’espérance mathématique de l’erreur est nulle.
E   i2    2
H3 : , la variance de l’erreur est constante quel que soit t ( t )

H4 :
 
E t , t/  0
, si t  t les erreurs sont non corrélées ou alors indépendantes
/

23
COV  xit ,  t   0
H5 : , l’erreur est indépendante de la variable explicative,
 Hypothèses structurelles
H6 : absence de colinéarité entre les variables explicatives, cela implique que la matrice

 X X  est singulière et que la matrice inverse  X X 


/ / 1

existe

H7 :
 X X/
n
tend vers une matrice finie non singulière
H8 : n k+1, le nombre d’observation est supérieur au nombre des séries explicatives.
NB : il est bon de noter que les différents logiciels utiliser pour fournir les résultats par
les sorties de machines vérifient automatiquement tous ces hypothèses.
2.2.7.6.2.1.3.. Ecriture économétrique des modèles fondamentale de régression multiple
Dans le cadre de notre recherche notre variable dépendante sera «le succès des startups

camerounaises» et le modèle sera donné par


Yi  f ( X 1i , X 2i , X 3i , X 4i , X 5i ) et l’équation sera

Yi  1 X 1i   2 X 2 i   3 X 3i   4 X 4i  5 X 5i   i
sous la forme
Yi =la variable expliquée « le succès des startups camerounaises».

X 1i = la variable explicative «Facteurs liés à l’équipe projet »

X 2i =la variable explicative «Facteurs liés à la gestion de projet»

X 3i = les variables explicatifs «Facteurs liés à l’information » 

X 4i = la variable explicative  « Facteurs liés à la planification en elle-même» 

X 5i = la variable explicative  «les Canaux de transmission des startups» 

Ici on aura
1 =le coefficient de régression de la variable X 1i

 2 =le coefficient de régression de la variable X 2i

3 =le coefficient de régression de la variable X 3i

 4 =le coefficient de régression de la variable X 4i

5 =le coefficient de régression de la variable X 5i

 i = le résidu i=indice de l’acteur (i=1…n).


2.2.7.6.2.1.4.. Méthode économétrique de recherche : Méthode des Moindres Carrés
ordinaires (MCO)

24
Principe de la méthode des moindres carrés ordinaires (MCO) : elle consiste a
retenir parmi toutes les droites du plan celle pour laquelle la somme des carrés des points
observés a la droite mesuré parallèlement à l’axe des ordonnés est minimum. C’est la droite
dont la distance aux points représentatifs définie comme la somme des carrés des écarts est la
plus petite possible.
NB : il est bon de noter que les logiciels statistiques actuels tels que : SPSS, STATA, EWIEW
etc. fournissement directement les valeurs estimés des paramètres du modèle linéaire simple
ou multiple ainsi que leurs décision et leur significativité et il ne nous reste plus qu’à
interpréter les résultats fournis par ces différents logiciels.
 Les conditions fondamentales de l’analyse de la régression multiple
Avant d’entamer une analyse par la régression multiple, les séries statistiques qui feront
l’objet de cette analyse doivent présenter un certain nombre de conditions impérativement
nécessaires avant toute utilisation possible du modèle pour des fins de prévision, il s’agit de :
 La linéarité du phénomène mesuré : Cette condition stipule que la variable endogène y
est linéairement liée à chacune des variables exogènes (j= 1…..k);
 La variance constante du terme d’erreur ou l’homoscédasticité : elle est vérifiée par
l’examen des résidus ou par les tests statistiques ;

 La normalité de la distribution du terme d’erreur : Ɛ→ (0,  ) ;


2

 Et en fin, l’indépendance des termes d’erreurs : outre l’examen du graphique des


résidus, cette hypothèse peut être validée par le teste de Durbin-Watson, notamment
dans le cas de données temporelles.
2.2.7.6.2.1.5. Type et explication des tests utilisés dans cette recherche 
L’objectif de l’analyse de régression est de déterminer la valeur des paramètres
permettant d’identifier le lien entre la variable dépendante et les variables indépendantes. La
méthode de régression linéaire se base sur les indicateurs statistiques suivants : Le coefficient
de détermination, Le test de Fisher-Snédécor (F), le test de STUDENT (T).ainsi dans notre
mémoire nous allons évaluer l’impact des dimensions du stress sur la performance
individuelle à travers l’usage des outils économétriques suivante : test de STUDENT, test de
FISHER et le coefficient de détermination.
 Test de STUDENT pour la significativité individuelle du modèle linéaire multiple
Dans le cadre de cette recherche nous allons utiliser le test de STUDENT qui a pour
rôle principale l’évaluation de la pertinence du modèle c’est à dire qui traduit la significativité
individuelle de chaque variable indépendante sur la variable dépendante étudié ce le test de

25
STUDENT présente l’avantage qu’il offre la possibilité de quantifier ou d’évaluer l’impact
individuelle de chaque variable indépendante sur le phénomène étudié.
2
L’évaluation de la qualité de l’ajustement se fera à partir de la valeur de R appelée
encore R-deux dans le tableau SPSS.20 et connue en langage économétrique sous le nom de
coefficient de détermination. En effet, R-deux explique le pourcentage de la relation entre la
variable indépendante et la variable dépendante.
 Test de FISHER pour la significativité globale du modèle linéaire multiple
Dans le cadre de cette recherche il est aussi question d’utiliser le test de FISHER qui a
pour rôle principale Évaluation globale du modèle c’est à dire qui traduit la significativité
globale des variables indépendantes sur la variable dépendante étudié, il offre la possibilité de
quantifier ou d’évaluer l’impact des variables indépendantes pris de manière générale sur le
phénomène étudié.
 L’interprétation du test de régression multiple
L’interprétation du test de régression multiple se fait à trois niveaux : l’intensité de la
relation entre les deux variables qui est calculée grâce au coefficient de corrélation r, la
significativité de la liaison et la qualité de l’ajustement du modèle qui s’apprécie à travers le
coefficient r, ainsi que le test F de Fisher, et enfin, l’examen des résidus pour traduire la
2
précision du modèle. Il convient de préciser que le coefficient de détermination linéaire R
est le principal indicateur de la qualité de la régression.
En d’autres termes, il synthétise la capacité de la droite de régression à représenter
l’ensemble du nuage de points des valeurs observées. Cette appréciation doit être la plus
élevée possible. Toutefois, l’interprétation de r doit prendre en considération aussi le nombre
2
de variables explicatives et d’observations assimilées par le modèle. A cet effet, le R ajusté
permet d’avoir une appréciation plus réaliste des résultats du modèle (evrard et al, 2000).
 Critères d’interprétations de la régression multiple.
Il est question ici de l’évaluation globale du modèle, de l’évaluation de la pertinence du
modèle, de l’évaluation de la qualité de l’ajustement des données au modèle de régression et
enfin de évaluation de la variabilité expliquée du modèle de régression.
i) Évaluation globale du modèle
 Au niveau du tableau d’analyse de la variance (ANOVA), si Sig<0,05 alors cela
signifie que globalement la relation statistique entre les variables indépendante et la
variable dépendante est dite significative

26
 Au niveau du tableau d’analyse de la variance (ANOVA), si Sig> 0,05 cela que
globalement la relation statistique entre les variables indépendante et la variable
dépendante est dite non significative
2i) Évaluation de la pertinence du modèle
 Si Sig<0,05 la relation statistique entre la variable indépendante et la variable
Dépendante est dite significative
 Si Sig> 0,05 la relation statistique entre la variable indépendante et la variable
Dépendante est dite non significative
3i) Evaluation de la qualité de l’ajustement des données au modèle de régression
2
Cette évaluation se fait à partir de la valeur de R appelée encore R-deux dans le tableau
SPSS et connue en langage économétrique sous le nom de coefficient de détermination. En
effet, R-deux explique le pourcentage de la relation entre la variable indépendante et la
variable dépendante.
2
 Si R >0,75 le pourcentage d’existence de la liaison (relation) entre la variable
dépendante et la variable indépendante est dite forte
2
 Si R <0,75 le pourcentage d’existence de la liaison (relation) entre la variable
dépendante et la variable indépendante est dite faible
4i) Evaluation de la variabilité expliquée du modèle de régression
 Si β < 0 la régression linéaire est dite négative
 Si β > 0 la régression linéaire est dite positive
 Les logiciels utilisés dans notre recherche
Dans le cadre de cette recherche nous avons eu recours à deux logiciels différents à savoir
SPSS.20 et EXCEL.7
Toutes ces analyses descriptives et relationnelles feront l'objet du chapitre IV ci-
dessous relatif à la présentation et à l'analyse des résultats.

27
CHAPITRE 4 : PRESENTATION, ANALYSE ET INTERPRETATIONS DES
RESULTATS DE LA PRATIQUE DE LA PLANIFICATION POST FINANCEMENT
EN GESTION DES PROJETS ET SUCCES DES STARTUPS DE LA VILLE DE
DOUALA.
Introduction
l’interprétation est l’action d’expliquer une données recueillit à partir d’un phénomène, une
situation, ou une expérience, ce chapitre a pour objectif de présenter les résultats obtenus
afin de répondre notre questionnement de recherche portant sur la relation qui existe entre
perceptions de l’auditeur interne et comportement des audités au sein des banques du
Cameroun, Pour les calculs et les traitements statistiques, nous avons utilisé le logiciel
SPSS.20 et cette partie se compose de plusieurs sous parties :
Dans un premier temps, nous exposerons nos analyses descriptives sur identification
du répondant suivi des tableau croisés; ensuite, nous présenterons des tests d’alpha de
cronbach , de Kaiser-Meyer-Olkin (KMO) et de sphéricité de BARLETT pour ensuite
basculer vers nos analyses des composants principales. Ceci nous permettra de trouver des
facteurs principaux de nos items et de tester la validité de nos échelles de recherche.
Et dans un deuxième temps, il sera présenté les apports de notre recherche au niveau
théorique, au niveau managérial, au niveau scientifique, au niveau professionnel, au niveau
économique, au niveau social, au niveau académique et ensuite faire des
recommandations/suggestions, ressortir les limite de l'étude, les difficultés rencontrées et de
terminer par les avenues futures de notre recherche.
SECTION 1 PRESENTATION, ANALYSE ET INTERPRETATIONS DES
RESULTATS
il sera question ici de présenter, d’analyser et d’interpréter des résultats de l’étude 
quantitative notamment en faisant ressortir une analyses descriptives, une étude de
l’homogénéité des échelles, de présenter les résultats de l’analyse des échelles de mesure, de
présenter les résultats de l’analyse factorielle, de présenter les résultats de l’analyse des
relations causales par la régression linéaire.
1.1. ANALYSES DESCRIPTIVES SUR LE QUESTIONNAIRE DE L’ETUDE.
28
Il est ici de présenter l’identification de l’organisation/ startup et identification du
répondant 
1.1.1. IDENTIFICATION DE L’ORGANISATION/ STARTUP 
1.1.1.1. Quel est votre domaine d’activité ?
Graphique : domaine d’activité
29.2
30.0 18.8
14.6 14.6
20.0
6.3 8.3
4.2 2.1 2.1
10.0
0.0

Service à la demande
Art & Culture
Réseaux sociaux

Informatique
E-commerce

Tourisme
software
Services

Medias

Source : Auteur à partir des données d’enquête.

1.1.1.2. Combien il y’a d'employés dans votre organisation?


Graphique : nombres d'employés dans l’organisation

81.3
100.0
80.0
60.0
16.7
40.0 2.1
20.0
0.0
Moins de 10 Employés 10 –30 Employés 31 – 50 Employés

Source : Auteur à partir des données d’enquête.

1.1.1.3. Quel type d’entreprise êtes-vous ?


Graphique : type d’entreprise

29
72.9
80.0
60.0 18.8
40.0 2.1 2.1 4.2
20.0
0.0

Source : Auteur à partir des données d’enquête.

1.1.1.4. Connaissez-vous la planification en management des projets ?


Graphique : planification en management des projets
29%

Oui
Non

71%

Source : Auteur à partir des données d’enquête.

1.1.1.5. Connaissez-vous l’importance la planification en management des projets?


Graphique : l’importance la planification en management des projets
29%

Oui
Non

71%

Source : Auteur à partir des données d’enquête.

1.1.1.6. L’utilisation de la planification dans le startup


Graphique : L’utilisation de la planification dans la startup

30
19%

Oui
Non

81%

Source : Auteur à partir des données d’enquête.

1.1.1.7. Raisons de L’utilisation des startups


Graphique : Raisons de L’utilisation des startups
56.3
39.6
60.0
40.0 4.2
20.0
0.0

Source : Auteur à partir des données d’enquête.

1.1.1.8. Pensez-vous que l’utilisation de la planification peut garantir le succès de la


startup ?
Graphique : l’utilisation de la planification
23%

Oui
Non

77%

Source : Auteur à partir des données d’enquête.

1.1.2. IDENTIFICATION DU REPONDANT 


1.1.2.1. Age

31
Graphique : tranche d’âge des répondants/répondantes
43.8
45.0
40.0 29.2
35.0
30.0
25.0 16.7
20.0
15.0 6.3 4.2
10.0
5.0
0.0
21-26ans 26-31ans 31-36ans 36-45ans 45ans et plus

Source : Auteur à partir des données d’enquête.


Concernant tranche d’âge des répondants/répondantes, on constate que sur 48
individus enquêtés ; 43,8 énoncent « entre 21 et 26ans » ; 29,2% des individus de
l’échantillon énoncent« entre 26 et 31ans » ; 16,7% des individus de l’échantillon
énoncent« entre 31 et 36 ans», 6,3% des individus de l’échantillon énoncent« entre 36 et 45
ans», et 4,2% énoncent « 45 ans et plus». Il ressort qu’en majorité, la tranche d’âge des
répondants/répondantes de notre échantillon oscille autour de l’intervalle « [21 - 26] ans » et
« [26 - 31] ans ».

1.1.2.2. Niveau d'étude (dernier diplôme obtenu)


Graphique : Niveau d'étude
39.6

40.0
22.9 20.8
30.0 16.7
20.0
10.0
0.0
BAC BTS/DEUG LICENCE MASTER

Source : Auteur à partir des données d’enquête.

1.1.2.3. Catégorie socio professionnelle


Graphique : Catégorie socio professionnelle

32
13%

Travailleur indépendant
29% Salarié
58% Sans emploi

Source : Auteur à partir des données d’enquête.


1.1.2.4. Rôle dans l’entreprise
Graphique : Rôle dans l’entreprise
27%

Chef de projet
Membre de l’équipe projet

73%

Source : Auteur à partir des données d’enquête.

1.2. ETUDE DE L’HOMOGENEITE DES ECHELLES


Pour l’étude de l’homogénéité des échelles, nous présenterons tout d’abord, la
démarche de Churchill (1979) dont nous nous sommes inspirés pour la mise en œuvre
de l’étude de la fiabilité des échelles de mesure. Le processus le plus classique pour la
validation des échelles de mesure reste celui préconisé par Churchill (1979). La démarche
est constituée de plusieurs étapes qui sont généralement regroupées selon deux phases
essentielles: la phase de conception et la phase de validation.
La première traite de la génération d’un ensemble d’items censés mesurer un
construit théorique, ainsi que de la purification de la liste retenue à partir d’une première
étude empirique. Cette démarche permet donc de retenir les meilleurs items. La seconde
phase de validation vise à vérifier par les mesures, en termes de fiabilité et de viabilité, les
données issues de la nouvelle liste d’items. Ainsi, des indicateurs statistiques peuvent être
proposés. La dimensionnalité, ou encore la validité des échelles de mesure, se réalise grâce
à l’analyse factorielle. La fiabilité, quant à elle, comme précisé dans le chapitre
méthodologique précédent, s’apprécie grâce au coefficient (α) de Cronbach. Nous
mobiliserons les deux outils simultanément pour l’étude des items utilisés pour mesurer les

33
différentes variables de notre modèle de recherche

1.2.1. La procédure de la validation des échelles de mesure


Pour présenter les résultats de la validation des échelles de mesures dans cette
recherche, la procédure suivie concerne l’étude de la dimensionnalité par analyses
factorielles, et l’étude de la fiabilité réalisée à partir de l’étude du coefficient alpha de
Cronbach (α). L’analyse en Composantes Principales (ACP) est une méthode destinée à
analyser les relations entre des données quantitatives. C’est la méthode la plus utilisée,
parmi les méthodes descriptives, pour l’épuration et la validation des échelles (Evrard et al.
2000, p.376 ; Igalens et Roussel, 1998, p.152).
Elle analyse uniquement les relations linéaires pouvant exister entre les variables.
L’ACP s’effectue sur des données centrées-réduites, les variables présentent alors la même
variabilité et ont la même influence dans le calcul de la distance entre les individus. Elle
révèle une structure factorielle à travers laquelle la (les) composante(s) identifiée(s)
est (sont) clairement reliée(s) à des items. Si la variable est unidimensionnelle, alors la
totalité des items se rapporte au même facteur (c'est-à-dire au même axe factoriel), et
l’échelle formant ces items ne mesure alors qu’une seule dimension de la variable étudiée.
Sinon, la structure factorielle est à deux facteurs ou plus, et la variable est donc considérée
comme bi ou multidimensionnelle.
Plusieurs critères théoriques ont été proposés pour choisir le nombre d’axes à retenir
et les items à supprimer.
Pour l’élimination des items, il existe des critères s’appuyant sur le degré de
contribution aux axes factoriels (Igalens et Roussel, 1998, p.155) :
 Il est prescrit de supprimer les items dont les contributions factorielles sont
supérieures à 0,30 sur plusieurs facteurs, ou n’ayant aucune contribution atteignant ce
score sur l’un des facteurs principaux retenus.
 Il est recommandé aussi d’éliminer les items n’ayant aucune contribution supérieure
ou égale à 0,50 sur les mêmes facteurs.
Pour le nombre d’axes à retenir, souvent, trois critères émergent :
 Le critère de Kaiser : on retient les axes dont les valeurs propres sont supérieures à 1,
 Le diagramme des valeurs propres : la présence d’un « coude » dans le diagramme
permet de déterminer le nombre d’axes à étudier.
 Le pourcentage de la variance expliquée : le nombre d’axes retenus doivent expliquer
un pourcentage de variance totale au moins égal à 50%.

34
Plus généralement, il est conseillé de retenir les axes que l’on sait interpréter (Leroux-
Scribe, 1995). Cette interprétation se fait à l’aide des contributions des individus et des
variables.
En ce qui concerne la suppression d’items dont la contribution factorielle est
inférieure à 0,30, nous avons effectué des rotations des axes orthogonaux de l’ACP initiale.
Le but étant d’ajuster la structure proposée en augmentant la valeur des coefficients de
corrélation de certains items avec les nouveaux axes de représentation. Plusieurs méthodes
de rotation sont proposées (de type orthogonal ou de type oblique). Nous avons retenu la
rotation VARIMAX. Elle se base sur la maximisation des coefficients de corrélation des
variables les plus corrélées c’est à dire la proportion de la variance expliquée par les
premières composantes principales.
Plus concrètement, dans cette analyse factorielle, un certain nombre de facteurs est
extrait (dont la valeur propre est supérieur à 1) pour représenter les inter-corrélations parmi
les variables observées. L'objectif d'une analyse factorielle est de réduire l'information
disponible à un nombre limité de variables en tournant les facteurs de façon à ce que les
items soient saturés sur le moins de facteurs possible.
En outre, pour le seuil d’acceptation du coefficient de Cronbach, comme précisé
dans le chapitre précédent, en vue du caractère exploratoire de la recherche, nous avons
retenu la valeur de 0,7 comme seuil minimum de signification. Notons, à cet effet, que ce
coefficient s’emploie généralement pour les échelles métriques, de proportion ou
d’intervalle. Cependant, certaines échelles de type Likert, comme c’est le cas dans cette
recherche, sont le plus souvent considérées comme des échelles métriques.
si l’α d’une échelle peut paraitre inférieur au seuil retenu, nous allons vérifié la contribution
de chaque item au score total de l’échelle. Ainsi, certains items peuvent être supprimés si leur
élimination contribue à l’amélioration de la cohérence d’ensemble de l’échelle
Pour l’Analyse de la validité et de la fiabilité des variables, Le test de Kaiser-Meyer-
Olkin (KMO) a été utilisé c’est un indice d’adéquation de la solution factorielle qui indique
dans quelle mesure les variables retenues représente un ensemble cohérent et qui permet de
constituer alors une mesure adéquate du concept. En règle générale, une valeur de KMO de
moins de 0,5 est inacceptable et d’après la référence de SPSS (Professional statistics)
notamment dans guide utilisateur on a le classement suivant : 0,5 est misérable, 0,6 est
médiocre, 0,7 est moyenne, 0,8 est méritoire, 0,9 est merveilleuse.
1.2.2. LES RESULTATS DE L’ANALYSE DES ECHELLES
Les résultats de l’analyse seront présentés selon les principales variables et au sein

35
des variables retenues on fera ressortir les dimensions retenues dans notre recherche.
1.2.2.1. VARIABLE EXPLICATIVE OU VARIABLE INDEPENDANTE « PRATIQUE
DE LA PLANIFICATION POST FINANCEMENT EN GESTION DES PROJETS»
il s’agit ici de vérifier la validité du coefficient alpha de cronbach  pour la variable
explicative ou variable indépendante « pratique de la planification post financement en
gestion des projets» qui est étudié à travers ces dimensions que sont : facteurs liés à l’équipe
projet , facteurs liés à la gestion de projet, facteurs liés à l’information , facteurs liés à la
planification en elle-même et enfin les canaux de transmission des startups.
1.2.2.1.1. La validité du coefficient alpha de cronbach pour la dimension 1 « Facteurs liés
à l’équipe projet »
La dimension1 « Facteurs liés à l’équipe projet » a été étudiée à travers 08 items. Sur
ces derniers nous avons opéré une analyse de la cohérence interne qui a montré un résultat
satisfaisant. Le coefficient alpha de cronbach  est d’une valeur de 0,756 >0,7, étant entendu
que 0,7 est considérée comme le seuil "acceptable".
Tableau : Résultat de l’alpha de Cronbach pour la dimension « Facteurs liés à l’équipe
projet »
Statistiques de fiabilité

Alpha de Cronbach Nombre d'éléments


0,756 08
Source : Auteur à partir des données d’enquête
1.2.2.1.2. La validité du coefficient alpha de cronbach pour la dimension 2« Facteurs liés
à la gestion de projet»
La dimension « Facteurs liés à la gestion de projet» a été étudiée à travers 11 items.
Sur ces derniers nous avons opéré une analyse de la cohérence interne qui a montré un
résultat satisfaisant. Le coefficient alpha de cronbach  est d’une valeur de 0,913 >0,7, étant
entendu que 0,7 est considérée comme le seuil "acceptable".
Tableau : résultat de l’alpha de cronbach pour la dimension « Facteurs liés à la gestion de
projet»
Statistiques de fiabilité

Alpha de Cronbach Nombre d'éléments


0,913 11
Source : Auteur à partir des données d’enquête.
1.2.2.1.3. la validité du coefficient alpha de cronbach pour la dimension 3 « Facteurs liés
à l’information »

36
La dimension « Facteurs liés à l’information» a été étudiées à travers 07 items. Sur
ces derniers nous avons opéré une analyse de la cohérence interne qui a montré un résultat
satisfaisant. le coefficient alpha de cronbach  est d’une valeur de 0,718 >0,7, étant entendu
que 0,7 est considérée comme le seuil "acceptable".
Tableau : résultat de l’alpha de cronbach pour la dimension « Facteurs liés à l’information».
Statistiques de fiabilité

Alpha de Cronbach Nombre d'éléments


0,718 07
Source : Auteur à partir des données d’enquête
1.2.2.1.4. La validité du coefficient alpha de cronbach pour la dimension 4 « Facteurs liés
à la planification en elle-même»
La dimension « Facteurs liés à la planification en elle-même» a été étudiée à travers
07 items. Sur ces derniers nous avons opéré une analyse de la cohérence interne qui a montré
un résultat satisfaisant. Le coefficient alpha de cronbach  est d’une valeur de 0,723 >0,7,
étant entendu que 0,7 est considérée comme le seuil "acceptable".
Tableau : résultat de l’alpha de cronbach pour la dimension « Facteurs liés à la planification
en elle-même»
Statistiques de fiabilité

Alpha de Cronbach Nombre d'éléments


0,723 07
Source : Auteur à partir des données d’enquête
1.2.2.1.5. La validité du coefficient alpha de cronbach pour la dimension 5 « les Canaux
de transmission des startups»
La dimension « les Canaux de transmission des startups» a été étudiée à travers 03
items. Sur ces derniers nous avons opéré une analyse de la cohérence interne qui a montré un
résultat satisfaisant. Le coefficient alpha de cronbach  est d’une valeur de 0,764 >0,7, étant
entendu que 0,7 est considérée comme le seuil "acceptable".
Tableau : résultat de l’alpha de cronbach pour la dimension « les Canaux de transmission des
startups»
Statistiques de fiabilité

Alpha de Cronbach Nombre d'éléments


0,764 03
Source : Auteur à partir des données d’enquête
1.2.2.5. Variable expliquée ou variable dépendante « le succès des startups
camerounaises »

37
La dimension « le succès des startups camerounaises » a été étudié à travers 09 items.
Sur ces derniers nous avons opéré une analyse de la cohérence interne qui a montré un
résultat satisfaisant. Le coefficient alpha de cronbach  est d’une valeur de 0,716 >0,7, étant
entendu que 0,7 est considérée comme le seuil "acceptable".
Tableau : résultat de l’alpha de cronbach pour la dimension « le succès des startups
camerounaises  » 
Statistiques de fiabilité

Alpha de Cronbach Nombre d'éléments


0,816 09
Source : Auteur à partir des données d’enquête.
1.2.2.6. ANALYSE FACTORIELLE
Étant donné que notre variable explicative ou indépendante et notre variable expliquée
ou dépendante sont constituées des dimensions qui sont clairement connues définies et
expliquées par les auteurs de la revue de la littérature des chapitres théorique précédent, il ne
nous reste plus qu’a analyser la validité et la fiabilité des indicateurs qui composent chacune
des dimensions.il est question ici dans un premier temps de faire une analyse de la validité et
de la fiabilité des variables à travers le test de Kaiser-Meyer-Olkin (KMO) et test de sphéricité
de Barlett et ensuite de procéder à l’analyse en composante principale de la variables
explicative et de la variable expliquée à travers les différentes dimensions retenues.
1.2.2.6.1. Analyse de la validité et de la fiabilité des variables
Le test de Kaiser-Meyer-Olkin (KMO) est un indice d’adéquation de la solution
factorielle qui indique dans quelle mesure les variables retenues représente un ensemble
cohérent et qui permet de constituer alors une mesure adéquate du concept. En règle générale,
Une valeur de KMO de moins de 0,5 est inacceptable et d’après la référence de SPSS
(Professional statistics) notamment dans guide utilisateur on a le classement suivant : 0,5 est
misérable, 0,6 est médiocre, 0,7 est moyenne, 0,8 est méritoire, 0,9 est merveilleuse.
1.2.2.6.1.1. VARIABLE EXPLICATIVE OU VARIABLE
INDEPENDANTE « PRATIQUE DE LA PLANIFICATION POST FINANCEMENT
EN GESTION DES PROJETS».
il est question ici de faire une analyse de la validité et de la fiabilité de la variable
explicative en faisant usage du test de Kaiser-Meyer-Olkin (KMO) et test de sphéricité de
Bartlett à travers les différentes dimensions retenues.
1.2.2.6.1.1.1. Le test de kaiser-Meyer-Olin (KMO) et test de sphéricité de Bartlett pour
la dimension 1« Facteurs liés à l’équipe projet »

38
Pour la dimension 1 « Facteurs liés à l’équipe projet », l’analyse de la validité et de la
fiabilité montre que le test KMO est satisfaisant en affichant une valeur de 0,784 >0,7, ce
qui est moyenne. Les résultats montrent aussi que le test de sphéricité de Bartlett est
significatif (khi-deux= 96,405; p=0,000). Comme dans cette dimension, notre test est
significatif (p= 0,000< 0,05), nous pouvons dire qu'il s'agit d'une matrice identité à l'intérieur
de laquelle toutes les corrélations sont égales à zéro, ce qui signifie que tous les indicateurs de
cette dimension sont parfaitement indépendantes les uns des autres.
Tableau : Résultat Le test de Kaiser-Meyer-Olkin (KMO) et Test de sphéricité de BARLETT
pour la dimension compétence « Facteurs liés à l’équipe projet ».
Indice KMO et test de Bartlett
Mesure de précision de l'échantillonnage de Kaiser-Meyer-Olkin. 0,784
Khi-deux approximé 96,405
Test de sphéricité de Bartlett ddl 28
Signification de Bartlett 0,000
Source : Auteur à partir des données d’enquête
1.2.2.6.1.1.1. Le test de kaiser-Meyer-Olin (KMO) et test de sphéricité de Bartlett pour
la dimension 2 « Facteurs liés à la gestion de projet»
Pour la dimension « Facteurs liés à la gestion de projet», l’analyse de la validité et de
la fiabilité montre que le test KMO est satisfaisant en affichant une valeur de 0,705>0,7 ; ce
qui est moyenne. Les résultats montrent aussi que le test de sphéricité de Bartlett est
significatif (Khi-deux= 141,296; P=0,000). Comme dans cette dimension, notre test est
significatif (p= 0,000< 0,05), Nous pouvons dire qu'il s'agit d'une matrice identité à l'intérieur
de laquelle toutes les corrélations sont égales à zéro, ce qui signifie que tous les indicateurs de
cette dimension sont parfaitement indépendantes les uns des autres.
Tableau : Résultat de Le test de Kaiser-Meyer-Olin(KMO) et Test de sphéricité de BARLETT
pour la dimension « Facteurs liés à la gestion de projet». 
Indice KMO et test de Bartlett
Mesure de précision de l'échantillonnage de Kaiser-Meyer-Olkin. 0,705
Khi-deux approximé 141,296
Test de sphéricité de Bartlett ddl 55
Signification de Bartlett 0,000
Source : Auteur à partir des données d’enquête.
1.2.2.6.1.1.1. Le test de kaiser-Meyer-Olin (KMO) et test de sphéricité de Bartlett pour
la dimension 3 « Facteurs liés à l’information »

39
Pour la dimension « Facteurs liés à l’information », l’analyse de la validité et de la
fiabilité montre que le test KMO est satisfaisant en affichant une valeur de 0,701>0,7 ; ce
qui est moyenne. Les résultats montrent aussi que le test de sphéricité de Bartlett est
significatif (Khi-deux= 53,079; P=0,000). Comme dans cette dimension, notre test est
significatif (p= 0,000< 0,05), Nous pouvons dire qu'il s'agit d'une matrice identité à l'intérieur
de laquelle toutes les corrélations sont égales à zéro, ce qui signifie que tous les indicateurs de
cette dimension sont parfaitement indépendantes les uns des autres.
Tableau : Résultat Le test de Kaiser-Meyer-Olkin (KMO) et Test de sphéricité de BARLETT
pour la dimension « Facteurs liés à l’information ».
Indice KMO et test de Bartlett
Mesure de précision de l'échantillonnage de Kaiser-Meyer-Olkin. 0,701
Khi-deux approximé 53,079
Test de sphéricité de Bartlett ddl 21
Signification de Bartlett 0,000
Source : Auteur à partir des données d’enquête.
1.2.2.6.1.1.1. Le test de kaiser-Meyer-Olin (KMO) et test de sphéricité de Bartlett pour
la dimension 4 « Facteurs liés à la planification en elle-même»
Pour la dimension « Facteurs liés à la planification en elle-même», l’analyse de la
validité et de la fiabilité montre que le test KMO est satisfaisant en affichant une valeur de
0,750>0,7, ce qui est moyenne. Les résultats montrent aussi que le test de sphéricité de
Bartlett est significatif (Khi-deux= 54,585; P=0,000). Comme dans cette dimension, notre test
est significatif (P= 0,000< 0,05), Nous pouvons dire qu'il s'agit d'une matrice identité à
l'intérieur de laquelle toutes les corrélations sont égales à zéro, ce qui signifie que tous les
indicateurs de cette dimension sont parfaitement indépendantes les uns des autres.
Tableau : Résultat Le test de Kaiser-Meyer-Olkin (KMO) et Test de sphéricité de BARLETT
pour la dimension « Facteurs liés à la planification en elle-même».
Indice KMO et test de Bartlett
Mesure de précision de l'échantillonnage de Kaiser-Meyer-Olkin. 0,750
Khi-deux approximé 54,585
Test de sphéricité de Bartlett ddl 21
Signification de Bartlett 0,000
Source : Auteur à partir des données d’enquête.
1.2.2.6.1.1.1. Le test de kaiser-Meyer-Olin (KMO) et test de sphéricité de Bartlett pour
la dimension 5 « les Canaux de transmission des startups»

40
Pour la dimension « les Canaux de transmission des startups», l’analyse de la validité
et de la fiabilité montre que le test KMO est satisfaisant en affichant une valeur de
0,523>0,5 ; ce qui est misérable. Les résultats montrent aussi que le test de sphéricité de
Bartlett est significatif (Khi-deux= 20,572; P=0,000). Comme dans cette dimension, notre test
est significatif (P= 0,000< 0,05), Nous pouvons dire qu'il s'agit d'une matrice identité à
l'intérieur de laquelle toutes les corrélations sont égales à zéro, ce qui signifie que tous les
indicateurs de cette dimension sont parfaitement indépendantes les uns des autres.
Tableau : Résultat Le test de Kaiser-Meyer-Olkin (KMO) et Test de sphéricité de BARLETT
pour la dimension « les Canaux de transmission des startups».
Indice KMO et test de Bartlett
Mesure de précision de l'échantillonnage de Kaiser-Meyer-Olkin. 0,523
Khi-deux approximé 20,572
Test de sphéricité de Bartlett ddl 3
Signification de Bartlett 0,000
Source : Auteur à partir des données d’enquête.

1.2.2.6.1.4. VARIABLE EXPLIQUEE OU VARIABLE DEPENDANTE « LE SUCCES


DES STARTUPS CAMEROUNAISES»
Pour la dimension « le succès des startups camerounaises », l’analyse de la validité et
de la fiabilité montre que le test KMO est satisfaisant en affichant une valeur de 0,814>0,8 ;
ce qui est méritoire. Les résultats montrent aussi que le test de sphéricité de Bartlett est
significatif (Khi-deux= 164,521; P=0,000). Comme dans cette dimension, notre test est
significatif (P= 0,000< 0,05), Nous pouvons dire qu'il s'agit d'une matrice identité à l'intérieur
de laquelle toutes les corrélations sont égales à zéro, ce qui signifie que tous les indicateurs de
cette dimension sont parfaitement indépendantes les uns des autres.
Tableau : Résultat de Le test de Kaiser-Meyer-Olkin (KMO) et Test de sphéricité de
BARLETT pour la dimension « le succès des startups camerounaises ».
Indice KMO et test de Bartlett
Mesure de précision de l'échantillonnage de Kaiser-Meyer-Olkin. 0,814
Khi-deux approximé 164,521
Test de sphéricité de Bartlett ddl 36
Signification de Bartlett 0,000
Source : Auteur à partir des données d’enquête.

41
1.2.2.7. ANALYSE EN COMPOSANTE PRINCIPALE
Il est question ici dans un premier temps de procéder à l’analyse en composante
principale de la variable explicative et de la variable expliquée a travers les différentes
dimensions retenues.
1.2.2.7.1. VARIABLE EXPLICATIVE OU VARIABLE
INDEPENDANTE « PRATIQUE DE LA PLANIFICATION POST FINANCEMENT
EN GESTION DES PROJETS »
il s’agit ici de procéder à l’analyse en composante principale pour la variable
explicative ou indépendante « pratique de la planification post financement en gestion des
projets»
1.2.2.7.1.1. Dimension 1 « Facteurs liés à l’équipe projet »
Il est question ici de ressortir, d’expliquer et d’interpréter la matrice des composantes
initiale, matrice des composantes après rotation, variance totale expliquée, et enfin la
contribution individuelle des composantes à la variance totale expliquée pour la dimension
« Facteurs liés à l’équipe projet ».
1.2.2.7.2.1.1. Matrice des composantes initiale
La dimension « facteurs liés à l’équipe projet » a été étudiée à travers 05 items, nous
avons retenu ensuite la totalité des items pour continuer l’analyse factorielle. celle-ci n’a
pas donné une structure factorielle claire. En effet, certains items avaient des
contributions supérieures à 0,30 sur des axes différentes. Par exemple : améliore la
qualité des décisions prises par l’équipe de projet sur les axes 1 et 2. Permet à l’équipe de
projet d’améliorer son efficacité, Renforce la confiance de l’équipe de projet dans la
réalisation de ses tâches de sur les axes 1 et 3.
D’autres items n’avaient aucune contribution supérieure ou égale à 0,50 sur les
mêmes facteurs par exemple : Permet à l’équipe de projet d’accomplir ses tâches plus
rapidement, Permet à l’équipe de projet d’améliorer sa performance Donne une maîtrise
accrue du travail de l’équipe de projet sur l’axe 3. Améliore la coordination entre les
membres de l’équipe de gestion de projet sur l’axe 2.
Tableau : matrice des composantes initiales pour la dimension « Facteurs liés à l’équipe
projet ».
Matrice des composantesa
Composante
  1 2 3

42
Permet à l’équipe de projet d’accomplir ses tâches plus
rapidement ,296 ,602 -,624
Permet à l’équipe de projet d’améliorer sa performance ,799 ,000 -,535
Permet à l’équipe de projet d’améliorer son efficacité ,713 ,240 ,482
Donne une maîtrise accrue du travail de l’équipe de projet ,496 -,464 ,251
Donne une maîtrise accrue du travail de l’équipe de projet ,818 -,480 -,027
Améliore la qualité des décisions prises par l’équipe de
projet ,822 ,356 ,121
Renforce la confiance de l’équipe de projet dans la
,290 ,749 ,407
réalisation de ses tâches de
Améliore la coordination entre les membres de l’équipe de
,863 -,273 -,059
gestion de projet
Méthode d'extraction : Analyse en composantes principales.
a. 3 composantes extraites.

Source : Auteur à partir des données d’enquête.


1.2.2.7.2.1.2. Matrice des composantes après rotation
De ce fait nous avons établi la rotation des axes qui a permis de clarifier le sens de la
structure fournie. En effet, La rotation des facteurs consiste à faire pivoter virtuellement les
axes des facteurs autour du point d’origine dans le but de redistribuer plus équitablement la
variance à expliquer. La solution factorielle alors obtenue est plus simple à interpréter et est
théoriquement plus pertinente que la solution sans rotation en ce sens qu’elle facilite par la
même occasion non seulement la suppression d’items dont la contribution factorielle est
inférieure à 0,30 mais également d’éliminer les items n’ayant aucune contribution supérieure
ou égale à 0,50 sur les mêmes facteurs .
La rotation peut être orthogonale lorsque les facteurs sont pressentis comme étant des
dimensions indépendantes les unes des autres ou encore oblique lorsque les facteurs peuvent
être corrélés entre eux. Dans la pratique, on utilise très régulièrement la méthode de rotation
orthogonale VARIMAX. Cette méthode est privilégiée, entre autres, lorsque l’on désire
réduire le nombre de variables d’une matrice de données en un plus petit nombre de facteurs
non corrélés entre eux et utilisés, par exemple, dans le cadre d’une régression multiple.
Tableau : matrice des composantes après rotation pour la dimension « Facteurs liés à l’équipe
projet  ».
Matrice des composantes après rotationa
Composante
  1 2 3

43
Permet à l’équipe de projet d’accomplir ses tâches plus
rapidement -,124 ,171 ,892
Permet à l’équipe de projet d’améliorer sa performance ,638 ,063 ,716
Permet à l’équipe de projet d’améliorer son efficacité ,441 ,777 -,026
Donne une maîtrise accrue du travail de l’équipe de projet ,677 ,074 -,245
Donne une maîtrise accrue du travail de l’équipe de projet ,943 ,053 ,087
Améliore la qualité des décisions prises par l’équipe de projet ,456 ,693 ,359
Renforce la confiance de l’équipe de projet dans la réalisation
-,202 ,869 ,123
de ses tâches de
Améliore la coordination entre les membres de l’équipe de
,857 ,192 ,226
gestion de projet
Méthode d'extraction : Analyse en composantes principales.
Méthode de rotation : Varimax avec normalisation de Kaiser.
a. La rotation a convergé en 4 itérations.
Source : Auteur à partir des données d’enquête
1.2.2.7.2.1.3. Variance totale expliquée
Les trois premiers axes expliquent 80,468% de la variance totale. Le premier s’articule
autour de la thématique « Permet à l’équipe de projet d’accomplir ses tâches plus
rapidement.». Le second renvoie à la thématique « Permet à l’équipe de projet d’améliorer
sa performance» et le troisième a x e renvoie à la thématique « Permet à l’équipe de projet
d’améliorer son efficacité»..
Tableau : Variance totale expliquée pour la dimension « Facteurs liés à l’équipe projet ».
Variance totale expliquée
Somme des carrés des facteurs retenus
Valeurs propres initiales pour la rotation
Composant % de la % % de la
e Total variance cumulés Total variance % cumulés
1 3,653 45,657 45,657 2,950 36,874 36,874
2 1,630 20,370 66,027 1,916 23,946 60,820
3 1,155 14,441 80,468 1,572 19,648 80,468
4 ,755 9,441 89,909      
5 ,434 5,423 95,332      
6 ,252 3,155 98,487      
7 ,098 1,221 99,709      
8 ,023 ,291 100,000      
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.4. Graphique des valeurs propres ou digramme de coute Cattell
À partir du moment où la courbe devient presque une ligne droite horizontale (partie
encerclé de couleur bleue sur le graphique), il apparaît que les facteurs subséquents apportent
peu de nouvelles informations et ici on retrouve effectivement les deux premiers axes

44
expliquent qui 80,468% de la variance totale obtenue ci-dessus.
Graphique : digramme de coute Cattell pour la dimension « Facteurs liés à l’équipe projet »

Source : Auteur à partir des données d’enquête.


1.2.2.7.2.1.5. Contribution individuelle des composantes à la Variance totale expliquée
Les deux premiers axes regroupent 80,468% de la variance totale, le premier axe
contribue à 36,874%, le deuxième axe contribue à 23,946%, le troisième axe contribue à
19,648% pour des Valeurs propres des facteurs ou axe retenus pour la rotation de 2,950; 1,916
et de 1,572; respectivement.
Tableau : Contribution individuelle des composantes à la Variance totale expliquée.
Variance totale expliquée
Somme des carrés des facteurs retenus
Valeurs propres initiales pour la rotation
Composant % de la % % de la
e Total variance cumulés Total variance % cumulés
1 3,653 45,657 45,657 2,950 36,874 36,874
2 1,630 20,370 66,027 1,916 23,946 60,820
3 1,155 14,441 80,468 1,572 19,648 80,468
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1. Dimension 2 « Facteurs liés à la gestion de projet»
Il est question ici de ressortir, d’expliquer et d’interpréter la matrice des composantes
initiale, matrice des composantes après rotation, variance totale expliquée, et enfin la
contribution individuelle des composantes à la variance totale expliquée pour la dimension
« Facteurs liés à la gestion de projet».
1.2.2.7.2.1.1. Matrice des composantes initiale
La dimension « Facteurs liés à la gestion de projet» a été étudiée à travers 05 items,
Nous avons retenu ensuite la totalité des items pour continuer l’analyse factorielle. Celle-

45
ci n’a pas donné une structure factorielle claire. En effet, certains items avaient des
contributions supérieures à 0,30 sur des axes différentes. . (Voir les cases grisées dans le
tableau de la matrice des composantes initiales ci-dessous)
D’autres items n’avaient aucune contribution supérieure ou égale à 0,50 sur les
mêmes facteurs par exemple. (Voir les cases grisées dans le tableau de la matrice des
composantes initiales ce dessous).
Tableau : matrice des composantes initiales pour la dimension « Facteurs liés à la gestion de
projet».
Matrice des composantesa
Composante
  1 2
Améliore l’estimation des coûts ,678 -,082
Améliore l’identification des risques ,819 -,222
Améliore le contrôle des risques ,648 ,534
Améliore le suivi et le contrôle du projet ,850 -,254
Améliore les rapports d’avancement du projet ,667 ,106
Améliore la gestion de la durée ,755 -,280
Offre une meilleure gestion des ressources ,902 -,099
Supporte les tâches quotidiennes de la gestion de projet ,880 ,061
Correspond à vos exigences pour la gestion de projet ,729 -,277
Offre toutes les fonctionnalités nécessaires à la gestion de projet ,538 ,761
Réponds à vos attentes pour le projet ,886 ,086
Méthode d'extraction : Analyse en composantes principales.
a. 2 composantes extraites.
Source : Auteur à partir des données d’enquête.

1.2.2.7.2.1.2. Matrice des composantes après rotation


De ce fait nous avons établi la rotation des axes qui a permis de clarifier le sens de la
structure fournie. En effet, La rotation des facteurs consiste à faire pivoter virtuellement les
axes des facteurs autour du point d’origine dans le but de redistribuer plus équitablement la
variance à expliquer. La solution factorielle alors obtenue est plus simple à interpréter et est
théoriquement plus pertinente que la solution sans rotation en ce sens qu’elle facilite par la
même occasion non seulement la suppression d’items dont la contribution factorielle est
inférieure à 0,30 mais également d’éliminer les items n’ayant aucune contribution supérieure
ou égale à 0,50 sur les mêmes facteurs .
La rotation peut être orthogonale lorsque les facteurs sont pressentis comme étant des
dimensions indépendantes les unes des autres ou encore oblique lorsque les facteurs peuvent

46
être corrélés entre eux. Dans la pratique, on utilise très régulièrement la méthode de rotation
orthogonale VARIMAX. Cette méthode est privilégiée, entre autres, lorsque l’on désire
réduire le nombre de variables d’une matrice de données en un plus petit nombre de facteurs
non corrélés entre eux et utilisés, par exemple, dans le cadre d’une régression multiple.
Tableau : matrice des composantes après rotation pour la dimension « Facteurs liés à la
gestion de projet »
Matrice des composantes après rotationa
Composante
  1 2
Améliore l’estimation des coûts ,630 ,263
Améliore l’identification des risques ,822 ,211
Améliore le contrôle des risques ,300 ,784
Améliore le suivi et le contrôle du projet ,864 ,199
Améliore les rapports d’avancement du projet ,528 ,421
Améliore la gestion de la durée ,795 ,129
Offre une meilleure gestion des ressources ,833 ,359
Supporte les tâches quotidiennes de la gestion de projet ,735 ,487
Correspond à vos exigences pour la gestion de projet ,771 ,119
Offre toutes les fonctionnalités nécessaires à la gestion de projet ,093 ,927
Réponds à vos attentes pour le projet ,728 ,512
Méthode d'extraction : Analyse en composantes principales.
Méthode de rotation : Varimax avec normalisation de Kaiser.
a. La rotation a convergé en 3 itérations.
Source : Auteur à partir des données d’enquête
1.2.2.7.2.1.3. Variance totale expliquée
Les deux premiers axes expliquent 69,581% de la variance totale. Le premier
s’articule autour de la thématique « Améliore l’estimation des coûts.». Le second renvoie à
la thématique «   Améliore l’identification des risques».
Tableau : Variance totale expliquée pour la dimension « Facteurs liés à la gestion de projet»
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 6,482 58,931 58,931 5,188 47,165 47,165
2 1,172 10,650 69,581 2,466 22,416 69,581
3 ,748 6,804 76,385      
4 ,680 6,180 82,565      
5 ,528 4,798 87,363      
6 ,510 4,640 92,003      
7 ,340 3,095 95,098      

47
8 ,209 1,902 97,000      
9 ,163 1,483 98,484      
10 ,129 1,176 99,659      
11 ,037 ,341 100,000      
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.4. Graphique des valeurs propres ou digramme de coute Cattell
à partir du moment où la courbe devient presque une ligne droite horizontale (partie
encerclé de couleur bleue sur le graphique), il apparaît que les facteurs subséquents apportent
peu de nouvelles informations et ici on retrouve effectivement les deux premiers axes
expliquent qui 69,581% de la variance totale obtenue ci-dessus.
Graphique : digramme de coute Cattell pour la dimension « Facteurs liés à la gestion de
projet».

Source : Auteur à partir des données d’enquête.


1.2.2.7.2.1.5. Contribution individuelle des composantes à la Variance totale expliquée
Les deux premiers axes regroupent 69,581% de la variance totale, le premier axe
contribue à 47,165%, le deuxième axe contribue à 22,416%, pour des Valeurs propres des
facteurs ou axe retenus pour la rotation de 5,188et de 2,466 respectivement.
Tableau : Contribution individuelle des composantes à la Variance totale expliquée.
Variance totale expliquée
Somme des carrés des facteurs retenus
Valeurs propres initiales pour la rotation
Composant % de la % % de la
e Total variance cumulés Total variance % cumulés
1 6,482 58,931 58,931 5,188 47,165 47,165
2 1,172 10,650 69,581 2,466 22,416 69,581

48
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.2. Dimension 3 « Facteurs liés à l’information ».
Il est question ici de ressortir, d’expliquer et d’interpréter la matrice des composantes
initiale, matrice des composantes après rotation, variance totale expliquée, graphique des
valeurs propres ou digramme de coute Cattell et enfin la contribution individuelle des
composantes à la variance totale expliquée pour la dimension « Facteurs liés à l’information »
1.2.2.7.2.1.1. Matrice des composantes initiale
La dimension 3 « Facteurs liés à l’information» a été étudiée à travers 05 items,
Nous avons retenu ensuite la totalité des items pour continuer l’analyse factorielle. Celle-
ci n’a pas donné une structure factorielle claire. En effet, certains items avaient des
contributions supérieures à 0,30 sur des axes différentes. . (Voir les cases grisées dans le
tableau de la matrice des composantes initiales ci-dessous)
D’autres items n’avaient aucune contribution supérieure ou égale à 0,50 sur les
mêmes facteurs par exemple. (Voir les cases grisées dans le tableau de la matrice des
composantes initiales ce dessous).
Tableau : matrice des composantes initiales pour la dimension « Facteurs liés à
l’information ».
Matrice des composantesa
Composante
  1 2
une information de haute qualité ,706 ,495
une information très fiable ,716 ,160
un niveau de détails approprié correspondant aux besoins de la
,680 -,198
gestion de projet
une information correspondant aux besoins de la gestion de projet ,838 -,164
une information toujours actualisée ,577 -,559
une information exempte d’erreurs ,767 ,317
une information pertinente pour la gestion de projet -,151 ,742
Méthode d'extraction : Analyse en composantes principales.
a. 2 composantes extraites.
Source : Auteur à partir des données d’enquête.

1.2.2.7.2.1.2. Matrice des composantes après rotation


De ce fait nous avons établi la rotation des axes qui a permis de clarifier le sens de la
structure fournie. En effet, La rotation des facteurs consiste à faire pivoter virtuellement les
axes des facteurs autour du point d’origine dans le but de redistribuer plus équitablement la

49
variance à expliquer. La solution factorielle alors obtenue est plus simple à interpréter et est
théoriquement plus pertinente que la solution sans rotation en ce sens qu’elle facilite par la
même occasion non seulement la suppression d’items dont la contribution factorielle est
inférieure à 0,30 mais également d’éliminer les items n’ayant aucune contribution supérieure
ou égale à 0,50 sur les mêmes facteurs .
La rotation peut être orthogonale lorsque les facteurs sont pressentis comme étant des
dimensions indépendantes les unes des autres ou encore oblique lorsque les facteurs peuvent
être corrélés entre eux. Dans la pratique, on utilise très régulièrement la méthode de rotation
orthogonale VARIMAX. Cette méthode est privilégiée, entre autres, lorsque l’on désire
réduire le nombre de variables d’une matrice de données en un plus petit nombre de facteurs
non corrélés entre eux et utilisés, par exemple, dans le cadre d’une régression multiple.
Tableau : matrice des composantes après rotation pour la dimension « Facteurs liés à
l’information  »
Matrice des composantes après rotationa
Composante
  1 2
une information de haute qualité ,851 -,133
une information très fiable ,713 ,172
un niveau de détails approprié correspondant aux besoins de la
gestion de projet ,524 ,477
une information correspondant aux besoins de la gestion de
,680 ,517
projet
une information toujours actualisée ,271 ,756
une information exempte d’erreurs ,828 ,053
une information pertinente pour la gestion de projet ,192 -,733
Méthode d'extraction : Analyse en composantes principales.
Méthode de rotation : Varimax avec normalisation de Kaiser.
a. La rotation a convergé en 3 itérations.
Source : Auteur à partir des données d’enquête
1.2.2.7.2.1.3. Variance totale expliquée
Les deux premiers axes expliquent 63,149% de la variance totale. Le premier
s’articule autour de la thématique « une information de haute qualité». Le second renvoie à
la thématique «   une information très fiable».
Tableau : Variance totale expliquée pour la dimension « Facteurs liés à l’information »
Variance totale expliquée
Somme des carrés des facteurs retenus
Valeurs propres initiales pour la rotation
Composant % de la % % de la
e Total variance cumulés Total variance % cumulés
1 3,120 44,566 44,566 2,767 39,524 39,524
50
2 1,301 18,583 63,149 1,654 23,625 63,149
3 ,812 11,601 74,749      
4 ,630 8,997 83,746      
5 ,599 8,552 92,298      
6 ,313 4,471 96,769      
7 ,226 3,231 100,000      
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.4. Graphique des valeurs propres ou digramme de coute Cattell
à partir du moment où la courbe devient presque une ligne droite horizontale (partie
encerclé de couleur bleue sur le graphique), il apparaît que les facteurs subséquents apportent
peu de nouvelles informations et ici on retrouve effectivement les deux premiers axes
expliquent qui 63,149 % de la variance totale obtenue ci-dessus.
Graphique : digramme de coute Cattell pour la dimension « Facteurs liés à l’information »

Source : Auteur à partir des données d’enquête.


1.2.2.7.2.1.5. Contribution individuelle des composantes à la Variance totale expliquée
Les deux premiers axes regroupent 63,149% de la variance totale, le premier axe
contribue à 39,524%, le deuxième axe contribue à 23,625%, pour des Valeurs propres des
facteurs ou axe retenus pour la rotation de 2,767et de 1,654respectivement.
Tableau : Contribution individuelle des composantes à la Variance totale expliquée.

Variance totale expliquée

51
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 3,120 44,566 44,566 2,767 39,524 39,524
2 1,301 18,583 63,149 1,654 23,625 63,149
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.

1.2.2.7.2.3. Dimension 4 « Facteurs liés à la planification en elle-même».


il est question ici de ressortir, d’expliquer et d’interpréter la matrice des composantes
initiale, matrice des composantes après rotation, variance totale expliquée, graphique des
valeurs propres ou digramme de coute Cattell et enfin la contribution individuelle des
composantes à la variance totale expliquée pour la dimension « Facteurs liés à la planification
en elle-même».
1.2.2.7.2.1.1. Matrice des composantes initiale
La dimension 4 « Facteurs liés à la planification en elle-même» a été étudiée à
travers 05 items, Nous avons retenu ensuite la totalité des items pour continuer l’analyse
factorielle. Celle-ci n’a pas donné une structure factorielle claire. En effet, certains items
avaient des contributions supérieures à 0,30 sur des axes différentes. . (Voir les cases
grisées dans le tableau de la matrice des composantes initiales ci-dessous)
D’autres items n’avaient aucune contribution supérieure ou égale à 0,50 sur les
mêmes facteurs par exemple. (Voir les cases grisées dans le tableau de la matrice des
composantes initiales ce dessous).
Tableau : matrice des composantes initiales pour la dimension « Facteurs liés à la
planification en elle-même».
Matrice des composantesa
Composante
  1 2
une meilleure structuration du projet ,805 -,223
maitriser les délais d’exécution des projets ,831 ,271
minimiser les couts ,668 -,264
estimer les couts ,733 ,143
piloter la réalisation du projet ,655 -,355
rendre compte de l’avancement ,173 ,906
maitriser les outils/logiciels de la planification ,591 ,173
Méthode d'extraction : Analyse en composantes principales.
a. 2 composantes extraites.
Source : Auteur à partir des données d’enquête.
52
1.2.2.7.2.1.2. Matrice des composantes après rotation
De ce fait nous avons établi la rotation des axes qui a permis de clarifier le sens de la
structure fournie. En effet, La rotation des facteurs consiste à faire pivoter virtuellement les
axes des facteurs autour du point d’origine dans le but de redistribuer plus équitablement la
variance à expliquer. La solution factorielle alors obtenue est plus simple à interpréter et est
théoriquement plus pertinente que la solution sans rotation en ce sens qu’elle facilite par la
même occasion non seulement la suppression d’items dont la contribution factorielle est
inférieure à 0,30 mais également d’éliminer les items n’ayant aucune contribution supérieure
ou égale à 0,50 sur les mêmes facteurs .
La rotation peut être orthogonale lorsque les facteurs sont pressentis comme étant des
dimensions indépendantes les unes des autres ou encore oblique lorsque les facteurs peuvent
être corrélés entre eux. Dans la pratique, on utilise très régulièrement la méthode de rotation
orthogonale VARIMAX. Cette méthode est privilégiée, entre autres, lorsque l’on désire
réduire le nombre de variables d’une matrice de données en un plus petit nombre de facteurs
non corrélés entre eux et utilisés, par exemple, dans le cadre d’une régression multiple.
Tableau : matrice des composantes après rotation pour la dimension « Facteurs liés à la
planification en elle-même».
Matrice des composantes après rotationa
Composante
  1 2
une meilleure structuration du projet ,835 ,031
maitriser les délais d’exécution des projets ,710 ,509
minimiser les couts ,716 -,050
estimer les couts ,656 ,357
piloter la réalisation du projet ,732 -,140
rendre compte de l’avancement -,109 ,915
maitriser les outils/logiciels de la planification ,511 ,344
Méthode d'extraction : Analyse en composantes principales.
Méthode de rotation : Varimax avec normalisation de Kaiser.
a. La rotation a convergé en 3 itérations.
Source : Auteur à partir des données d’enquête
1.2.2.7.2.1.3. Variance totale expliquée.
Les deux premiers axes expliquent 61,695% de la variance totale. Le premier
s’articule autour de la thématique « une meilleure structuration du projet.». Le second
renvoie à la thématique «   maitriser les délais d’exécution des projets».
Tableau : Variance totale expliquée pour la dimension « Facteurs liés à la planification en
elle-même».

53
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 3,130 44,711 44,711 2,953 42,184 42,184
2 1,189 16,984 61,695 1,366 19,511 61,695
3 ,965 13,787 75,482      
4 ,639 9,130 84,612      
5 ,414 5,908 90,520      
6 ,390 5,577 96,096      
7 ,273 3,904 100,000      
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.4. Graphique des valeurs propres ou digramme de coute Cattell
à partir du moment où la courbe devient presque une ligne droite horizontale (partie
encerclé de couleur bleue sur le graphique), il apparaît que les facteurs subséquents apportent
peu de nouvelles informations et ici on retrouve effectivement les deux premiers axes
expliquent qui 61,695% de la variance totale obtenue ci-dessus.
Graphique : digramme de coute Cattell pour la dimension « Facteurs liés à la planification en
elle-même»

Source : Auteur à partir des données d’enquête.


1.2.2.7.2.1.5. Contribution individuelle des composantes à la Variance totale expliquée
Les deux premiers axes regroupent 61,695% de la variance totale, le premier axe
contribue à 42,184%, le deuxième axe contribue à 19,511%, pour des Valeurs propres des
facteurs ou axe retenus pour la rotation de 2,953et de 1,366respectivement.

54
Tableau : Contribution individuelle des composantes à la Variance totale expliquée.
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 3,130 44,711 44,711 2,953 42,184 42,184
2 1,189 16,984 61,695 1,366 19,511 61,695
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.

1.2.2.7.2.1. Dimension 5 « les Canaux de transmission des startups»


Il est question ici de ressortir, d’expliquer et d’interpréter la matrice des composantes
initiale, matrice des composantes après rotation, variance totale expliquée, et enfin la
contribution individuelle des composantes à la variance totale expliquée pour la dimension
« les Canaux de transmission des startups».
1.2.2.7.2.1.1. Matrice des composantes initiale
La dimension 5 « les Canaux de transmission des startups» a été étudiée à travers
05 items, Nous avons retenu ensuite la totalité des items pour continuer l’analyse
factorielle. Celle-ci n’a pas donné une structure factorielle claire. En effet, certains items
avaient des contributions supérieures à 0,30 sur des axes différentes. . (Voir les cases
grisées dans le tableau de la matrice des composantes initiales ci-dessous)
D’autres items n’avaient aucune contribution supérieure ou égale à 0,50 sur les
mêmes facteurs par exemple. (Voir les cases grisées dans le tableau de la matrice des
composantes initiales ce dessous).
Tableau : matrice des composantes initiales pour la dimension « les Canaux de
transmission des startups».
Matrice des composantesa
Composante
  1 2
le temps consacré à la planification ,866 -,282
les moyens ou ressources allouées à la planification ,893 ,153
le dégré de considération accordé à la planification par les
,410 ,976
startuppeurs
Méthode d'extraction : Analyse en composantes principales.
a. 2 composantes extraites.
Source : Auteur à partir des données d’enquête.

55
1.2.2.7.2.1.2. Matrice des composantes après rotation
Tableau : matrice des composantes après rotation pour la dimension « les Canaux de
transmission des startups »
Matrice des composantes après rotationa
Composante
  1 2
le temps consacré à la planification ,889 -,196
les moyens ou ressources allouées à la planification ,873 ,240
le dégré de considération accordé à la planification par les
,014 ,982
startuppeurs
Méthode d'extraction : Analyse en composantes principales.
Méthode de rotation : Varimax avec normalisation de Kaiser.
a. La rotation a convergé en 3 itérations.
Source : Auteur à partir des données d’enquête
1.2.2.7.2.1.3. Variance totale expliquée
Les deux premiers axes expliquent 87,160% de la variance totale. Le premier
s’articule autour de la thématique « le temps consacré à la planification». Le second renvoie
à la thématique «   les moyens ou ressources allouées à la planification».
Tableau : Variance totale expliquée pour la dimension « les Canaux de transmission des
startups».
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 1,558 51,948 51,948 1,554 51,788 51,788
2 1,056 35,211 87,160 1,061 35,372 87,160
3 ,385 12,840 100,000      
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.4. Graphique des valeurs propres ou digramme de coute Cattell
à partir du moment où la courbe devient presque une ligne droite horizontale (partie
encerclé de couleur bleue sur le graphique), il apparaît que les facteurs subséquents apportent
peu de nouvelles informations et ici on retrouve effectivement les deux premiers axes
expliquent qui 87,160 % de la variance totale obtenue ci-dessus.
Graphique : digramme de coute Cattell pour la dimension « les Canaux de transmission des
startups»

56
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.5. Contribution individuelle des composantes à la Variance totale expliquée
Les deux premiers axes regroupent 87,160% de la variance totale, le premier axe
contribue à 51,788%, le deuxième axe contribue à 35,372%, pour des Valeurs propres des
facteurs ou axe retenus pour la rotation de 1,554 et de 1,061; respectivement.
Tableau : Contribution individuelle des composantes à la Variance totale expliquée.
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 1,558 51,948 51,948 1,554 51,788 51,788
2 1,056 35,211 87,160 1,061 35,372 87,160
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.

1.2.2.8. VARIABLE EXPLIQUEE OU VARIABLE DEPENDANTE « LE SUCCES DES


STARTUPS CAMEROUNAISES»
Il est question ici de ressortir, d’expliquer et d’interpréter la matrice des composantes
initiale, matrice des composantes après rotation, variance totale expliquée, et enfin la
contribution individuelle des composantes à la variance totale expliquée pour la dimension
« les Canaux de transmission des startups».
1.2.2.7.2.1.1. Matrice des composantes initiale
La dimension « le succès des startups camerounaises» a été étudiée à travers 05
items, Nous avons retenu ensuite la totalité des items pour continuer l’analyse factorielle.
Celle-ci n’a pas donné une structure factorielle claire. En effet, certains items avaient des
contributions supérieures à 0,30 sur des axes différentes. . (Voir les cases grisées dans le

57
tableau de la matrice des composantes initiales ci-dessous)
D’autres items n’avaient aucune contribution supérieure ou égale à 0,50 sur les
mêmes facteurs par exemple. (Voir les cases grisées dans le tableau de la matrice des
composantes initiales ce dessous).
Tableau : matrice des composantes initiales pour la dimension « le succès des startups
camerounaises».
Matrice des composantesa
Composante
  1 2
Croissance très rapide ,433 ,460
La capacité à accéder aux fonds ,407 ,585
Equipe appropriée ,862 -,257
Capacité à innover ,857 ,014
Accès aux financements extérieurs ,378 ,451
Un MVP (Minimum Vivable Product) valide ,566 ,392
Elaboration d’un business model ,626 -,409
Capacité à cibler un besoin de marché ,844 -,251
Bonne qualité de la planification ,764 -,201
Méthode d'extraction : Analyse en composantes principales.
a. 2 composantes extraites.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.2. Matrice des composantes après rotation
Tableau : matrice des composantes après rotation pour la dimension « le succès des startups
camerounaises »
Matrice des composantes après rotationa
Composante
  1 2
Croissance très rapide ,139 ,617
La capacité à accéder aux fonds ,053 ,711
Equipe appropriée ,873 ,217
Capacité à innover ,731 ,448
Accès aux financements extérieurs ,096 ,581
Un MVP (Minimum Vivable Product) valide ,288 ,626
Elaboration d’un business model ,747 -,034
Capacité à cibler un besoin de marché ,854 ,213
Bonne qualité de la planification ,761 ,215
Méthode d'extraction : Analyse en composantes principales.
Méthode de rotation : Varimax avec normalisation de Kaiser.
a. La rotation a convergé en 3 itérations.
Source : Auteur à partir des données d’enquête
1.2.2.7.2.1.3. Variance totale expliquée

58
Les deux premiers axes expliquent 58,130% de la variance totale. Le premier
s’articule autour de la thématique « Croissance très rapide.». Le second renvoie à la
thématique «   La capacité à accéder aux fonds».
Tableau : Variance totale expliquée pour la dimension « le succès des startups
camerounaises».
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 3,983 44,252 44,252 3,277 36,409 36,409
2 1,249 13,878 58,130 1,955 21,721 58,130
3 ,986 10,960 69,091      
4 ,780 8,671 77,762      
5 ,638 7,094 84,856      
6 ,554 6,155 91,011      
7 ,414 4,597 95,608      
8 ,252 2,805 98,413      
9 ,143 1,587 100,000      
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.4. Graphique des valeurs propres ou digramme de coute Cattell
à partir du moment où la courbe devient presque une ligne droite horizontale (partie
encerclé de couleur bleue sur le graphique), il apparaît que les facteurs subséquents apportent
peu de nouvelles informations et ici on retrouve effectivement les deux premiers axes
expliquent qui 58,130% de la variance totale obtenue ci-dessus.
Graphique : digramme de coute Cattell pour la dimension « le succès des startups
camerounaises».

59
Source : Auteur à partir des données d’enquête.
1.2.2.7.2.1.5. Contribution individuelle des composantes à la Variance totale expliquée
Les deux premiers axes regroupent 58,130% de la variance totale, le premier axe
contribue à 36,409%, le deuxième axe contribue à 21,721%, pour des Valeurs propres des
facteurs ou axe retenus pour la rotation de 3,277et de 1,955 respectivement.
Tableau : Contribution individuelle des composantes à la Variance totale expliquée.
Variance totale expliquée
Somme des carrés des facteurs
Valeurs propres initiales retenus pour la rotation
Composant % de la % % de la %
e Total variance cumulés Total variance cumulés
1 3,983 44,252 44,252 3,277 36,409 36,409
2 1,249 13,878 58,130 1,955 21,721 58,130
Méthode d'extraction : Analyse en composantes principales.
Source : Auteur à partir des données d’enquête.

SECTION 2. ANALYSE DES RELATIONS CAUSALES PAR LA REGRESSION


LINEAIRE
Il est question ici d’évaluer l’impact de la planification post financement sur le succès
des startups à travers l’usage des outils économétriques suivante : test de STUDENT, test de
FISHER et le coefficient de détermination.
2.1. Modèle issue des données du questionnaire
On présentera dans cette sous partie les critères d’interprétation, le tableau des
coefficients du test de FISHER et celui du test de STUDENT.
2.1.1. L’interprétation des Coefficients du modèle
Il est question ici de procéder à une Évaluation globale du modèle de régression a
travers l’interprétation de la Significativité de la statistique de Fisher (F) noté (sig-Fisher) et à
une Évaluation de la pertinence du modèle, de la qualité de l’ajustement des données au
modèle de régression et de la variabilité expliquée du modèle de régression.
2.1.1.1.Évaluation globale du modèle 1
Comme dans notre sortie du logiciel SPSS on a Sig (F)=0,000<0,05 alors globalement
la relation statistique entre les variables indépendante représentés : Permet à l’équipe de projet
d’accomplir ses tâches plus rapidement, Permet à l’équipe de projet d’améliorer sa
performance, Permet à l’équipe de projet d’améliorer son efficacité, Améliore l’estimation des
coûts, Améliore l’identification des risques, une information de haute qualité, une information

60
très fiable, une meilleure structuration du projet, maitriser les délais d’exécution des projets et
la variable Dépendante « le succès des startups camerounaises »est dite significative.
Tableau : Analyse de la variance (ANOVA).

ANOVA
Somme Moyenne Significativité de la statistique
 
des carrés d.d.l des carrés D de Fisher (F) (Sig)
Régressio 264,482 9 29,387 14,234 0,000
n
Résidu 80,518 39 2,065    

Total 345,000d 48      

 DDL= degré de liberté   D=décision


Source : Auteur à partir des données d’enquête
2.1.1.2.Évaluation de la pertinence du modèle, de la qualité de l’ajustement des données
au modèle 1de régression et de la variabilité expliquée du modèle 1 de régression
Tableau : Coefficients du modèle
Statistique
Significativité de
para de
variables Coefficie la statistique de
mètre Ecart type STUDENT
nts STUDENT (sig)
de t
Permet à l’équipe de projet
d’accomplir ses tâches plus  +0,633 0,200 3,162 0,002
rapidement
Permet à l’équipe de projet  0,142 2,702 0,008
+0,382
d’améliorer sa performance
Permet à l’équipe de projet  +0,298 0,140 2,135 0,035
d’améliorer son efficacité
Améliore l’estimation des  +0,192 0,249 0,773 0,444
coûts
Améliore l’identification  -0,060 0,275 -0,217 0,829
des risques
une information de haute  +0,036 0,273 0,132 0,895
qualité
une information très fiable  +0,012 0,205 0,059 0,953

une meilleure structuration  +0,565 0,167 3,390 0,001


du projet
maitriser les délais  +0,120 0,123 0,979 0,334
d’exécution des projets
nombre d’observation n=48 Coeff r=0,876 R 2 -ajusté
icient
=0,713
de
corrél
ation
et de

61
déter
minat
ion
Variable dépendante : le succès des startups camerounaises
Source : Auteur à partir des données d’enquête.
Au sujet de la pertinence et de la variabilité expliquée de notre modèle, on peut dire
que la relation statistique entre les variables indépendante représentés par : Permet à l’équipe
de projet d’accomplir ses tâches plus rapidement, Permet à l’équipe de projet d’améliorer sa
performance, Permet à l’équipe de projet d’améliorer son efficacité, Améliore l’estimation des
coûts, Améliore l’identification des risques, une information de haute qualité, une information
très fiable, une meilleure structuration du projet, maitriser les délais d’exécution des projets et
la variable Dépendante « le succès des startups camerounaises » se présente comme suit :
D’après les résultats que nous avions obtenus dans le tableau ci-dessus, nous
constatons que la variable dépendante du modèle « le succès des startups camerounaises» est
plus expliquée par les variables :   Permet à l’équipe de projet d’accomplir ses tâches plus

rapidement  car le coefficient associé à cette variable est positif et vaut (  = + 0,633) ; Permet
à l’équipe de projet d’améliorer sa performance car le coefficient associé à cette variable est

positif et vaut (  = + 0,382) ; Permet à l’équipe de projet d’améliorer son efficacité car le

coefficient associé à cette variable est positif et vaut (  = + 0,298) ; Améliore l’estimation des

coûts car le coefficient associé à cette variable est positif et vaut (  = + 0,192) ; une

information de haute qualité car le coefficient associé à cette variable est positif et vaut (  = +
0,036) ; une information très fiable car le coefficient associé à cette variable est positif et vaut

(  = + 0,012) ; une meilleure structuration du projet car le coefficient associé à cette variable

est positif et vaut (  =+0,565) ; maitriser les délais d’exécution des projets car le coefficient

associé à cette variable est positif et vaut (  = + 0,120) .  Pour un seuil de significativité de
5%. Cela veut aussi dire sur un plan pratique que, plus la pratique de la planification post
financement en gestion des projets sont bien organisé, plus le succès des startups
camerounaises est garanti. Ce qui confirme notre hypothèse de recherche H1, selon
laquelle, le succès des startups camerounaises est garanti par la pratique de la
planification en management des projets.
D’après les résultats que nous avions obtenus dans le tableau ci-dessus, nous
constatons que la variable dépendante du modèle « le succès des startups camerounaises» est

62
moins expliquée par les variables :   Améliore l’identification des risques car le coefficient

associé à cette variable est positif et vaut (  = -0,060). Pour un seuil de significativité de 5%.
Cela veut aussi dire sur un plan pratique que le succès des startups camerounaises n’est pas
expliqué par cette variable et que des efforts restent encore à faire dans le sens de
l’amélioration de cette variable.
Mais il est bon de noter que la pratique de la planification en management des projets
reste encore très bas et n’est encore très perceptible ou suffisamment perceptible sur un plan
pratique d’où la non significativité de certains coefficients (prob>t>0,05) mais les efforts qui
sont déjà fait jusqu’ici contribuent à l’explication du succès des startups camerounaises
actuellement.
2
Comme R -ajusté =0,713<0,75 le pourcentage de relation de entre la variable
dépendante « le succès des startups camerounaises.» et l’ensemble des variable indépendante
est dite moyenne ou passable, ce qui est vérifié par le coefficient de corrélation r=0,876 soit
(87,60%) et qui traduit une corrélation moyenne/passable entre ces variables
2.1.2. L’interprétation des Coefficients du modèle 2
Il est question ici de procéder à une Évaluation globale du modèle de régression a
travers l’interprétation de la Significativité de la statistique de Fisher (F) noté (sig-Fisher) et à
une Évaluation de la pertinence du modèle, de la qualité de l’ajustement des données au
modèle de régression et de la variabilité expliquée du modèle de régression.
2.1.2.1.Évaluation globale du modèle 2
Comme dans notre sortie du logiciel SPSS on a Sig (F)=0,000<0,05 alors globalement
la relation statistique entre les variables indépendante représentés le temps consacré à la
planification, les moyens ou ressources allouées à la planification et la variable Dépendante
« le succès des startups camerounaises »est dite significative.
Tableau : Analyse de la variance (ANOVA).

ANOVA
Somme Moyenne Significativité de la statistique
 
des carrés d.d.l des carrés D de Fisher (F) (Sig)
Régressio 209,420 2 104,710 35,526 0,000c
n
Résidu 135,580 46 2,947    

Total 345,000d 48      

 DDL= degré de liberté   D=décision


Source : Auteur à partir des données d’enquête

63
2.1.2.2.Évaluation de la pertinence du modèle, de la qualité de l’ajustement des données
au modèle 1de régression et de la variabilité expliquée du modèle 2 de régression
Tableau : Coefficients du modèle
Statistique
Significativité de
para de
variables Coefficie la statistique de
mètre Ecart type STUDENT
nts STUDENT (sig)
de t
le temps consacré à la  0,252 4,194 0,000
+1,059
planification
les moyens ou ressources  0,180 2,317 0,025
+0,417
allouées à la planification
Coeff
icient
de R 2 -ajusté
corrél r=0,779 =0,590
nombre d’observation n=48 ation
et de
déter
minat
ion
Variable dépendante : le succès des startups camerounaises
Source : Auteur à partir des données d’enquête.
Au sujet de la pertinence et de la variabilité expliquée de notre modèle, on peut dire
que la relation statistique entre les variables indépendante représentés par le temps consacré à
la planification, les moyens ou ressources allouées à la planification et la variable Dépendante
« le succès des startups camerounaises » se présente comme suit :
D’après les résultats que nous avions obtenus dans le tableau ci-dessus, nous
constatons que la variable dépendante du modèle « le succès des startups camerounaises» est
plus expliquée par les variables :  le temps consacré à la planification car le coefficient associé

à cette variable est positif et vaut (  =+1,059) ; les moyens ou ressources allouées à la

planification car le coefficient associé à cette variable est positif et vaut (  =+0,417)   Pour un
seuil de significativité de 5%. Cela veut aussi dire sur un plan pratique que, plus les canaux de
transmission des startups sont bien organisé, plus le succès des startups camerounaises est
garanti. Ce qui confirme notre hypothèse de recherche H2, selon laquelle, le succès des
startups camerounaises n’est pas uniquement garanti par la pratique de la planification
en management de projet.

64
Mais il est bon de noter que les canaux de transmission des startups dans la pratique de
la planification en management des projets est deja très perceptible ou suffisamment
perceptible sur un plan pratique d’où la significativité des coefficients (prob>t<0,05).
2
Comme R -ajusté =0,590<0,75 le pourcentage de relation de entre la variable
dépendante « le succès des startups camerounaises.» et l’ensemble des variable indépendante
est dite moyenne ou passable, ce qui est vérifié par le coefficient de corrélation r=0,779 soit
(77,90%) et qui traduit une corrélation moyenne/passable entre ces variables
2.2. Commentaire de nos résultats
Il est ici de rapprocher les résultats avec les auteurs de la théorie(ne pas oublier très
important)
A faire par ABENA

 Tableau de retour sur hypothèse (synthèse des résultats)


Il est juste question ici de présenter les hypothèses afin de mettre en lumière celle qui sont
confirmée et non confirmée.
libellé Hypothèses Résultat
Hypothèse principale
HP la pratique de la planification post financement en gestion des projets /
a une influence sur le succès des startups de la ville de douala
Hypothèses Secondaires
le succès des startups camerounaises est garanti par la pratique de la confirmé
H1
planification en management des projets.
le succès des startups camerounaises n’est pas uniquement garanti par confirmé
H1
la pratique de la planification en management de projet.
Conclusion du chapitre 4
La recherche est donc une contribution, aussi petite ou modeste soit-elle, à l'édifice
des connaissances générales sur les différents aspects de la réalité. Dans ce chapitre, il a été
question de tester les hypothèses spécifiques de recherche émises en vue de voir si oui ou
non notre hypothèse générale est confirmée. Ensuite il a été question d’interpréter les
résultats de l’analyse avant de clôturer ce chapitre par les suggestions qui nous permettront
d’envisager de nouvelles perspectives notre thème de recherche.

65
REFERENCES BIBLIOGRAPHIQUES

1. OUVRAGES GENERAUX
MURRAY, R. SPIEGEL. (1981) statistique, série SCHAUM edisscience, paris
LEURION, F. (1970) statistique, BEP, Foucher, Paris
PIGANIOL, B. (1971) : statistique : corrélation et régression économétrie : théorie des tests et
séries temporelles, Dalloz, paris
CALOT, G. (1964) : statistiques et programme économique, cours de statistique, PUF, Paris
Raymond Alain thieatert et al (2007). Méthode de recherché en gestion 4 edition Dunod,
paris.
Bournois . F et al 2007 , RH – les meilleures paratique, Eyrolles Ed. d’organisation, paris.
Le moigne J.L (1995) , les épistémologies et constructivistes, PUF
Pieget J. 1993 « production de la connaissance et constitution des pratiques
organisationnelles » revue de Gestion resource humaines n° 9 novembre P.4-17
Plane J. M (2000) Méthodes de recherche d’intervention en management paris Ed. Harmatten
Ben Letaifa, s. 2006. Comptabilité et incompabilite des paradigmes et methods.
Communication presentee a l’atelier methodolgie de I’AIMS en France

66
Grawitz 1996 . Method de science sociale 10 Ed paris, France : Dalloz
Giorondo Y 2003 . les specificites des recherches Quantitatives . Dans Giorondo condiure
un projet de recherche. Une perspective qualitative ( Chap 1 P. 11-39) colombelles , France :
EMS.
Charrier et Durieux 2007 ou 1998. Explorer et Teste de methodes de recherche en
management, paris, Dunod
David,A 1999. Logique, espistomologie et methodologie de science de gestion, « conference
de I’AIMS, Ecole central de Paris »
Mbengue A et Vandaneon- Derumez.I 1999 . «  positions espistomoloques et oulils de
recherche en management strategique » Actes de la conference de l’association Internationale
de Management stratégique paris
Lincoln Y. S et Guba .E.G, 1985 : Naturalistic inquiry, Thousand Oaks, CA, sage 1985
Baumond et Ibert 2007. La collecte des données et la gestion de leur sources, methodes de
recherche en management, paris ; Dunod, pp 224-256
Miles, M.B & Huberman, M,A 2003 , Aanalyse des donnees qualitatives :recuiel de nouvelles
methods. B ruxelles ; De Boeck Université
David Silverman 1993. « Begining research interpreting qualitative data » method of
analysing talks, text and interaction . londres , sage publication.
Evrard, y., Pras, P and E. Roux 2000, etude et recherché en marketing, fondements, methods,
2Ed , paris; Dunod

2. DICTIONNAIRES

o Petit Larousse de poche (1988), 165p.


o Dictionnaire petit Robert (2006), 313p.
o Dictionnaire Hachette (1993), 1503p.
le dictionnaire des sciences économiques des auteurs suivant : Alain BEITONE, Antoine
CAZORIA, Christine DOLLO et Anne marie DRAI ,2e édition Armand Colin

67
ANNEXES DU DOCUMENT

ANNEXE 1 : EXEMPLAIRE D’AUTORISATION DE LA RECHERCHE

ANNEXE 2 : EXEMPLAIRE DU QUESTIONNAIRE DE RECHERCHE

ANNEXE 3 : TABLEAUX VOLUMINEUX DE LA RECHERCHE


Tableau 1
A quoi renvoi la planification selon vous ?
Pourcentage Pourcentage
  Effectifs Pourcentage valide cumulé
Valide   3 6,3 6,3 6,3

68
A 1e
organisation
suivant un 1 2,1 2,1 8,3
chronogramm
e dac

A définir une
feuille de route
pour atteindr 1 2,1 2,1 10,4

A l'anticipation,
la mise en
oeuvre des 1 2,1 2,1 12,5
possi

� 1 2,1 2,1 14,6


A
l'organisation
des objectifs 1 2,1 2,1 16,7
que l'on se fi

à la capacité
d'organisation
et de prévisi 1 2,1 2,1 18,8

A la gestion
des différentes
taches d'un 1 2,1 2,1 20,8
pro

A mettre sur
pied un plan
d'action pour 1 2,1 2,1 22,9
une e
Amélioration,
rentabilité 1 2,1 2,1 25,0
C'est organisé
les taches en
fonction des 1 2,1 2,1 27,1
op

Création d'un
calendrier de
l'ensemble des 1 2,1 2,1 29,2
t
Definir des
tâches dans le
but réaliser 1 2,1 2,1 31,3
des
Définir par
avance les
étapes à 1 2,1 2,1 33,3
executer a
Déterminer les
tâches à
réaliser et ses 1 2,1 2,1 35,4
c

69
Dissociation
du projet avec
l affectation 1 2,1 2,1 37,5
des

Élaboration
d'un calendrier
ou timelind pré 1 2,1 2,1 39,6

Élaboration de
business plan 1 2,1 2,1 41,7

� 1 2,1 2,1 43,8


Etablir des
plans avant de
lancer son 1 2,1 2,1 45,8
activit
Forecast 1 2,1 2,1 47,9
Gestion des
activités et des 1 2,1 2,1 50,0
tâches
la gestion du
temps de 1 2,1 2,1 52,1
travail
La prévision
de tous les
corps de 1 2,1 2,1 54,2
métier qu
La Stratégie
mise en place
pour le 1 2,1 2,1 56,3
développ
Le découpage
de nos actions
en plusieurs ét 1 2,1 2,1 58,3

les projets de
la croissance
de votre 1 2,1 2,1 60,4
entrepr

Mise en
oeuvre d'un
plan, d'une 1 2,1 2,1 62,5
organisation,
Mise sur pied
d'un projet
proprement dit 1 2,1 2,1 64,6

Organisation 2 4,2 4,2 68,8


Organisation,
business plan,
définition des 1 2,1 2,1 70,8

70
Planifier c' est
organiser en
avance le déro 1 2,1 2,1 72,9

Planifier et
organiser des
tâches ou des 1 2,1 2,1 75,0
act
Planifier la
mise en œuvre
d'un projet et 1 2,1 2,1 77,1
to
Planifier ses
prochaines
actions en 1 2,1 2,1 79,2
entrepris
Préparation
des activités
en les 2 4,2 4,2 83,3
subdivisan
Prévisions 1 2,1 2,1 85,4
prévisions,
organisation,
évaluation des 1 2,1 2,1 87,5
ri
Prevoir au
préalable les
activités 1 2,1 2,1 89,6
futures
Réalisation
efficace des 1 2,1 2,1 91,7
objectifs
Savoir où,
comment et
pourquoi on y 1 2,1 2,1 93,8
va.
Se projeter sur
ces objectifs 1 2,1 2,1 95,8

Selon moi la
planification
renvoie à l’ens 1 2,1 2,1 97,9

Toutes les
étapes avant
la realisation 1 2,1 2,1 100,0
d'un
Total 48 100,0 100,0  

Tableau 2
A quoi renvoi le succès selon votre conception ?
Pourcentage Pourcentage
  Effectifs Pourcentage valide cumulé

71
Valide À l'atteinte
d'objectifs
dans les délais 1 2,1 2,1 2,1
et les coût

À l'atteinte des
objectifs 1 2,1 2,1 4,2
A l'évolution
suite à de
nombreux 1 2,1 2,1 6,3
échecs
A pouvoir
réaliser ses
objectifs de 1 2,1 2,1 8,3
manière
efficient

A réaliser ces
rêves , à être
heureux et à 1 2,1 2,1 10,4
partage
A une
augmentation
du chiffre 1 2,1 2,1 12,5
daffaire et à
une reconn

A une bonne
planification et 1 2,1 2,1 14,6
a son suivi
A une
evolution
constante ou 1 2,1 2,1 16,7
stable dans
son domaine

Atteindre le but
qu’on s’est fixé 1 2,1 2,1 18,8

Atteindre les
objectifs de
l'entreprise ou 1 2,1 2,1 20,8
vive suivant

Atteindre ses
objectifs 1 2,1 2,1 22,9
Atteindre ses
objectifs dans
les délais que 1 2,1 2,1 25,0
l'on s'est

Atteinte des
objectifs 1 2,1 2,1 27,1
Atteinte des
objectifs dans
le temps limite. 1 2,1 2,1 29,2

Atteinte des
objectifs fixés 1 2,1 2,1 31,3

72
Auto-gérance,
maitrise du
temps d’action 1 2,1 2,1 33,3

ce concept
repose dans la
promotion des 1 2,1 2,1 35,4
jeunes talents

Dégager un
bénéfice
constant sur la 1 2,1 2,1 37,5
durée
Évolution
apres de
nombreux 1 2,1 2,1 39,6
échecs
Évolution suite
a de nombreux
echecs 1 2,1 2,1 41,7

gagner
toujours plus
d'argent, tout
en s'assurant 1 2,1 2,1 43,8
de ma

Impact sur la
vie des autres 1 2,1 2,1 45,8

L atteinte des
objectifs fixés 1 2,1 2,1 47,9

L'atteinte des
objectifs fixés
d'un commun 1 2,1 2,1 50,0
accord avec

L'atteinte ou le
dépassement
des objectifs 1 2,1 2,1 52,1

L’atteinte des
objectifs 1 2,1 2,1 54,2
La rentabilité 1 2,1 2,1 56,3
La satisfaction
du client, le
bénéfice 1 2,1 2,1 58,3
réalisé.

La visibilité du
projet sur la
grande scène 1 2,1 2,1 60,4

73
Le bon
fonctionnemen
t et la réussite 1 2,1 2,1 62,5
d'un projet

Le succès
c’est quand
l’argent 1 2,1 2,1 64,6
travaille pour
vous

Le succès d'un
projet renvoie
à sa capacité à 1 2,1 2,1 66,7
pouvo

le succès pour
moi c'est
atteindre les
buts qu'on se f 1 2,1 2,1 68,8

Lorsque la
planification
faite aboutie 1 2,1 2,1 70,8
au résultat esc

Mettre sur pied


une entreprise
qui vous survit 1 2,1 2,1 72,9
et qui g

Notoriété ,
influence
positive sur 1 2,1 2,1 75,0
son entourage

Planification et
organisation 1 2,1 2,1 77,1

Quand l’argent
travaille pour
moi 1 2,1 2,1 79,2

Réalisation
des objectifs
fixés au départ 2 4,2 4,2 83,3

Réalisation du
profit 1 2,1 2,1 85,4
Réalisation
effective du
projet, sa 1 2,1 2,1 87,5
stabilité,
autono

Remise des
livrables dans
les temps 1 2,1 2,1 89,6

74
Resoudre des
difficultés et
employer ses
compétences
1 2,1 2,1 91,7

Satisfaction de
la clientèle 1 2,1 2,1 93,8

Selon ma
conception, le
succès dépend 1 2,1 2,1 95,8
des objectifs d

Selon moi le
succès renvoi
à atteindre ses 1 2,1 2,1 97,9
objectifs

Voir son
entreprise
évoluer 1 2,1 2,1 100,0
positivement
sur tous les

Total 48 100,0 100,0  

Tableau 3
Domaine(s) d’études
Pourcentag Pourcentag Pourcentage
  Effectifs e e valide cumulé
Valide   9 18,8 18,8 18,8
Aerospace
Engineering 1 2,1 2,1 20,8
Agro-foresterie
1 2,1 2,1 22,9
Banque et finance
2 4,2 4,2 27,1
Communication
1 2,1 2,1 29,2
Droit des affaires et
gestion des rh
1 2,1 2,1 31,3

Droit privé
fondamental
(carrières 1 2,1 2,1 33,3
judiciaires)
Études supérieures
de commerce
1 2,1 2,1 35,4

Finance 1 2,1 2,1 37,5

75
Finance , banque,
assurance,
comptabilité 1 2,1 2,1 39,6

Gaep 1 2,1 2,1 41,7


Génie Logiciel
1 2,1 2,1 43,8
Gestion de la vente
et de la négociation
commerciale 1 2,1 2,1 45,8

Informatique 5 10,4 10,4 56,3


Informatique
fondamentale 1 2,1 2,1 58,3

Informatique-
electronique 1 2,1 2,1 60,4
Ingénierie 1 2,1 2,1 62,5
ingénierie logicielle
et management des
entreprises 1 2,1 2,1 64,6

Ingénieur
généraliste 1 2,1 2,1 66,7
Management 2 4,2 4,2 70,8
Management en
communication
1 2,1 2,1 72,9

Manager des projets


1 2,1 2,1 75,0
Marketing 1 2,1 2,1 77,1
Marketing
communication 1 2,1 2,1 79,2

MBA 1 2,1 2,1 81,3


Médecine 3 6,3 6,3 87,5
Paix et
développement 1 2,1 2,1 89,6

Sciences de gestion
1 2,1 2,1 91,7
Sciences de la
communication et
de l'information 1 2,1 2,1 93,8

Sport 2 4,2 4,2 97,9


Télécommunication
s et réseaux 1 2,1 2,1 100,0

Total 48 100,0 100,0  

76
77

Vous aimerez peut-être aussi