Académique Documents
Professionnel Documents
Culture Documents
Objectifs
Sommaire du cours
0. Introduction
1. L’entreprise
2. Le décideur
3. L’informatique
Introduction
L’Informatique s’applique pratiquement à tous les domaines de la vie. La gestion apparaît
cependant comme un domaine privilégié, non pas tant parce que la science et les techniques
informatiques y sont plus adaptées, mais du fait de l’étendue des champs d’activité où elles peuvent
s’exercer. C’est plus une question de quantité que de qualité.
Elle met donc en œuvre et réalise la synthèse d’éléments tels que : l’organisation,
l’administration, l’Informatique.
Pour les décideurs et les gestionnaires d’entreprises, il répondra à son besoin de compléter les
méthodes de gestion par un outil lui permettant de prendre conscience de l’impact que l’Informatique a
eu sur la gestion des entreprises en tant que vecteur de modernité et source d’innovation et de
rentabilité : car, les anciennes techniques de gestion (comptabilités, statistiques, etc …) ne suffisent
plus à assurer aux entreprises une certaine suprématie et une totale satisfaction.
En effet, pour administrer une entreprise, quelle qu’en soit sa dimension, le décideur moderne
a besoin d’une masse importante de données (flux financier, de matière, du personnel, …) que
l’ordinateur peut aider à traiter en temps réel.
Il y a donc lieu d’espérer que l’outil informatique, bien assimilé et maîtrisé apporte une
meilleure gestion, un meilleur fonctionnement et donc une meilleure rentabilité de l’entreprise.
Le contenu de ce cours tourne autour de trois notions fondamentales qui justifient l’intitulé
même du cours. Il s’agit donc d’expliciter ces trois mots-clés:
• entreprise
• décideur
• informatique
Chapitre 1
L’ENTREPRISE
1.1. Définition
Le terme “ Entreprise ” désigne toute organisation humaine devant gérer sa raison d’être et/ou
sa pérennité au travers des objectifs de sécurité, de développement, de rentabilité et se trouvant par
voie de conséquence dotée d’un centre de décision.
Un système est un ensemble cohérent défini par ses objectifs et doté d’une structure dont les
liaisons réagissent sur la forme, la nature et l’importance des composants.
L’entreprise en tant que système est dotée d’une structure qui évolue dans le temps, dans un
environnement dynamique qui assure sa finalité par la mise en œuvre d’activités justifiant sa raison
d’être.
L’entreprise est aussi un centre de décision qui exerce deux fonctions principales :
1. la production de biens et de services utiles à la satisfaction des besoins des hommes.
2. la création de la richesse, c’est-à-dire la génération par sa croissance propre, d’un surplus de
valeur monétaire en partie réinjectée dans le circuit économique et contribuent à l’élévation du
niveau de la population d’un pays.
Dans cette approche systémique, les problèmes de l’entreprise sont appréhendés dans leur
intégralité en tenant compte de tous les liens qui existent entre les composants du système.
Comme le rappelle la figure 1.1, sous une forme ou une autre, existent dans toute entreprise des
1
activités d’approvisionnement, production, distribution et d’administration ou encore selon Ansoff
des activités logistiques qui « s’effectuent à l’intérieur de la firme en vue de convertir les ressources
physiques et d’information en produits finis ou services rendus par l’entreprise à ses clients » et
traduisent le processus bien connu de combinaison des facteurs de production et des activités de
gestion ou de gouvernement représentant « les processus d’orientation et de contrôle de
l’organisation ». Ces dernières consistent essentiellement dans des choix : choix des produits ou
services à offrir, choix des clients et des marchés.
ADMINISTRATION
Par ailleurs, la figure 1.1 nous montre que l’importance de chacun des sous-systèmes imposant
l’entreprise peut varier tant en « poids » qu’en complexité. C’est à partir de cette importance relative
que s’effectue la distinction entre les entreprises industrielles dans lesquelles le sous-système de
production est prédominant et les entreprises commerciales ou de services dans lesquelles ce même
sous-système est réduit au minimum alors que les autres prennent une place essentielle.
(1)
In Jantsch : Prospective et Politique (OCDE)
Conséquences :
• L’étude des problèmes même partiels, ne peut être hors du contexte global de l’entreprise.
• Les points d’application des études, notamment informatiques, différeront selon les types
d’entreprises, mais leur esprit général demeurera le même.
• Le domaine de l’informatique d’entreprise pourra couvrir tout ou partie des activités de
l’entreprise.
Lorsque l’ensemble des activités et leurs liaisons seront pris en charge, le système sera dit
intégrer ou de niveau 2. Il sera dit mécanisé ou de niveau 1 dans le cas contraire.
En effet à l’exception de cas très rares ou aberrants, il est possible dans toute entreprise, de
distinguer :
• Un esprit (conservatisme, agressivité, …) se concrétisant par une politique (défensive,
conquête, …) formulée par un ensemble d’objectifs assignés à des hommes dans un secteur ou
une branche donnée, en fonction d’un état économique (global s’il s’agit de la politique
gouvernementale, partiel s’il concerne les entreprises concurrentielles ou complémentaires),
dans des délais donnés,
• Une forme ou méthode d’action à la fois interne et externe. Elle est concrétisée par un plan
d’action, fil directeur explicite ou implicite devant théoriquement conduire à la réalisation des
objectifs et mettant en jeu les mêmes éléments composants que ceux qui viennent d’être
évoqués. Ce plan se traduit par une organisation particulière,
• Une substance ou ensemble de moyens destinés à mettre en application la méthodologie
d’action. Ce sont ces moyens et surtout leur choix qui donnent l’idée la plus nette sur l’esprit de
l’entreprise,
• Des procédés sur lesquels il est inutile de s’appesantir ici.
Par ailleurs, - on sait que toute entreprise se divise en services dont le rôle est de remplir une ou
plusieurs fonctions. La façon de remplir ce rôle emprunte à la fois au système global « entreprise » et à
l’esprit qui anime ceux chargés de l’accomplir. C’est dire que toute division de l’entreprise s’analyse
comme un sous-système propre avec son propre esprit, ses méthodes et moyens voire procédés qui lui
sont particuliers. De sorte que le système entreprise se trouve constitué d’un ensemble de sous-
systèmes joints dans le meilleur des cas c’est-à-dire collaborant entre eux, disjoints dans le pire c’est-à-
dire travaillant de manière autonome, indépendamment les uns des autres.
Cette remarque est d’autant plus importante pour notre objet que :
1. chacun de ces sous-systèmes se meut dans un environnement qui peut être
complémentaire, antagoniste ou indifférent. Par exemple, les sous-systèmes magasins et
ateliers sont complémentaires, fournisseurs et clients sont indifférents.
2. certains sous-systèmes ont une position dominante par rapport aux autres, exemple : le
service commercial par rapport à la production.
Chaque entreprise étant un système, nul doute que toute vie économique apparaît comme
résultante des actions réciproques des divers systèmes parmi lesquels on peut distinguer :
1. les systèmes équivalents composés des entreprises dont les poids n’apparaissent pas comme
réciproquement critiques. Ces systèmes peuvent être :
• complémentaires lorsque leur politique apparaît comme un soutien logistique
conscient ou inconscient de celle de l’entreprise,
• antagonistes lorsque leurs objectifs concurrencent directement et plus ou moins
dangereusement ceux de l’entreprise,
• indifférents lorsqu’ils apparaissent autonomes et sans action sur le système
entreprise.
2. les systèmes dominants ; plus importants certes, étant l’Etat et les instances supra-nationales ;
les plus dangereux les entreprises dites dominantes ou pilotes ayant dépassé la masse critique
relative de l’ensemble.
Conclusions pratiques :
• Le système doit être étroitement lié à l’exploitation, même lorsqu’il s’agit d’application
apparemment simples.
• Se trouvant parmi des systèmes, l’Informatique ne peut qu’être considérée et traitée
comme un système.
Chapitre 2
LE DECIDEUR
Gérer une entreprise, c’est prendre des décisions … effectuer des opérations.
2.1. Définition
En théorie de la décision, concept introduit par WALD en 1950, la décision est la conclusion
normale d’une délibération par un acte volontaire.
Avant toute décision, il y a donc une délibération, un jugement qui apportera normalement cette
décision. La théorie de la décision cherche à formaliser le problème de choix d’une solution en deux
étapes :
1. recensement des différentes façons de faire, appelées stratégies, pour atteindre l’objectif fixé.
2. détermination, par élimination, de la meilleure stratégie à adopter.
La structure de l’entreprise étant définie (cfr. chapitre 1), gérer une entreprise revient à piloter
le système établi. Piloter cet appareil complexe c’est à la fois :
• le faire fonctionner en tenant compte des liaisons et interdépendances existant entre les sous-
systèmes,
• en adapter la structure en résolvant les contradictions susceptibles d’apparaître à tout moment
et en éliminant les redondances inutiles,
• prendre en charge un environnement en constante transformation dont l’effet sur la structure
est loin d’être négligeable.
• celles qui, prises au plus haut niveau, présentent un assez grand degré de liberté et engagent la
vie de l’entreprise : ce sont les décisions cruciales,
• celles qui relèvent de niveaux inférieurs qui, d’ordre courant, sont préparées voire normalisées
afin de devenir à la limite quasi automatique : ce sont les décisions de routine.
En général les décisions s’expriment à l’intérieur de plans : à long terme pour les décisions
cruciales, à moyen ou court terme pour les autres.
En définitive :
La décision apparaît comme une direction d’action vers des opportunités, direction qui
concrétise, à chacun des niveaux de la structure la mise en œuvre du système de gestion.
C’est l’outil essentiel de la gestion.
Conséquence :
L’objectif essentiel de tout système informatisé devrait être de faciliter la prise de décision.
A la limite, décider c’est choisir entre deux possibilités, c’est-à-dire répondre par oui ou non à
une question élémentaire. Cette réponse oriente la suite des opérations dans une direction à l’exclusion
de toute autre. Or, gérer une entreprise c’est prendre un ensemble de décisions, chacune à caractère
binaire. Aussi cet ensemble se présente-t-il sous la forme d’un arbre dichotomique (fig. 2.2).
Au dernier niveau, il n’y a plus à la limite d’autre décision que celle de commencer ou
s’arrêter.
En résumé :
Toute décision est l’œuvre d’un individu. Elle s’inscrit dans un ensemble décisionnel qui,
concrétise l’organisation du système de gestion. C’est pour cela que l’ensemble décisionnel doit être
harmonieux et cohérent.
Conséquences :
Une des conséquences de la figure 2.2. est que chaque niveau hiérarchique est caractérisé par
l’ensemble des décisions correspondant. L’arbre dichotomique des décisions caractérise donc les
liaisons hiérarchiques dans l’entreprise ainsi que celles existant entre les divers sous-systèmes qui la
composent. Il exprime donc de manière dynamique l’organigramme auquel nous sommes accoutumés.
Décider c’est, nous l’avons vu, répondre par oui ou non à un certain nombre d’interrogation
qui se posent à chacun des moments du déroulement d’une fonction.
Toutefois, il est bien rare que cette action ne pose aucun problème. Expression binaire d’un ou
exclusif, toute décision comporte un risque traduisant le regret de n’avoir pas pris la décision inverse.
Si p est la probabilité d’avoir décidé juste, ce regret s’exprime par 1 – p, probabilité complémentaire
de la première.
Maximiser p (ou minimiser 1 – p), est la préoccupation majeure du décideur. On y arrive par un
« éclairage de la décision » de manière à réduire la part d’incertitude contenue dans toute décision. Il
va sans dire que cet « éclairage » n’est utile que sur certaines informations, celles qui concourent
directement à la prise de décision. D’où le concept d’information utile, qui s’oppose bien évidemment
à celui d’information inutile. Nous pouvons tout de suite noter que ce concept s’analyse en deux sous-
ensembles :
• celui des informations strictement inutiles (tout au moins au regard de la décision considérée,
mais dont certains éléments peuvent se révéler utiles en vue d’autres décisions, ce qu’il sera
bon de ne pas oublier au moment des opérations de conception du système),
• celui des informations redondantes, c’est-à-dire faisant double emploi, lui-même composé :
d’éléments strictement redondants pouvant être utilisés pour des contrôles par recoupements,
et d’éléments relativement redondants pratiquement inutiles parce que de fiabilité inférieure.
Il est bien entendu que les informations concernant des décisions de niveau supérieur sont les
plus élaborées parce que les plus synthétiques.
Par ailleurs, les informations utiles correspondant à chaque décision sont souvent des résultats
de travaux réalisés à partir d’autres informations dites élémentaires ou de base qui sont les données du
problème. Ainsi le schéma de l’aide à la décision se trouvera-t-il conforme suivant :
Les données peuvent exister dans l’entreprise parce qu’ayant servi à des traitements antérieurs.
Elles sont alors dites enregistrées. Dans ce cas, il faudra s’assurer qu’elles se prêtent réellement bien
aux traitements envisagés. Elles peuvent aussi ne pas exister. Elles sont alors dites neuves et il faudra
se les procurer et les mettre en forme.
Données enregistrées et neuves sont contenues dans des fichiers et constituent la base du
système informationnel de l’entreprise ou banque d’informations.
La décision analysée puis logiquement reformulée, les formes d’aide possible sont alors (dans
l’ordre croissant des interventions) :
• L’assistance : c’est l’aspect le plus élémentaire de l’aide consistant à introduire des moyens
dans une chaîne afin de réaliser certaines tâches élémentaires avec une intervention minimale
et purement mécanique de l’homme. L’assistance ne modifie donc pas l’organisation
existante. Tout au plus elle en permet un déroulement plus rapide par son rôle d’aide
permettant de faire plus vite et avec moins d’erreurs un certain nombre d’opérations.
Ce qu’il faut bien voir c’est la place occupée par ces machines dans l’organisation : elles
s’intercalent dans une succession d’opérations constituant une tâche, sans en modifier ni
l’ordre ni l’esprit. L’homme garde ainsi un rôle prépondérant non seulement dans l’appel
mais dans la manipulation de la machine. On comprend que rien n’est modifié. Aussi le
domaine privilégié d’application se trouve-t-il au niveau opérationnel, autrement dit celui des
procédés. C’est ici que les petites machines trouvent leur domaine d’élection.
• La substitution : comme son nom l’indique, son rôle est de remplacer plus ou moins
complètement l’homme dans l’accomplissement d’une tâche.
Ce remplacement exige que la machine qui en est chargée soit capable de réaliser des
enchaînements, c’est-à-dire d’effectuer pour le moins des successions d’opérations. Cependant cette
succession peut se faire aussi bien à l’intérieur d’une tâche qu’entre les tâches elles-mêmes. Ceci
montre que nous allons trouver des variantes dans la substitution.
Lorsque la machine se contente d’assurer cette succession, elle prend des décisions de routines
successives et on parle alors de mécanisation. Celle-ci représente une forme plus évoluée de
l’assistance, réalisant des enchaînements partiels qui réduisent les interventions à des manipulations
physiques de fichiers.
Lorsque au contraire la machine prend elle-même des décisions plus complexes ou devient le
moteur de la décision, on parle selon le cas :
• d’intégration ou réalisation automatique d’enchaînements de tâches débouchant vers
l’élaboration directe d’ensembles d’informations adaptés à la décision,
• d’automatisation ou prise automatique de décisions de niveau inférieur (décisions de
routine),
• d’automaticité ou cybernétisme : prise pratiquement totale des décisions (sauf les
cruciales) par voie autre qu’humaine.
La machine dans ces cas modifie l’organisation et à la limite en devient le moteur. C’est
le domaine des gros ensembles.
Conséquence :
C’est sur la décision et la forme de l’aide recherchée que devra être fondé tout système
informatique.
Des considérations précédentes, il est possible d’induire qu’à tous les niveaux d’un système se
rencontre la présence de l’homme. La machine n’apparaît jamais comme un moyen dans la structure.
Faite à l’usage de l’homme, la machine en est inséparable. Il devient alors possible de dire que le
système est défini par l’importance des intersections hommes-machines qui le constituent. C’est pour
cette raison qu’on entend très souvent parler de système hommes-machines.
Fig.5.
Nous touchons là aux points sensibles du système. C’est en effet en ces points que risquent de
se produire les distorsions les plus graves - du fait même du peu de fiabilité accordé à l’homme.
Conséquence :
La détermination des nœuds d’intervention humaine est fondamentale pour la mise au point
d’un système.
Il est maintenant possible de voir que c’est en ces nœuds que vont pouvoir se reproduire des
blocages qui pourront être :
1) d’ordre technique, lorsque se situant au niveau opérationnel ils mettront en cause, la
compétence, la bonne volonté, l’utilisation optimale des matériels, …,
2) d’ordre psychologique, lorsqu’au niveau notamment des méthodes et moyens ils se traduiront
par des freins au changement, dus à des craintes reflétant une peur de l’incompétence (peur de
n’être pas « à la hauteur ») ou encore peur de l’avenir (peur pour sa situation),
3) d’ordre sociologique et mental si, se situant au niveau du groupe, ils entraînent les réactions
collectives.
Tout ceci montre que l’Informatique est l’affaire de tous et qu’aucune machine ne pourra jamais
donner satisfaction, si l’ensemble des personnes susceptibles de l’utiliser à quelque niveau que ce soit,
n’adhère pas au système dans lequel elle ne serait pourtant qu’un moyen.
Conséquences :
1. Aucun problème ne peut être conçu, mis en œuvre et exploité sans la participation active de
l’ensemble des personnes directement ou indirectement intéressées (on retrouve là une grande
partie des éléments composants).
2. la bonne utilisation d’un système passe par l’intervention préalable d’un état d’esprit
informatique.
Rien de valable ne peut en effet être entrepris dans l’entreprise sans la collaboration et le
soutien actif de tous.
Rechercher un lien entre ces deux esprits est fondamental, ne serait-ce que pour éviter
l’existence de circuits parallèle de documents, ou pour vaincre la méfiance des uns à l’égard des autres.
De sorte que l’état d’esprit informatique apparaît comme un modèle de pensé qui allie la
logique du raisonnement à l’objectivité, qui substitue le rationalisme à l’improvisation et donne la
primauté à la prévision. Plus encore cet état d’esprit est un acte de foi : on croit à l’Informatique ou on
s’y croit pas. Dans ce dernier cas, il vaut mieux ne pas entreprendre une expérience condamnée
d’avance. Un tel acte de foi concerne bien sûr l’ensemble du personnel mais surtout et avant tout le
sommet. Si l’élan nécessaire n’est pas donné par la tête, si l’impulsion, les arbitrages ne sont pas
rendus dans un sens favorable, les résultats seront décevants.
Aussi ne s’étonnera-t-on pas de la nécessité d’une morale d’entreprise fondée sur les notions de
solidarité, de la responsabilité, d’objectivité, de discipline.
Ceci suppose évidement que l’utilisation d’un langage commun facilite les consensus.
Dans une opération d’informatisation, le décideur peut être définit comme : - le promoteur,
c’est-à-dire l’autorité responsable d’une action d’informatisation.
Son profit dans cette opération est triple : il est à la fois technicien, organisateur et gestionnaire
(ou chef).
Le décideur doit bien connaître, au plan théorique et pratique les enjeux informatiques, les
caractéristiques des moyens de traitement de l’information, les besoins actuels et futurs de son
entreprise en matière d’informatique ; il doit bien savoir planifier le développement des ressources
(matériels, logiciels et hommes) dont il dispose.
Pour cela, il doit disposer d’un outil inévitable : le plan ou schéma directeur de l’informatique
(cfr chapitre 3).
Le décideur est par définition un gestionnaire. Il doit, de ce fait gérer convenablement, c’est-à-
dire, prévoir, coordonner, contrôler et commander ; par conséquent, il doit posséder les notions de
productivité et de rentabilité, de prévision et d’organisation … Rolland Hurtubise affirme que
l’expérience a montré que les techniques nouvelles de gestion ont des chances de se révéler utiles
seulement le jour où les « décideurs » … possèdent une connaissance au moins élémentaire de
l’informatique et de sa portée pratique.
En effet, la prise de décision n’est pas un acte déterministe ; elle concerne toutes les situations
où l’on ne possède pas de méthodes, de recettes toutes prêtes à appliquer dans tous les cas. Par
exemple, dans le domaine de prise de décision en économie, si l’on connaissait les méthodes à
appliquer pour obtenir certains résultats (réduction de l’inflation, suppression du chômage, etc …) en
partant d’information décrivant la situation observée, on pourrait remplacer les ministres des finances
par des ordinateurs qui seraient programmés selon les méthodes.
Le cas où l’Informatique s’impose au décideur, c’est lorsque, par exemple, suite à un flux
abondant d’information à traiter, le décideur n’arrive plus à assimiler le volume toujours croissant ou
encore par manque d’informations pertinentes, et fiables, une prise de décision est impossible.
Ceci peut conduire à une impasse ; le problème du décideur devenant insoluble.
C’est dire que, quand la qualité d’un système d’information manuel se dégrade (temps de
réponse trop élevé, débit insuffisant, fiabilité médiocre, coût prohibitif, on doit penser à son
informatisation. C’est que l’Informatique s’avère être un outil puissant entre les mains d’un décideur.
Chapitre 3
L’INFORMATIQUE
3.1. Définition
Le terme Informatique a été forgé et proposé en 1962 par Philippe DREYFUS à partir de deux
mots suivants : INFORMATION et AUTOMATIQUE.
C’est de la contraction de INFORMA et de TIQUE que dérive ce terme qui désignait alors le
traitement de l’information par des moyens automatiques.
INFORMATION AUTOMATIQUE
INFORMATIQUE
L’Informatique est bien une science dans la mesure où elle constitue un ensemble ordonné de
connaissances relatives à certaines catégories de faits ou de phénomènes et l’ordinateur a été le
catalyseur qui a révélé son existence.
L’Informatique comme science utilise la méthode scientifique : ce qui lui donne ce caractère de
rigueur et de fiabilité.
Mais, l’Informatique est une science neuve et appliquée : neuve dans la mesure où elle est encore au
stade de l’expérimentation et donc incomplète. En effet les méthodes informatiques (d’analyse, de
conception et de programmation) ne sont pas encore définitives et séculaires. Leurs lois, règles et
théorèmes sont encore récents.
L’Informatique est devenue aujourd’hui une industrie, l’industrie de Génie logiciel, l’un des
secteurs de base de l’économie mondiale.
Les données, en anglais data, sont la ressource essentielle de l’entreprise tout aussi important
que les facteurs de production classiques : travail, capital, matières.
Cette ressource présente un coût et une utilité ou valeur au sens que donne à ce mot l’analyse
de la valeur. Les données sont donc susceptibles de faire l’objet d’une gestion rigoureuse.
Dans son sens premier, l’information est l’activité qui consiste à communiquer, à transmettre à
autrui un élément de connaissance sur un sujet donné.
Dans le langage courant, ce mot signifie : renseignement sur quelqu’un ou quelque chose, ou
sur des événements portés à la connaissance de quelqu’un ou du public en général.
Dans son livre, l’Information, Fernand Terrou affirme que l’information est « toutes formes
d’expression, toutes activités qui permettent de diffuser, utilement, dans un public, sous une forme
perceptible par lui, des éléments de connaissances et de jugement »2.
Et, Rolland Hurtubise, dans Informatique et Information, la définit comme «la signification que
l’homme attribue à des symboles.
Quand les données doivent servir à diriger, dans l’ordinateur, les opérations de traitement, elles
sont appelées INSTRUCTIONS. L’ensemble de toutes les instructions pour exécuter ces opérations
constitue un PROGRAMME.
Enfin, les informations secondaires, c’est-à-dire celles qui sont restituées par l’ordinateur après
traitement, s’appellent REULTATS (ou ETATS, lorsqu’elles se trouvent sur papier).
Le but (et donc la finalité) de l’informatique est le traitement de l’information (en anglais, data
processing). Elle désigne l’ensemble des méthodes et techniques spécifiques ou opérations visant à
transformer une information première, la donnée, en information secondaire (produit fini, ou résultat).
2
Fernand terrou, L’information, Ed. PUF, Coll. Que sais-je, 1972
Traiter une information peut consister à la recopier, la transformer en effectuant dessus des
calculs, la comparer avec d’autres informations, la trier, la fusionner avec d’autres. Le traitement de
l’information comporte donc la collecte, le stockage, l’élaboration et la diffusion.
Cependant, une information pour être traitée doit préalablement répondre aux conditions
suivantes :
Ainsi donc, le traitement de l’information peut, chronologiquement, passer par les trois phrases
suivantes :
1. Transmettre les données à traiter (data) sous une forme compréhensible et sur un support
exploitable par la machine
2. Effectuer les opérations (élaborer les résultats)
3. Transmettre les résultats sous une forme compréhensible et sur un support exploitable par le
demandeur.
L’Informatique, dans une entreprise, oblige les dirigeants (ou décideurs) à entreprendre une
réflexion profonde sur ses retombées humaines, politiques et même sociales, d’autant que l’expression
des besoins d’informatisation vient souvent après l’acquisition des matériels et des logiciels.
Aussi, est-il essentiel, pour les décideurs, de se poser les questions suivantes avant de penser
informatisation :
Et, puisque l’introduction de l’Informatique dans la gestion des entreprises se traduit toujours
par des modifications de structure qui peuvent conduire à d’innovations (sources de rentabilité pour
l’entreprise) mais aussi à des graves déboires si certaines contraintes ne sont pas respectées, il est
impératif de préparer une stratégie d’informatisation, un programme, voire un plan Informatique ou
schéma directeur d’Informatique sans lequel aucune entreprise ne peut rien entreprendre avec succès.
Le plan directeur de l’Informatique (le PDI) permet de conduire le manager à passer, comme
disait René Magloire, Président du CEPIA, des pratiques gestiologiques (gestion classique des
entreprises) à des approches managériales des entreprises.
C’est que l’Informatique est perçue comme un défi capital : dans « le défi américain, JJ Servan
Screiber montre à quel point l’avenir de l’entreprise, en particulier, et celui de l’humanité en général,
dépend de la révolution Informatique déclenchée depuis par la « démocratisation » de l’ordinateur due
au progrès de la miniaturisation qui a permis aux composants des ordinateurs de passer de la taille
d’une ampoule électrique à celle d’une tête d’épingle.3
Et, Bruno Lussato, dans le Défi Informatique oppose, sous le nom de Télématique
l’Informatique lourde, centralisée à la micro-informatique qu’il appelle « la privatique, celle-ci est à la
base de la « décentralisation et de la démassification ». Elle découle des ordinateurs individuels outils
proportionnés aux problèmes.4
Cette dernière voie toute nouvelle est fabuleusement prometteuse pour nos entreprises : elle
seule permet d’imaginer.
3
JJ SERVAN SCREIBER, Le défi américain, Dendel, 1967
4
Bruno Lussato, Le défi international
L’informatisation d’une entreprise, de quelle que taille qu’elle soit, est un processus
multidimensionnel et complexe prenant en compte des paramètres aussi diversifiés que les matériels et
les logiciels (aspects techniques), les acteurs humains et les structures (aspects humains et
organisationnels), les gains obtenus et l’impact sur le fonctionnement d’entreprise (aspects
économiques).
Elle s’applique, en premier lieu, aux tâches de gestion où elle rend un excès de service.
Actuellement, dans le monde 90 à 95% des ordinateurs sont utilisés à résoudre des tâches courantes de
gestion à l’intérieur des entreprises.
70 à 75% du temps de travail en entreprise est dévolu au calcul financier et comptable. Cette
situation s’explique aisément par le fait que le langage des chiffres est le plus accessible à l’ordinateur.
• etc …
Les entreprises qui s’informatisent commencent le plus souvent par la paie mais aussi par la
comptabilité (générale ou partielle ou analytique) avant de passer à la gestion commerciale
(facturation, étude du marché) et financière (trésorerie, mouvement des fonds, cash-flow,
budgétisation, etc …).
Les tâches principales effectuées par le service administratif sur un micro-oridnateur sont en
général :
• la facturation et le quittancement (26%)
• la paie (8%)
• la gestion des stocks (2%)
• suivi des clients, achats (4%)
• la préparation des plans à court, moyen et long terme ordonnancement-production (5%)
• la gestion comptable décentralisée et la consolidation (23%)
• les statistiques de ventes (7%)
• etc …
Le service commercial établit des contrats, gère le courrier commercial, prend en charge le
traitement d’une négociation à distance … gère les commandes, le stock, la livraison, la facturation et
la relance, les prévisions et le marketing.
Pour ce faire, ces services (administratif, comptable et financier) peuvent utiliser des logiciels
(programmes d’ordinateurs) de facturation, de paie, de comptabilité ou même des tableurs, des
logiciels de communication et des outils de communication comme le téléphone et le fax.
En informatique, on utilise aujourd’hui des outils complexes qui intègrent plusieurs matériels et
logiciels. Ce sont des réseaux locaux et des systèmes multipostes.
Il est possible d’envisager une intégration du logiciel de paie avec la comptabilité de telle sorte
que les écritures comptables soient automatiquement portées dans les comptes de la comptabilité
générale.
Alors que la gestion du personnel a pour objet d’assurer le respect des règles établies qui
peuvent s’imposer à l’entreprise (code du travail, statut, loi, règlement interne, etc), la gestion
opérationnelle, elle, a pour finalité la prise de décision.
L’entreprise doit rechercher le meilleur équilibre entre ses besoins et les ressources humaines et
financières dont elle dispose tout en maîtrisant le risque social.
Cela suppose une approche à la fois quantitative et qualitative et toute une série de simulation
pour tester à fond les coûts, les avantages et les inconvénients de chaque hypothèse.
L’Informatique fournit au décideur un moyen de disposer d’un outil commun servant de base à
la discussion avec ses collaborateurs et permettant d’alimenter un débat devant conduire à la décision.
Pour cela, l’ordinateur peut éditer des graphiques de structures de population qui décrivent, à
un moment donné, des individus selon un certain caractère, par exemple :
• la répartition des entreprises par chiffre d’affaires ;
• l’évolution des ventes par secteurs ou produits
• la pyramide de l’âge du personnel
• la gestion d’un histogramme des rémunérations, salarié par salarié, pour mettre en évidence les
augmentations individuelles ou générales accordées, avec leur date et motif
• le poids des différents composants de la rémunération dans la rémunération totale (impôt,
sécurité sociale, primes, etc)
Hier, lorsque les chefs d’entreprises, les décideurs ou les gestionnaires parlaient de
modernisation et de productivité, ils pensaient incontestables à leurs ateliers ou à leurs usines et
négligeaient leurs « bureaux ».
Aujourd’hui, ils doivent aussi améliorer les rendements de leurs secrétaires (les cols-blancs) en
se mettant à l’heure de l’informatisation de leurs bureaux, en réorganisation de ce secteur tertiaire.
Et, ceci grâce à l’introduction des outils d’aide à la production (frappe, photocopie) et d’aide au
classement.
3.6.2. La bureautique
C’est un sous-ensemble de l’Informatique de gestion qui l’a précédée d’une vingtaine d’années.
C’est en effet vers les années 70 que la Bureautique est née de la convergence d’une percée
En 1979, le terme fut employé pour la première fois. Il fut officialisé en 1978 par le rapport de
Simon NORA et Alain MINO dans leur « rapport sur l’informatisation de la Société ».
Elle empruntera donc les technologies et les méthodes de l’Informatique et recouvrira d’autres
techniques :
• le minitel (vidéotex)
• les microformes (micrographie)
• la télécopie
• l’agenda électronique
• le courrier électronique
• le traitement de textes et des images
• l’auto-édition
1. Le minitel : est un terminal informatique offrant plusieurs services d’annuaire électronique (fournit
les renseignements téléphoniques : numéro, nom, adresse de l’abonné d’après plusieurs critères de
recherche) ; l’interrogation de banque de données ; messageries ; dialogues en direct, etc …
2. Les microformes : désignent à la fois les microfiches et les microfilms et servent au stockage
(archivage) et la transmission des données.
3. La télécopie : c’est la reproduction à distance d’un document. Le document original, quant à lui, ne
change pas de lieu. Le procédé de transmission est la ligne téléphonique. Le service téléfax permet de
transmettre, en trois minutes, un document de format A4 contenant des chiffres, du texte, un dessin,
une photographie, etc …
6. Le traitement de texte
C’est un logiciel pouvant garder en mémoire un texte saisi et de lui apporter toutes les
modifications désirées sans qu’il soit utile de le taper à nouveau.
Il permet donc un gain de temps appréciable pour les courriers et les textes que l’on veut
présenter de plusieurs façons ainsi que l’élaboration des rapports et des comptes-rendus.
3.7. Conclusion
3. mettre sur pied des systèmes qui aident aux relations externes avec les marchés des capitaux,
les fournisseurs, les actionnaires, les banquiers, etc … en enregistrant tous les flux,
monétaires.
4. augmenter la productivité des cadres et des professionnels (notamment les « cols-blancs ») en
mettant entre leurs mains un outil rapide et fiable, en occurrence l’ordinateur ;
5. créer des structures d’organisation plus solides qui rendent les emplois (de bureau notamment)
plus intéressants et plus viables.
6. réduire, enfin les coûts d’exploitation en faisant des meilleures prévisions et un programme
efficace des activités de l’entreprise.
Ce qui veut dire qu’il y a des traitements que l’on ne peut faire avec l’ordinateur. En claire, cela
signifie qu’il faut maîtriser les possibilités de la machine avant de se lancer dans la réalisation d’une
application.
Elle ne donnera aucun bon résultat si celui qui la met en œuvre ne la maîtrise pas. Elle ne
remplace jamais les compétences, elle aide les gens compétents à travailler mieux et plus vite.
Chapitre 4
Supposons que les services chargés de la gestion d’une entreprise rencontrent les difficultés
suivantes :
• les volumes d’informations à traiter ne cessent de s’accroître ;
• les calculs à réaliser sont de plus en plus complexes ;
• les délais de traitement des informations doivent être de plus en plus courts ; les demandes de
résultats synthétiques sont de plus en plus nombreuses ;
• les archives sont de plus en plus volumineuses ;
• le personnel surchargé est las d’exécuter des tâches monotones et routinières ;
• etc …
La direction peut alors être amenée à envisager une réorganisation des procédures manuelles
existantes. L’Informatique devant théoriquement permettre de résoudre ces problèmes, la direction
peut envisager l’automatisation de certains traitements.
En conséquence, que l’Informatique soit déjà utilisée ou non dans l’entreprise, la direction est
amenée à définir une politique informatique qui constitue le plan informatique. Le plan informatique
doit être défini en fonction des difficultés rencontrées par les services pour accomplir leurs tâches à
l’aide de procédures manuelles, mais aussi en tenant compte de la politique générale de gestion de
l’organisme.
Le but de la « macro-analyse » est de fournir des éléments de base permettant aux Dirigeants de
l’entreprise et aux responsables des services de définir leur politique informatique. Pour ce faire, la
« macro-analyse » doit leur permettre de répondre aux deux questions suivantes :
La macro-analyse doit débuter par une étude générale des procédures manuelles existantes afin
de réaliser une synthèse des difficultés rencontrées dans les différents services.
Cette étude est plus une constatation qu’une recherche des causes des difficultés. Il s’agit
généralement d’effectuer une étude globale des procédures existantes. Une étude plus fine sera réalisée
ultérieurement pour chacune des applications qui sera automatisée et/ou dont les procédures seront
réorganisées.
Dans le cas où les difficultés rencontrées dans les différents services sont connues des
Dirigeants, cette étude se traduit par la réalisation d’une synthèse de ces difficultés, synthèse que les
Dirigeants peuvent réaliser eux-mêmes.
Dans le cas où les Dirigeants perçoivent certains malaises dans les services sans pour autant
connaître les réelles difficultés rencontrées, une commission d’Experts peut être chargée de déceler ces
difficultés et d’en faire une synthèse.
Face aux difficultés qui se posent au niveau de la gestion, les Dirigeants peuvent envisager
l’analyse de différents « problèmes de gestion » en vue de leur automatisation et éventuellement d’une
réorganisation des services concernés. Ces analyses sont alors retenues dans le plan informatique.
Ces analyses sont à prévoir dans un planning en tenant compte d’un ordre de priorité : les
analyses de ces différents «problèmes de gestion » sont inscrites dans ce planning en tenant compte de
l’importance des difficultés rencontrées pour traiter ces problèmes grâce à des procédures manuelles,
mais aussi en respectant un ordre logique imposé par la nature même de ces problèmes :
Exemples. – Il est souvent ambitieux d’envisager l’étude de la comptabilité générale d’une entreprise
avant d’avoir analysé et mis au point la comptabilité des clients et celle des fournisseurs.
Pour la gestion d’un état, il est aberrant d’envisager l’automatisation du trésor avant d’avoir
analysé toutes les applications qui concernent les recettes et les dépenses de cet état (les impôts, les
douanes, la solde, etc.).
Ce n’est pas qu’après avoir réalisé une sérieuse Etude d’Opportunité (pour chacune des
applications), que pourra être prise la décision d’abandonner des procédures existantes au profit d’une
automatisation.
Il faut reconnaître que dans de nombreux cas la décision ferme d’automatiser un « problème »
de gestion est prise sans qu’aucune Etude d’Opportunité ne soit réalisée, et donc sans avoir
sérieusement analyse l’existant.
Différentes formes d’introduction de l’informatique dans un organisme. - Dès 1963, dans son
rapport intitulé « Getting the Most Out of Your Computer », (comment tirer le meilleur parti de votre
ordinateur », Mac Kinsey avait présenté les deux principales méthodes permettant d’introduire
l’Informatique dans un organisme : la méthode des « puits » et la méthode des « étangs ».
Ainsi dans une entreprise, les applications de gestion suivantes peuvent être considérées
séparément :
1. la gestion du personnel (qui comprend la paie),
2. la gestion des clients (qui comprend la comptabilité des clients),
3. la gestion des fournisseurs (qui comprend la comptabilité des fournisseurs),
4. la gestion des stocks,
5. la comptabilité générale,
6. la comptabilité analytique,
7. le contrôle de la production,
8. etc.
Les applications envisagées dans la politique d’un organisme peuvent être étudiées séparément
suivant un ordre séquentiel logique, ou en parallèle (ce qui bien sûr est très ambitieux).
Le plan informatique précise les différentes applications qui doivent être étudiées. Le nombre
de ces applications est toujours assez faible.
L’ordre suivant lequel ces études doivent être réalisées est généralement défini grâce à un
diagramme de Gantt.
Nous trouvons ci-dessous un exemple d’applications informatiques qui peuvent être retenues
dans un plan informatique d’une entreprise moyenne. L’ordre d’étude des applications de ce plan n’a
que la valeur d’un exemple.
Le premier avantage réside dans son « apparente » simplicité de mise en œuvre car les
applications sont développées isolement les unes des autres (nous verrons que ceci n’est pas sans
présenter de graves inconvénients).
Le principal avantage de la méthode des puits est certainement que les applications étudiées
dans optique peuvent être développées afin de ne pas entraîner de profondes modifications de structure
de l’organisation concerné par l’automatisation. Il est en effet presque toujours possible de délimiter
les domaines des applications de façon à respecter la structure des services existants.
Grâce à la méthode des puits, il est possible de « diviser les difficultés en autant de parcelles
(donc d’applications) qu’il se peut pour mieux les résoudre». Il ne faut cependant pas envisager la
réalisation d’une multitude d’applications microscopiques car, dans ce cas, un grand nombre
d’informations seraient traitées de façon analogue par plusieurs applications, d’où lourdeur d’un
système diffus et dispersé et redondance de traitements.
L’étude de chacune des applications peut donc être confiée à une équipe qui la développe sans
se soucier des solutions retenues pour les études des autres applications du plan informatique.
Il est possible d’estimer, puis de déterminer, les charges machine nécessaires pour chacune des
applications étudiées. Il est donc souvent possible d’estimer puis de calculer le coût de l’application, et
ce d’imputer au budget des services concernés.
Quand des Utilisateurs désirent que des modifications soient apportées aux programmes d’une
application réalisée, elles peuvent généralement être effectuées aisément, car elles ne remettent en
cause que l’application concernée par ces modifications.
En définitive, la méthode des puits permet de réaliser des applications portant sur des domaines
bien délimités, d’où réduction des difficultés de réalisation puis de maintenance.
Le principal inconvénient réside dans le fait que les rapprochements, les échangent, les
coordinations, entre applications définies séparément sont très difficiles, voire impossible.
Les extensions d’applications définies séparément sont parfois délicates à mettre en œuvre. En
effet, il est fréquent qu’une application soit définie pour résoudre un ensemble de problèmes, sans que
le traitement de problèmes jugés secondaires soit envisagé lors de sa réalisation. Ainsi, si une
application « paie » est définie sans penser à son extension au traitement des problèmes de la gestion
du personnel, le jour où l’automatisation de cette gestion est envisagée il faut reprendre complètement
la structure de l’application, les fichiers, et presque toujours les documents. Il en est de même pour
transformer une application « inventaire » en une « gestion de stocks ».
Diviser l’ensemble des problèmes de gestion d’un organisme afin de réaliser des applications
indépendantes, nécessite souvent de faire saisir les mêmes informations par plusieurs applications
(d’où redondance de certains traitements).
En conclusion, la méthode des puits est inadaptée à une parfaite intégration des problèmes de
gestion d’une entreprise. En réalité, ceci ne représente pas un gros handicap pour cette méthode
d’approche. Nous verrons en effet que des méthodes plus globales (méthodes des « étangs ») posent de
nombreux problèmes de mise en œuvre, et ne permettent généralement pas non plus de réaliser des
gestions réellement intégrées.
Un sous-système informatique ne doit pas être défini indépendamment des autres. Il faut donc
que les sous-systèmes soient « compatibles », ce qui signifie en particulier que :
• Certains fichier de base soient utilisables par tous les sous-systèmes concernés par leurs
contenus ;
• La saisie des informations destinées à mettre à jour les fichiers de base soit réalisée par
certains sous-systèmes et non par tous ;
• Des fichiers de liaison doivent être définis afin que les sous-systèmes puissent se
communiquer certaines informations.
Nota : - Entre une stricte méthode des « puits » et une méthode des « étangs » utilisée dans le but de
concevoir une gestion complètement intégrée, il existe tous les stades intermédiaires qui permettent de
réaliser des systèmes qui ne soient ni des ensembles d’applications incompatibles, ni des
« dinosaures » monstrueux, mais qui soient des systèmes répondant à un certain souci d’harmonisation
et d’homogénéité.
Comme nous venons de le préciser, cette méthode doit être retenue dans un contexte
d’intégration de l’automatisation des problèmes de gestion d’une entreprise.
Les étapes de sa mise en œuvre ont été indiquées précédemment. Précisons que cette mise en
œuvre ne peut généralement pas être réalisée sur les bases de la structure existante de l’entreprise. En
effet, cette structure repose souvent sur le principe des services cloisonnées alors que le système
informationnel se doit de les intégrer pour être le plus efficace possible.
Etant donné les nombreuses dépendances qui existent entre les sous-systèmes informatiques,
ces derniers doivent être étudiés et réalisés en parallèle.
L’ordre suivant lequel les sous-systèmes doivent être étudiés doit donc être généralement défini
grâce à un réseau PERT.
4.1.4. Conclusion
La méthode des « puits » est actuellement la plus utilisée car la méthode des « étangs » s’est
révélée pour l’instant trop complexe à mettre en œuvre.
Quelle que soit la méthode d’analyse retenue (méthode des puits, ou méthode des étangs), un
certain nombre de problèmes doivent être abordés lors de l’étude d’une application informatique.
Le développement logiciel comprend une suite d’étapes bien définies, ayant chacune un
objectif, une entrée et une sortie distinctes.
4.2.1.1. Introduction
Tout développement logiciel doit commencer par l’étude de ce qui existe, c’est-à-dire l’étude
des procédures et des moyens utilisés pour résoudre les problèmes de gestion dont l’automatisation ou
informatisation est envisagée.
A partir de cette étude de l’existant, plusieurs solutions générales peuvent être envisagées et
esquissées en tenant compte des objectifs fondamentaux de l’application. Certaines d’entre elles
peuvent nécessiter l’utilisation de l’informatique, alors que d’autres envisagent des moyens manuels de
traitement de l’information.
Une décision très importante doit donc être prise à la fin de l’étude d’opportunité : il s’agit de
choisir la solution qui semble apporter le maximum de garanties quant à son efficacité, sa faisabilité, et
ce à des coûts de réalisation et d’utilisation « raisonnables » dans le cadre des objectifs fixés. Nous
supposons évidemment dans ce cours qu’une solution informatique a été retenue à ce niveau de l’étude
d’opportunité.
L’étude d’opportunité précède le démarrage effectif de toute autre étape : elle est aussi appelée
la Préanalyse.
Chacune de ces solutions comporte bien entendu sa part d’avantages et d’inconvénients. Mais
affirmons tout de suite que la première est la plus mauvaise des trois et que, parmi les deux autres, il
faut toujours favoriser celle d’une réalisation personnelle, chaque fois qu’elle possible. Ceci pour
plusieurs raisons :
• Tout d’abord parce que l’informatisation de votre entreprise est une affaire trop importante
pour que vous vous contentiez de plaquer sur votre organisation des méthodes de traitement qui
ne sont pas les vôtres. Ne vous soumettez pas à la tyrannie des logiciels « standards », sous
prétexte qu’ils sont déjà utilisés par beaucoup de monde et que vous n’y connaissez rien vous-
même !
• Car, et c’est là une deuxième raison, en tout état de cause, vous ne pouvez pas ne pas vous
impliquer personnellement dans une opération d’informatisation.
• Enfin, et c’est une troisième raison, ne croyez pas que l’écriture d’un programme soit une
chose inaccessible pour vous.
L’objet de l’analyse organique est de préciser, de détailler les solutions définies globalement au
niveau de l’analyse fonctionnelle.
4.2.4. La programmation
Le but ultime de l’analyse d’une application est de concevoir un ensemble de programmes (ou
sens informatique du terme). Cet ensemble doit constituer un « outil » capable de traiter
automatiquement les informations qui étaient traitées manuellement. Lors de cette étape sont rédigés
les programmes qui traduisent les solutions définies lors de l’analyse.
Les programmes ne fournissent pas toujours les résultats espérés. Il faut les mettre au point. Il
faut parfois reconsidérer certaines solutions définies au niveau de l’analyse organique et parfois même
au niveau de l’analyse fonctionnelle.
Cette phase de « tests » et de mise au point nécessite toujours énormément de temps (il faut
parfois plus de temps pour tester et mettre au point les programmes que pour les rédiger). Cette phase
donc être considérée comme une étape fondamentale de l’étude d’une application.
4.2.6. La formation
Plus les utilisateurs sont conscients des possibilités de l’Informatique, meilleure est la qualité
de leur collaboration. Cette règle est quasiment universelle. Il est donc souhaitable d’initier les
utilisateurs à l’Informatique, et ce avant même le démarrage de l’analyse fonctionnelle et pour certains
d’entre eux avant l’étude d’opportunité.
Ensuite, avant le lancement de l’application, il faut former les utilisateurs aux nouvelles
procédures définies pour l’application informatique.
4.2.7. Le déploiement
Même dans le cas où les tests des programmes de l’application ont donné des résultats très
satisfaisants, il est vivement conseillé de lancer l’application informatique en parallèle avec les
procédures manuelles. Cette étape de lancement doit durer suffisamment longtemps de façon que tous
les programmes de l’application puissent être testés avec le maximum de cas réels possibles. Cette
phase est très pénible pour les utilisateurs car durant cette période ils ont à assurer le travail normal des
procédures manuelles et celui imposé par les nouvelles procédures automatiques. Cette phase ne doit
pas être interrompue avant que les résultats obtenus par les procédures automatiques soient jugés
« satisfaisants » par les utilisateurs.
4.2.8. La maintenance
Chapitre 5
La fonction informatique, une fois introduite dans l’entreprise, modifie la structure et les
fonctions de celle-ci.
La remise en cause des structures a lieu dans l’intégration d’un ensemble d’opérations qui
étaient antérieurement traitées individuellement, dans un processus automatique sans discontinuité.
Elle a remis aussi en cause, dans le domaine de traitement de l’information, les méthodes
traditionnelles de division du travail pour faire prendre conscience de la notion de système
informatique de gestion (S.I.G.) ou système intégré de gestion qui a eu pour conséquence de
bouleverser la hiérarchie des problèmes :
1. L’intégration: ce terme recouvre deux idées complémentaires. Celle du groupement et celle de
coordination de plusieurs éléments en un seul.
On parle donc d’intégration ou de processus intégré lorsque différentes phases d’un traitement
sont enchaînées automatiquement, sans intervention manuelle des hommes.
Niveau 2 : Les trois comptabilités (générale, analytique et budgétaire) utilisent les mêmes
informations ; on dira que la comptabilité est intégrée.
Niveau 3 : Selon leur chronologie, les traitements comptables peuvent faire l’objet d’une
intégration informatique.
Les causes à l’origine de l’intégration de l’automatisation dans une entreprise sont multiples.
Nous pouvons citer :
1. Besoin de soulager l’homme (employé) des tâches répétitives et de fort volume
La nécessité d’un outil rapide (ordinateur) pour rassembler de nombreuses informations, les
ordonner, les rapprocher et les combiner, bref les traiter, en vue d’obtenir des résultats utiles à des
prises des décisions explique le succès immédiat rencontré par le domaine de gestion, d’autant plus
que ceux-ci ont des capacités de travail et des performances étonnantes.
Or, l’entreprise a besoin d’être conduite dans un monde devenu plus concurrentiel et où les
techniques classiques ne suffisent plus à assurer une certaine suprématie, et où la direction même de
l’entreprise réclame des informations rapides, plus complètes, plus cohérentes et plus fraîches.
Les premières applications des ordinateurs à la gestion des entreprises sont intervenues au
niveau de la fonction administrative : calculs, classements, impression. L’informatique y trouvait donc
un champ particulièrement accessible, permettant d’améliorer les rendements et d’alléger les tâches.
Elle a conduit à passer des pratiques gestiologiques (gestion classique des organismes) à des
approches managériales.
3. L’évolution technologique
L’apparition vers les années 1970 de nouvelles technologies (circuits LSI a permis de
construire de processeurs, des mémoires de plus en plus performants et moins coûteux.
Sur le plan humain et matériel, l’introduction de la fonction informatique dans la gestion est
lourde de conséquences.
Ce n’est qu’au terme d’une longue et prudente préparation que le système informatique peut
être mis en place.
Améliorer les dialogues entre informaticiens et non informaticiens, c’est faire bon usage de
l’informatique.
Une fois les dialogues internes améliorés, il va sans dire que la circulation de l’information
devient rapide, sure et fiable. Ce qui permet une prise de décision efficace.
L’ordinateur soulage les hommes des tâches routinières et serviles pour leur laisser le temps de
penser et de réfléchir sur les conditions même de ce travail.
L’Informatique doit en principe avoir un visage humain. Or, la plupart des informaticiens
déshumanisent l’entreprise par une informatisation non contrôlée.
En laissant par exemple les clients d’une Banque seule avec l’ordinateur (distributeur de
monnaie), on risque d’aller tête baissée vers la ruine.
L’informatisation doit se concrétiser par un bilan, un audit informatique qui implique une
comptabilisation des coûts et une approche permettant de contrôler le système.
5.3.5.2. Le chômage
La contrainte de l’emploi n’est pas à négliger. Encore faut-il être juste et ne pas conclure sans
précaution que l’Informatique est inductrice de chômage.
Il est évident que rien ne permet d’affirmer que sans l’aide de cette nouvelle science, les
emplois seraient mieux protégés.
L’Informatique crée des emplois très spécialisés, gonfle la demande à ce propos surtout en ce
qui concerne l’Informatique de gestion.
Ce sont les informatiques de production et les robotiques qui peuvent induire ces chômages
importants.
Aujourd’hui, l’Informatique crée des emplois (hardware, software, etc. ...) mais des emplois de
grosses-têtes.
5.3.5.3. La santé
L’informatisation d’une entreprise permet de mettre en œuvre des techniques évoluées pour
aboutir au système d’organisation le mieux adapté.
Cependant, sur le plan purement humain, l’Informatique entraîne des conséquences quelquefois
nocives à la santé (encore faut-il prouver).
Or, les opérateurs, les pupitreurs, les programmeurs, etc. … sont appelés à utiliser ce type
d’appareil pendant une partie importante de leur temps de travail quotidien.
Il est apparu donc que ceux-ci ont constaté certains troubles liés, pour une part, à la tâche visuelle mais
aussi sans doute à la charge globale de travail que leur impose la lecture en continu.
Le docteur OSTBERG a établi un véritable panorama des problèmes ressentis par les
opérateurs et les utilisateurs des écrans cathodiques :
• Inconfort et fatigue oculaire
• Douleur et irritation
• Céphalées et troubles du système nerveux central
• Tension, lourdeur, sécheresse, gène ou brulure au niveau des yeux
Ces derniers sont de nouveau venus dans l’entreprise mais sont souvent jeunes. Ils ont souvent
une confiance inébranlable en l’avenir de l’Informatique et en leur avenir ; ils sont fiers et tendus de
leurs métiers intellectuels. Ils sont contestataires parce qu’ils ont appris à critiquer les systèmes
existants (voir analyse préalable).
Ces jeunes gens sont des passionnés. Ils viennent d’horizons différents : les uns avec leurs
bagages scientifiques et techniques, les autres avec un diplôme d’ingénieur ou d’organisateur,
d’analyste ou de programmeur ; d’autres, enfin avec leur culture commerciale ou comptable.
La caractéristique principale de ces jeunes gens est de vouloir réussir, réaliser quelque chose, se
réaliser soi-même, ils désirent être consultés, entendus et compris.
En contact avec les non-informaticiens qu’ils ont tendance à minimiser et qui les dédaignent
pour cela, il se pose un grand problème psychosociologique : les conflits de groupes.
Vus par les non-informaticiens, les informaticiens paraissent homogènes : ils ont leurs
langages, leur ésotérisme. Les non-informaticiens ont du mal à reconnaître que même l’opérateur qui
monte les bandes et les disques magnétiques, qui gravite autour d’une machine aussi chère n’est qu’un
ouvrier spécialisé ; que l’ingénieur informaticien qu’ils croient super-compétent n’est qu’un
organisateur généraliste.
L’introduction de la fonction informatique dans l’entreprise si elle n’est pas faite dans le
respect de contraintes, entraîne des problèmes psychosociologiques dus, généralement, au changement
de comportement, des habitudes et à la brisure de la structure hiérarchique.
Quand on veut introduire une nouvelle technologie, en occurrence l’ordinateur, dans une
entreprise, il faut veiller au respect des contraintes :
• La première contrainte qui s’impose à tout chef d’entreprise est de renoncer à considérer que
l’Informatique, que l’ordinateur est une panacée, une solution facile à tous les problèmes de
l’entreprise.
Comment ?
• La deuxième contrainte consiste à faire bon usage de l’Informatique, c’est-à-dire savoir insérer
l’Informatique dans son entreprise, promouvoir cette Informatique et la contrôler.
Faire bon usage de l’Informatique, c’est aussi instaurer le dialogue entre informaticiens et
utilisateurs, c’est améliorer le dialogue décisionnel ; c’est respecter les retombées sociales de
l’Informatique.
5.4. Conclusion
• Elle permet une reprise de décision efficace, une gestion souple et fiable
• Elle soulage les hommes des tâches routinières et ainsi leur laisser le temps de penser et de
réfléchir sur les conditions même de leur travail.
Bibliographie
J.I. Peaucelle et al., Eléments d'informatique appliquée à la gestion, 1988
J.I. Peaucelle, L'informatique pour gestionnaires, Ed. Vuibert, 1986
Jean Folégot, ABC de la gestion, Ed. MARABOUT
Matundu ne-N'KUENO, Eléments d'informatique générale, Ed. EDIBELUX
Mputu Kinsala, Notes du cours d'Informatique de gestion, Ed. EDIMPU, 1996
Saint-Jean DJUNGU, Notes du cours d'initiation à l'informatique, 2003
X. Castellani, Méthode générale d'analyse d'une application informatique, Ed. MASSON, 2ème
édition, 1970
Yves Iasfargue, Une informatique par et pour les gestionnaires, Ed. d'Organisation IFG, 1977
J. Sornet, Informatique de gestion : Analyse et partage des bases de données e 21 fiches, 2ème
édition, Ed. DUNOD, 2007