Vous êtes sur la page 1sur 6

INFORMATIQUE - Histoire

Article écrit par Pierre GOUJON

Prise de vue
Un usage bien établi associe le mot « informatique » à l'ensemble des opérations de traitement de l'information effectuées à l'aide de machines électroniques perfectionnées conçues par essence pour aider l'être humain à surmonter au mieux l'opposition classique qui sépare dans ses activités la compétence de la performance. Les premières machines ont eu effectivement pour mission de pallier les insuffisances humaines en matière de performance de calcul : il s'agissait, par exemple, de résoudre des équations différentielles complexes pour la météorologie, de calculer les paramètres permettant la fabrication de la première bombe atomique, de procéder au recensement des citoyens américains en manipulant d'énormes quantités de données en un temps relativement bref. Ce qu'on savait imaginer naturellement (compétence) mais pas vraiment réaliser (performance). Ces machines, qui n'étaient alors que des calculatrices électromécaniques puis électroniques (computers), ont été ensuite détournées de leur but initial et sollicitées pour accroître la performance du couple homme-machine dans le domaine plus vaste des données non numériques. Dès le début des années 1950, le traitement de l'information acquiert droit de cité. Et le calculateur devient data processing machine, littéralement « machine à traiter les données » (qu'on baptisera bientôt « ordinateur » en France), sans aucune restriction sur la nature des données manipulées.

I-L'informatique à la conquête de l'entreprise
À peine sorti des laboratoires de recherche, et immédiatement installé dans les grandes universités, pour la plupart américaines et britanniques (la technologie informatique se développera à ses débuts sans la France), le calculateur électronique est vite dirigé vers les grandes administrations. Cela signifie que, très tôt (dès 1951, avec l'Univac), son champ d'application se dédouble, faisant apparaître deux grandes classes d'activités : scientifiques, d'une part, administratives et commerciales, d'autre part. Les machines sont alors énormes, elles consomment une énergie phénoménale et occupent une salle spécialement aménagée (l'air conditionné étant un élément d'environnement indispensable). Dès 1954, elles commencent à investir les grandes entreprises publiques et privées. Dans les premiers temps, à cause de la prédominance du « matériel » (hardware), héritée de la mécanographie, et en raison du fait que le système binaire et ses dérivés sont les seuls systèmes de codification externe mis en œuvre, les relations entre l'homme et la machine sont complexes et nécessitent le recours à des spécialistes. La structure de l'entreprise en est aussitôt modifiée ; un pôle puissant apparaît, le département informatique, qui prendra de jour en jour une importance considérable et constituera très vite un nouveau centre de pouvoir. La nécessaire centralisation des ressources (puissance de calcul et capacités de stockage) et la concentration des informations clés relatives au fonctionnement et à la stratégie de l'entreprise confèrent aux cadres responsables de la mise en place de cette technologie de pointe un rôle prédominant. En même temps, de nouvelles professions spécialisées apparaissent. Elles correspondent aux différentes étapes du processus de traitement des données, selon le cheminement utilisateur final, données d'entrée, machine, résultats, utilisateur final. Ces techniciens sont des intermédiaires obligés pour cause d'incompatibilité de langage entre l'homme et la machine. On trouve ainsi, dans la chaîne des travaux : – l'analyste, qui traduit les besoins de l'utilisateur final en un schéma logique (organigramme) décrivant la succession des opérations nécessaires pour aboutir à un résultat exploitable ;

devenant de plus en plus compacte avec des circuits de plus en plus rapides. de sortie. on s'aperçoit que l'informatique.. Elles peuvent exécuter des opérations de lecture et d'écriture sur des cartes perforées (un souvenir de la mécanographie). II-Les années 1960-1970 : les constructeurs font la loi On dispose donc. Pour illustrer cela. C'est une industrie qui ne crée pas vraiment les outils de son développement. informations de contrôle et de séquencement des travaux . se contentant de détourner les objets issus des efforts innovateurs des autres secteurs industriels. de machines spécialisées dans les opérations d'« entrées-sorties » (input-output). Des imprimantes. Par parenthèse. n'est pas un domaine d'innovation : elle emprunte ses lampes à la radio. L'unité centrale présente des caractéristiques assez communes d'un constructeur à l'autre (les entreprises se copient plus ou moins. permettent d'obtenir des états imprimés à peu près lisibles. puis une machine à écrire connectée. – le préparateur.. supports des informations d'entrée. Côté pilotage de l'ensemble. s'insérant dans une logique prioritaire de profit à court terme. caractérisée en effet par : l'exploitation de besoins plus suscités que réels . – le spécialiste de la saisie. au début des années 1960. et aussi surprenant qu'il paraisse. selon l'expression consacrée.) . Cet ensemble correspondait assez bien à l'idée qu'on se faisait de la cybernétique alors à la mode. uniquement justifiée par des raisons de stratégie d'occupation de marchés . les premiers écrans vidéo apparaissent pour afficher des informations en clair (ou presque) et non plus des vues plus ou moins compliquées de sorties d'oscilloscopes. sur des bandes magnétiques (un souvenir des premiers magnétophones) ou sur des disques (un souvenir des gramophones). C. mais le procédé demeurait peu pratique et il fallait bien maîtriser le système de numération binaire. on rappellera que la première tentative de commercialisation d'ordinateurs fut un échec (Mauchly. Toute cette organisation fonctionne autour du noyau technologique dur constitué par l'unité centrale et l'ensemble des périphériques attachés. Il faut leur ajouter les spécialistes chargés de la maintenance des installations. Elle évolue cependant rapidement. Il semble bien que l'informatique s'impose d'abord comme une industrie d'inspiration typiquement libérale. ses transistors à l'industrie spatiale. Ce qu'on appelle aujourd'hui interface homme-machine avait été négligé au début. chargé de mettre en place et de vérifier l'ensemble des moyens matériels et logiques nécessaires au traitement. en 1951). chargé de la surveillance de l'ordinateur et de ses systèmes périphériques en cours d'exploitation. on assemble. On avait commencé par utiliser des tableaux de connexion précâblés. on multiplie les équipements spécialisés qui permettent de diversifier les moyens d'échange des données entre le monde extérieur et l'unité centrale.– le programmeur. ses écrans à la télévision. etc. tout en maintenant un niveau d'incompatibilité propre à sauver leurs investissements et à garder captifs leurs clients). La capacité de ses systèmes de stockage (mémoires) s'accroît spectaculairement. ses périphériques à diverses autres disciplines. Dès lors. mais bruyantes. L'ordinateur répondait en allumant des lampes sur le panneau de contrôle ou en actionnant la machine à écrire. – l'opérateur. Du côté des organes périphériques. une recherche avant tout appliquée. parce que la prouesse technologique avait été privilégiée au détriment de la . Univac-I. (ou développeur) qui traduit l'organigramme en un programme rédigé selon les règles d'un langage plus ou moins évolué (Cobol. Pascal. encombrantes et lentes. qui transfère sur un support physique approprié les informations (programmes et données) destinées au traitement électronique proprement dit . sur des bandes de papier perforées (un souvenir de la télégraphie). on exploite plutôt qu'on n'innove. au moins à ses débuts. une explosion de modèles et de familles de machines.

et malgré une brève descendance avec la série Micral de Bull. En dépit de la mise au point de langages de haut niveau. Jusque dans les années 1960. dans ses grandes lignes. mais aussi les directeurs informatiques des entreprises qui voient surgir les PC un peu partout.M. la connaissance des éléments clés du traitement de l'information échappe à beaucoup d'utilisateurs. et la fin de l'ère des ordinateurs dits de troisième génération. un poste de télévision ou un magnétophone. alors. une apparition fracassante en mettant sur le marché de la grande consommation le premier ordinateur personnel familial vendu comme un aspirateur.B. les machines exigent un entretien assez suivi. Telle est. De nombreuses sociétés (Compaq.B. 709x. En 1973. En dépit du dédain affiché par ses dirigeants.B. comme le Fortran ou le Cobol. dans les bureaux. etc.M. En outre. elle-même. ce produit ne résistera pas à la future vague des PC (personal computer) d'I.. En fait. grâce au développement d'interfaces homme-machine graphiques conviviales (tel le célèbre Windows de Microsoft). et mis à part le 1401 et ses dérivés.B. Mais la technologie. I. Dans le même temps. inadéquats ou peu fiables. vers les années 1980 : l'apparition du micro-ordinateur. Une compétition farouche se met en place. III-L'avènement de la micro-informatique Le premier micro-ordinateur professionnel fut français. d'une manière assez anarchique. Apple fait.B.B.. C'est ainsi qu'on installe chez les clients des équipements souvent surdimensionnés. Le PC abandonne la cassette et s'enrichit de lecteurs de disquettes d'une capacité de .M. les succès de cette firme furent plus commerciaux que technologiques.stratégie de marché. ce qui fait que les constructeurs profitent largement d'un marché à la fois captif (pour des raisons d'ordre technique) et en pleine expansion. comme les séries 707x. met. élaborés par des comités composés de représentants d'usagers et de constructeurs. le PC entre dans l'entreprise. L'ordinateur personnel ou PC (personal computer) lancé en 1981 par la société I. l'ingénieur François Gernelle développe au sein de la société R2E.B. Il intéresse énormément les cadres en raison des possibilités qu'il offre dans deux domaines privilégiés : le traitement de texte et les applications de type « tableur » (calculs sur des données organisées en tableaux numériques).M. clavier universel. de contrôler le marché de la micro-informatique.B. permettant d'envisager de nombreux ajouts de périphériques et l'utilisation de nombreux logiciels.M. qui nécessita le développement de systèmes spéciaux de simulation et/ou d'émulation des autres produits d'I. la révolution est d'une autre nature. Faute de ressources financières. l'informatique dite « domestique » (ouverte aux particuliers) se généralise. son premier PC sur le marché. Premier ordinateur personnel d'I. 708x. I. entre machines d'une même société. le Micral N.B. non seulement d'un constructeur à l'autre. C'est le cas par exemple de la série 1400 d'I. et présente une architecture « ouverte ».M. en 1981...M.M. L'objet est génial mais surtout tourné vers des activités ludiques. en effet. permettant momentanément à I.M. ce qui suscite immédiatement un engouement dans le grand public. Avec son véritable système d'exploitation et son architecture ouverte. Le micro-ordinateur s'enrichit d'un véritable système d'exploitation (MS-DOS de Microsoft). la situation de l'informatique en Europe et aux États-Unis jusqu'à la conjonction de deux événements cruciaux.) commercialisent des machines à vocations diverses. Sans parler de la totale incompatibilité des machines. surprend tout le monde : la compagnie I. en 1978.(IBM Archives) Dès son appartion. système d'exploitation.M. présentant tous les caractères des futurs ordinateurs personnels des années 1980 : microprocesseur. Cet événement. qui se lança tardivement dans la course. totalement imprévu. qui doit mettre en place une stratégie nouvelle. Atari. etc. avec la série 360. réagit en adaptant son micro-ordinateur à ce nouveau marché. sut parfaitement intégrer la dimension commerciale de l'affaire. souvent. qui se ressemblent toutes et qui sont incompatibles. dépasse la plupart des utilisateurs. mais aussi. écran cathodique.B. I. ce micro-ordinateur se répand rapidement. Amstrad.

la tentative d'I. avec le développement des microprocesseurs. ainsi que les exigences d'accès aux ressources informatiques. Certains servent simplement d'intermédiaire pour les opérations d'entrée (par le clavier) et de sortie (par l'écran). la « grande ». enfin. qui est lié à la notoriété et à la puissance d'I. les curieux. Et l'ère des clones commence. Le frontal et les contrôleurs ont pour mission de soulager le système central des tâches de gestion des communications qui sont de plus en plus complexes . On produit des tonnes de papier. etc. de nouvelles méthodes d'accès sont mises au point qui permettent aux utilisateurs de dialoguer directement et à distance avec l'ordinateur central. Il en résulte une plus grande autonomie des utilisateurs pour lesquels on invente le concept de « machine virtuelle » : à un instant donné. Le système qui semblait s'être un temps démocratisé par la multiplication des moyens d'accès à l'information génère ses propres contraintes. SNA (System Network Architecture). d'autres grands constructeurs se lancent dans l'aventure. dans une ambiance de concurrence sauvage marquée par la prédominance et l'agressivité des industriels d'Asie. car les performances des moyens d'entrée de l'information brute et des moyens de sortie de l'information traitée ne suivent pas les gains de performance des unités centrales. zones protégées.M.. chacun bénéficie d'un accès direct à l'unité centrale. De nouveaux appareils prennent place dans les bureaux.. Il faut alors d'urgence imposer un ordre. le total des ventes mondiales atteint dix millions de machines.160 kilooctets (ko) d'abord. D'abord.O. ce dernier pourra se consacrer exclusivement à ce pour quoi il est fait : calculs. et chargé d'une nouvelle responsabilité. Un disque dur (technologie dite Winchester) apparaît. Progressivement. Les conséquences de cette nouvelle approche sont multiples.S.B. des activités de chaque utilisateur. dans des environnements de « grands sites ». Accès réservés. donne au PC un statut de standard de fait. Vers la fin des années 1970. L'intégration des terminaux constitue une des composantes de ce qu'il est convenu d'appeler la « quatrième génération » des systèmes informatiques. (International Standards Organization) définit avec obstination (c'est-à-dire en dépit de l'obstruction d'I. Dès le milieu des années 1970. lance son concept d'architecture centralisée de réseau. une partie des ressources de l'ordinateur central est réservée à l'utilisateur qui. etc. n'est pas isolée. avec possibilité d'extension. on observe un accroissement considérable du trafic . « voit » ainsi l'équivalent d'une machine qui lui serait exclusivement affectée. Les unités de mémoire de masse prolifèrent. avec des capacités de stockage accrues et des procédures de gestion relativement lourdes. IV-La naissance des réseaux De son côté.M. Les architectures et les structures (machines et organisations) sont désormais caractéristiques de la « troisième génération ». Digital avec Decnet.B. en retour. a poursuivi son évolution propre. investi d'un nouveau pouvoir. pour des motifs d'efficacité. où se dessine le schéma général des grands réseaux construits autour d'un ordinateur central puissant (host) qui communique avec une myriade de terminaux par l'intermédiaire d'un « frontal » et d'un certain nombre d'ordinateurs spécialisés. avec les nouvelles méthodes d'accès. l'administrateur du système. La mémoire principale (mémoire RAM. celui qu'une instance internationale. les malins et les espions commencent à s'infiltrer dans les fichiers de données de l'entreprise. avec une capacité de stockage dépassant la dizaine de millions d'octets. Car. c'est-à-dire très centralisées. On se trouve déjà en présence d'un réseau. L'asphyxie menace les centres informatiques. random access memory) est portée à 640 ko. dont la topologie est en premier lieu celle d'une étoile.B. l'I. C'est l'époque où I. dans les ateliers et derrière les comptoirs : les terminaux. et en dépit des systèmes de sécurité. un modèle général d'architecture s'impose. l'autre informatique. les types d'applications se multiplient .M. identificateurs. Mais déjà. le contrôle. stockage des données. Les types d'applications se multiplient. ils offrent quelques possibilités de traitement local et annoncent la future et proche décentralisation de la puissance de traitement. mots de passe.B. puis de 360 ko. aujourd'hui clé de voûte des structures informatiques. D'ailleurs. matérialisé par des procédures de plus en plus strictes de régulation et de contrôle. la surveillance de l'intégrité des données et des procédures de l'entreprise.M. sont les obsessions d'un nouvel acteur. comptes rendus (reporting). dont le produit SNA . des terminaux dits « intelligents » apparaissent . les contrôleurs de communication. de son terminal. Chacun offre ainsi sa propre solution d'architecture de réseau : Bull avec DSA (Distributed System Architecture). ce sont des terminaux dits « idiots » (dumb terminals). En 1987. ensuite. Ce succès.

Pour quoi faire ? Pour transmettre des données (qui ne seront plus seulement alphanumériques. les supercalculateurs. on va pouvoir commencer à travailler sur des réseaux aux topologies variées. l'ensemble des besoins des groupes de travail. pour des applications locales.O. personnalisée. comme on les appelle. dès le début des années 1990. En pratique. etc. au plus près et au plus vite. ou SDH (Synchronous Digital Hierarchy. le tout au niveau local). et 'accéder ainsi à l'ensemble des données de l'entreprise. Ce sont des ordinateurs de moindre puissance (mais l'évolution de la technologie leur permettra tout de même d'atteindre assez rapidement des performances remarquables). Désormais. En dix ans. des services.présentera longtemps une structure différente de celle de l'I. Cette situation montre bien qu'un mouvement se dessine dans les choix des structures. capable de traiter d'importantes quantités de données locales. efficaces et bon marché. ou entre réseaux locaux et réseaux étendus. En effet. leur configuration s'enrichit de logiciels de communication et d'adaptateurs particuliers (qui vont permettre leur connexion à des lignes de téléphone ou à des câbles spécialisés). de communication. ils se confondent avec la classe dite des « minis ». d'une entreprise à l'autre. contrôleurs de communications. Tout en haut. constituants matériels d'extrémité de ligne. d'un point à l'autre dans un même département. leur niveau de performance atteint celui qui était il y a peu celui des minis. D'autres machines spécialisées – « routeurs ». jusqu'à l'application du client. On est au comble de la décentralisation. viennent relayer le système central pour ces tâches. Ces réseaux locaux font appel à des architectures caractéristiques où le schéma dit « client-serveur » est devenu une nécessité. pour les activités propres aux services du département. gestion des communications. d'un département à l'autre au sein d'une même entreprise. puis les gros systèmes centraux. 1989. V. Une sorte de hiérarchie s'établit donc entre les différentes machines. La physionomie de l'informatique évolue donc encore. cités ici pour mémoire. Ces « serveurs » sont des serveurs de fichiers. logiciels de communication. gestion des impressions.Le triomphe de la décentralisation Avec tous ces outils (ordinateurs centraux. Chaque « couche » logicielle décrit une étape de traitement des éléments constituants de la communication. les micro-ordinateurs. qui ont pour mission de mettre en relation des dizaines. Il ne leur manque qu'une chose : pouvoir communiquer les uns avec les autres ou avec un ordinateur central. liaisons physiques.S. avec les capacités d'un mini) a pour mission de « servir » les demandes des « clients » que sont les applications des utilisateurs connectés au réseau local.. Ils constituent une classe nouvelle d'ordinateurs entre les gros ordinateurs (main frames) et les micro-ordinateurs évoqués plus haut. des petits départements. Les grands réseaux deviennent des réseaux « fédérateurs ». mais. et affectés à des tâches de services spécialisés (gestion des fichiers et des bases de données. mais répandu dans le monde entier).) le fameux modèle de communication à sept couches. et même faire communiquer des réseaux aux structures hétérogènes. les minis et. moyens de transport de l'information. C'est le début de la grande période des réseaux. des backbones. d'impression. pour des liaisons complexes à très haute vitesse. logiciels gestionnaires de réseaux). 1985. le département dans l'entreprise fait maintenant valoir ses besoins spécifiques qui sont de deux types : des besoins locaux. etc. comme avec un simple terminal. faisant renoncer à l'extrême centralisation qui avait été la règle peu de temps auparavant. mais qui s'étendront bientôt aux images et aux sons). ou même entre configurations de backbone. délocalisés. de communiquer. On retiendra à ce propos le succès des transmissions par fibres optiques faisant intervenir des protocoles spécifiques. aux États-Unis). Cette fois. liaisons logiques. on va parler d'informatique répartie. Les ordinateurs « départementaux ». voire des centaines de petites structures – les réseaux locaux – chargées de satisfaire au mieux. et des besoins d'échange avec l'extérieur pour les activités qui déterminent la contribution du département au fonctionnement global de l'entreprise. au bas de la hiérarchie. Ils bénéficient désormais de logiciels variés. aussi. La construction de l'édifice s'achève. Les débits accessibles . Sans tarder. SONET par exemple (Synchronous Optical NETworking. « passerelles ». Une machine dédiée (un micro-ordinateur performant. commutateurs – permettent d'établir des relations entre réseaux locaux s'appuyant sur des protocoles de communication différents. en Europe. Grâce au perfectionnement des microprocesseurs. les individus peuvent travailler sur une station de travail intelligente. ces derniers ont connu une formidable expansion.

Masson. Midland (Mich.... via le téléphone. adresses là encore universelles. les messages non sollicités. Alors. Internet. Paris. ». pour un éventail infini d'activités. D'où le développement simultané de moyens de protection contre le piratage.U.. BRETON. le plus célèbre et le plus utilisé). mais il ne s'agit plus ici d'un monde géographique. H. les interdites. ou e-mail) a dominé les échanges. 1999. M. C'est qu'entre-temps le dernier avatar de la technologie des réseaux. BIRRIEN. 1987 R. et le formidable essor des techniques de cryptage. met bien en évidence une contradiction propre à notre société partagée entre un besoin exacerbé de communication et une méfiance croissante à l'égard de l'autre. Paris. • . grâce à des « moteurs de recherche » ultraperformants. le « réseau des réseaux ». à l'inverse celui-ci peut aussi accéder aux ressources propres de cet utilisateur nouveau qu'on appelle « internaute ». D'ailleurs. mais bien d'un monde « moral ». 1990 J. de la connaissance (sans parler du monde virtuel.F. tout équipement informatique connectable au réseau est identifié par un numéro unique mondial. où chacun peut se doter d'un représentant graphique personnalisé. donc. de même. (« adresse IP ») .peuvent atteindre 10 milliards de bits par seconde (10 Gbit/s) pour le niveau STM-64 (Synchronous Transport Module) de SDH ou même 40 Gbit/s pour la version STM-256). le caractère prédominant de l'évolution. The Computer Store. Préhistoire et histoire des ordinateurs : des origines du calcul aux premiers calculateurs électroniques. chaque utilisateur.. pour tous et à grande vitesse. Une histoire de l'informatique. 1991 R. R. avatar interactif évoluant dans un « cyberespace »). Histoire de l'informatique. L'Informatique éclatée. à cet égard.. Pierre GOUJON Bibliographie • • • • J. voire l'espionnage. LIGONNIÈRE. 1984. Y. y compris les sulfureuses. Seuil. on « surfe » sur le Net. et à des capacités d'accès étendues utilisant de nouvelles technologies de transport de l'information.. ses « coupe-feu ». a ouvert à l'utilisateur final l'accès à l'immense base de données des connaissances du monde entier. Paris. ses « antivirus ». Paris. le monde des idées. avec ses « antispam ». chaque ressource logique. possède son adresse unique. On explore toujours. SAUTEUR. ce qui fait qu'aujourd'hui ce sont les courriels (pour courrier électronique) qui constituent l'essentiel du trafic sur Internet. la terminologie est significative : on utilise un « explorer » un « navigateur ». De ce point de vue. les virus informatiques. par exemple Google (1997. L'information devient disponible partout. la malveillance. les intrusions inopportunes. 1992 P. physique.. MONTGOMERY. 2e éd.). DESAINT-QUENTIN & B. H. c'est l'intégration de l'individu dans un système de communication mondialisé qui fait la part belle aux relations multiples entre personnes . en France). par exemple l'ADSL (asymmetric digital subscriber line. Car si on peut accéder aux ressources du monde entier. On le voit. VI-Personne n’est une île « Personne n'est une île et chacun de nous est un territoire du continent humain. en peu d'années la messagerie électronique (mél. Lequel devient en même temps fragilisé par la curiosité indésirable. Laffont. P. l'informatique du début du IIIe millénaire. Montgomery. rien n'illustre mieux l'évolution caractéristique des principes et des méthodes de l'informatique à partir de 1990 que ce court extrait d'un poème du philosophe et poète anglais John Donne (1573-1631).