Une histoire de l’informatique longueur du ruban et le temps de calcul par le nombre d’opérations
à accomplir sur le ruban.
Le mot informatique a été créé en 1962 par Philippe Dreyfus. Il s’agit d’un néologisme de la langue française fait de la contraction Les premières machines à architecture de von Neumann des deux mots “automatique” et “information”. Pour parler du traitement automatique de l’information, les anglo-saxons utilisent La Seconde guerre mondiale qui était une guerre d’action et de les termes de “computer science” ou de “data-processing”. mouvement a été déterminante dans l’avènement de l’informatique. Jusqu’à la fin de la guerre, le principe général L’informatique, comme discipline scientifique et technique, s’est d’organisation est booléen et copié sur la Pascaline conçue en déployée sur deux siècles environs : 19ème et 20ème siècle. Elle 1641, réalisée en 1645. Les améliorations apportées concernent la est liée à l’apparition des premiers automates et à la mécanisation : vitesse de calcul. un processus de développement et de généralisation des machines qui a commencé au 18ème siècle en Europe avec Si l’histoire de l’informatique retient l’ENIAC comme étant le l’industrialisation. premier ordinateur fabriqué, l’historien des sciences George Dyson parle pour sa part de L’IAS, appelée aussi la machine de Nous devons la première programmation binaire (carton/trou) à von Neumann et dont il est question dans son article fondateur Joseph-Marie Jacquard en 1801. Il s’agissait d’un procédé décrivant l’architecture de l’ordinateur. industriel visant à accroître la productivité des métiers à tisser. John von Neumann en supervisa la construction de la fin de 1945 En 1834, Charles Babbage, considéré comme l’authentique grand- jusqu’en 1951 au sein de l’Institut for Advanced Study. Julian père des ordinateurs modernes, invente la machine analytique en Bigelow fût l’ingénieur chargé de construire cette machine destinée s’inspirant des cartons perforés de Jacquard. La machine à un usage balistique. Les ingénieurs n’étaient pas des physiciens analytique n’a jamais vu le jour de son vivant, car la Couronne théoriciens, ils travaillaient au fer à souder et ce sont des femmes britannique lassée de la longueur des recherches de Babbage a qui assuraient le plus gros de la programmation. La machine de décidé de lui retirer son soutien financier. L’un de ses fils en von Neumann n’a jamais été brevetée contrairement à l’ENIAC qui construisit l’unité centrale (le moulin) et l’imprimante en 1888 et fit a servi au même usage balistique. Alors que l’ENIAC faisait ses une démonstration réussie de calcul de table à l’Académie royale calculs en système décimal, la machine de von Neumann utilisait le d’astronomie en 1908. système binaire. Tous les ordinateurs qui suivront seront calqués sur cette machine. Le développement de l’informatique est lié à la recherche fondamentale en mathématiques et plus précisément à la logique Les générations d’ordinateurs et aux algorithmes mathématiques, apparus au début du 9ème siècle avec les travaux du mathématicien arabe Abu Jaffar Al Certains considèrent que la notion de “générations” est un concept Khawarizmi. marketing, lancé en 1964 par IBM, et n’a aucun intérêt historique. Il est cependant intéressant d’observer comment les ordinateurs se L’informatique a bénéficié en outre de l’introduction du calcul sont transformés au fil du temps, devenant toujours plus petits, binaire en Europe vers 1697, grâce aux travaux Gottfried Wilhelm plus puissants et plus conviviaux. Leibniz , à la formalisation du principe des machines à calculer par Ada Lovelace en 1840 et à la théorisation de la logique binaire par George Boole en 1854. Chapitre 4 L'histoire de l'informatique Alan Turing, le père spirituel Préhistoire En 1936, Alan Turing infirme la théorie de Kurt Gödel et démontre Ancêtres et précurseurs qu’on ne peut pas tout calculer de manière automatique. Il imagine Histoire contemporaine pour sa démonstration un outil qui inspire encore le fonctionnement de nos ordinateurs. Une machine universelle qui manipule des Nous avons choisi de n'aborder l'histoire de l'informatique qu'à la informations – des lettres ou des chiffres – suivant des règles fin de notre présentation, car il nous semble inutile de faire définies dans une table. l'archéologie d'une discipline dont on ne connaît pas les principes. Faire l'histoire de l'informatique, c'est suivre en parallèle l'évolution On peut la représenter comme un appareil qui comporte un ruban de 3 domaines : de papier de longueur infinie avec une succession de cases et un registre mémorisant l’état de la machine. (a) les méthodes de codage (données) ; (b) le calcul automatique (traitements) ; L’opérateur (une tête de lecture/écriture) peut lire ou écrire le (c) la conception d'être artificiels (simulation). contenu d’une case et se déplacer vers la case de gauche ou de droite. A partir d’un mot d’entrée noté sur le ruban, la machine va Ces 3 domaines serviront à baliser chacune des avancées ayant exécuter une instruction. Pour établir un parallèle avec nos ordinateurs actuels, la taille de la mémoire est représentée par la contribué d'une façon ou d'une autre à l'émergence de l'informatique. 1 Préhistoire perforées, également utilisées dans les pianos Quelques méthodes de calcul dans l'antiquité (b) : mécaniques (a) 1818 : Mary Shelley publie "Frankenstein", où l'électricité les premiers "algorithmes" connus datent des babyloniens donne l'étincelle de vie à un être composé à partir de (1 800 av. J.C.) ; morceaux de cadavres (c) abaques : planches de bois avec des rainures sur 1822 : l'ingénieur anglais Babbage fait les premiers plans lesquelles on faisait glisser des cailloux (calculi), en de sa "machine à différences", sorte de machine à respectant la numérotation de position ; calculer mécanique utilisant les logarithmes (b) : trop utilisation de bouliers avérée depuis très longtemps en complexe pour la technologie de l'époque, elle ne sera Russie et en Asie. construite d'après ces plans qu'au XXième siècle. 1832 : invention du langage Morse, pour coder les Quelques mythes faisant intervenir des êtres artificiels (c) : caractères de l'alphabet (c'est un code binaire, composé uniquement des deux symboles : un trait court et un trait long) (a) il est question de "servantes d'or" dans l'Iliade d'Homère ; 1833 : Babbage conçoit sa "analytical engine", encore légende antique de Pygmalion (sculpteur) et de Galatée plus performante (et compliquée) que la "machine à (une de ses oeuvres devenue vivante) ; différence", utilisant des cartes perforées pour enchaîner légende juive du Golem (être d'argile créé par le rabbin l'exécution d'instructions élémentaires sur un calculateur Loew et évoluant dans le ghetto de Prague vers 1580). universel (mécanique) : il passera sa vie et se ruinera à essayer en vain de construire sa machine (a, b). Il sera 2 Ancêtres et précurseurs aidé par Lady Ada Lovelace, fille du poète Lord Byron, qui écrira les premiers "programmes" qu'aurait pu exécuter la XIIIe : fabrication de l'Ars Magna, par Raymond Lulle (b) : machine (le langage de programmation ADA sera ainsi il s'agit d'une "machine logique" faite de cercles nommé pour lui rendre hommage). Cette machine aurait concentriques contenant des mots qui, disposés dans un pourtant répondu aux besoins croissants en calcul dans la certain ordre, forment des questions tandis que d'autres société anglaise, notamment pour l'astronomie et la mots y répondent navigation. XVIe : invention du codage binaire par Francis Bacon (a) 1854 : Le logicien anglais Georges Boole publie son livre et du logarithme (à l'origine créé pour simplifier des The Mathematical Analysis of Logic, où il définit les calculs compliqués) par Napier (b) opérateurs logiques dits "booléens", fondés sur deux 1624 : Wilhem Schickard construit une "horloge valeurs 0/1 pour coder Vrai/Faux (a) automatique calculante" à Heidelberg 1876 : Bell invente le téléphone (a) 1642 : Blaise Pascal, à 19 ans, crée la "Pascaline", 1884 : L'ingénieur américain Hollerith dépose un brevet machine à calculer mécanique à base de roues dentées, de machine à calculer automatique capable de faire des additions et des soustractions (b) ; le 1890 : Hollerith commercialise des machines à calculer langage informatique PASCAL sera plus tard ainsi nommé électriques, utilisées notamment pour traiter en son honneur automatiquement les données d'un recensement aux 1673 : Leibniz, grand mathématicien, améliore la Etats-Unis (b). Les besoins industriels en calcul Pascaline en y ajoutant la multiplication et la division ; par automatique se multiplient. ailleurs, il s'intéresse beaucoup à la numérotation binaire 1896 : Hollerith crée une société appelée "Tabulation avec laquelle il essaie de concevoir une "caractéristique Machine Corporation", qui deviendra en 1924, universelle" dont l'objectif est de réduire toutes les "International Business Machine" (IBM), qui existe opérations logiques à un calcul (b) toujours... XVIIIe : La Mettrie, philosophe disciple de Descartes, 1921 : invention du mot "robot" par Karel Capek, auteur radicalise la philosophie de ce dernier et écrit L'homme dramatique tchèque, dans une de ses pièces (c) machine, où il argumente en faveur d'une vision 1925 : Vannevar Bush, ingénieur américain, construit un mécaniste du vivant (c) (Descartes lui-même aurait calculateur analogique au MIT (Massachusetts Institute of construit un automate à visage humain). Les automates Technology, prestigieuse école d'ingénieur américaine) sont très à la mode à cette époque. L'horloger suisse 1927 : la télévision et la radio deviennent opérationnels Vaucansson en construit de très célèbres parmi lesquels (a) un joueur de flûte et un canard pourvu de fonctions 1931 : l'allemant Konrad Zuse construit un calculateur locomotrices et digestives, exposés à paris en 1738 : leur automatique, le Z1 (b) fonctionnement utilise un "arbre à came" (comme dans les 1936 : Alan Turing propose sa définition des "machines boîtes à musique), codage binaire du mouvement (a). Un de Turing" et Church invente le "lambda-calcul", qui se célèbre "joueur d'échec artificiel" parcours aussi les cours révèlent avoir des capacités de calcul équivalentes (b) européennes à la fin du siècle (il aurait notamment battu 1938 : fondation de Hewlett Packard, société de matériels Napoléon) avant qu'on ne démasque la supercherie : un électroniques nain caché sous la table actionnait en fait le mécanisme 1939 : John Atanassoff et Clifford Berry, son étudiant, (c). conçoivent un prototype appelé ABC à l'université de 1805 : Jacquart crée les métiers à tisser automatiques, l'Iowa, reconnu comme le premier ordinateur digital (b) qui utilisent des "programmes" sous forme de cartes 1939-1945 : pendant la guerre, 1955 : invention du mot "ordinateur" en France, à la o Alan Turing travaille dans le service anglais de demande d'IBM décryptage des messages secrets allemands 1956 : le terme d'Intelligence Artificielle est inventé lors (codés suivant le système appelé "Enigma") : il d'une conférence à Dartmouth, aux Etats-Unis réalise une machine à décrypter qui contribuera à la victoire des alliés (a, b) ; en 1941, il construit 3.2 Deuxième génération : intégration du transistor le " Colossus " à l'université de Manchester (bientôt suivi du Mark I et du Mark II), premiers 1958 : l'IBM 7044, 64 Koctets de mémoire, est le premier ordinateurs européens avec le Z3 de Konrad ordinateur intégrant des transistors ; John McCarthy Zuse qui, pour la première fois, propose un invente le LISP, premier langage de l'Intelligence contrôle automatique de ses opérations Artificielle o John Von Neumann, travaille sur les calculs de 1959 : conception de COBOL (Common Business balistique nécessaires au projet Manhattan Oriented Language) : langage de programmation (conception et réalisation de la première bombe spécialisé pour la gestion et le domaine bancaire, encore atomique américaine) (b). utilisé de nos jours et du langage LISP (List Processing), 1945 : John Von Neumann écrit un rapport où il propose adapté à des applications d'intelligence artificielle l'architecture interne d'un calculateur universel 1960 : conception de ALGOL (ALGOrithmic Language), (ordinateur), appelée désormais "architecture de Von langage évolué de calcul scientifique Neumann". 1946 : construction de l'ENIAC à l'Université de 3.3 Troisième génération : les circuits intégrés Pennsylvanie, dernier gros calculateur électrique programmable (mais pas universel) : il fait 30 tonnes, 1962 : le terme "informatique" est créé en France par occupe 160m2 et sa mémoire est constituée de 18 000 contraction de "information automatique" tubes à vide, sa puissance est équivalente à celle d'une 1964 : utilisation des circuits intégrés (circuits petite calculette actuelle (b) ; pendant ce temps, Wallace électroniques miniatures) Eckler et John Mauchly conçoivent le Binac (Binary 1965 : le premier doctorat (thèse) en informatique est Automatic Computer), qui opère pour la première fois "en attribué à l'université de Pennsylvanie ; conception du temps réel" mais ne sera construit qu'en 1949, avec langage BASIC (Beginners' All-purposes Symbolic l'apport de Von Neumann Instruction Code) et du langage PL/1 (Programming 1947 : invention du transistor (qui peut être vu comme un Language 1) interrupteur miniature) 1969 : premier essai de transfert de fichier à distance par 1948 : Claude Shannon publie sa Théorie mathématique le réseau Arpanet, ancêtre d'Internet ; invention du de l'information, où est introduite la notion de quantité langage PASCAL par Nicklaus Wirth d'information d'un objet et sa mesure en bits (a) ; l'année 1971 : introduction des disquettes pour l'IBM 370 ; suivante il construit la première machine à jouer aux conception du langage LOGO, destiné à l'initiation échecs pédagogique aux concepts de la programmation 3 Histoire contemporaine 3.4 Quatrième génération : les micro-ordinateurs A partir de cette date, l'ordinateur existe et son histoire matérielle se réduit donc à l'évolution des progrès technologiques, qu'on 1972 : conception du langage C, particulièrement adapté découpe habituellement en termes de "générations". Les avancées à la programmation et à l'utilisation de systèmes conceptuelles les plus spectaculaires concernent, elles, d'exploitation principalement la conception de nouveaux langages de 1973 : apparition des premiers micro-ordinateurs munis programmation évolués. d'un clavier et d'un écran ; création de MICRAL, le premier micro-ordinateur français, et invention à Marseille 3.1 Première génération : les monstres du langage PROLOG (PROgrammation LOGique), par Alain Colmerauer 1949 : construction de l'EDVAC, premier ordinateur 1975 : Bill Gates commercialise le langage BASIC et crée construit suivant l'architecture de Von Neumann et la société Microsoft avec Paul Allen ; le premier magasin stockant ses données sur disques magnétiques spécialisé en informatique ouvre en Californie 1950 : Turing écrit un article dans une revue 1976 : conception du langage Smalltalk, qui introduit la philosophique pour argumenter que le modèle des programmation "orientée objet" ordinateurs peut réaliser tout ce que fait l'esprit humain 1977 : création de la société Apple par Steve Jobs et 1952 : IBM commercialise les premiers ordinateurs à Steve Wozniak et commercialisation de l'Apple II, premier lampes et à tubes à vide, IBM 650 puis IBM 701 micro-ordinateur largement diffusé 1954 : premiers essais de programmation avec le langage FORTRAN (FORmula TRANslator), encore utilisé de nos 3.5 Cinquième génération : l'interface graphique et les réseaux jours pour le calcul scientifique Les japonais avaient annoncé pour les années 90 l'apparition d'un nouveau type d'ordinateurs "cinquième génération" dédiés à des applications d'Intelligence Artificielle, mais ces machines d'un nouveau genre n'ont jamais vu le jour, et les évolutions majeures récentes sont plutôt à chercher du côté d'Internet.
1983 : conception du langage ADA (en hommage à Lady
Ada Lovelace), extension du langage PASCAL, pour répondre à une demande de la NASA 1984 : Le McIntosh d'Apple introduit pour la première fois une interface graphique (menus, icônes...) et la souris ; conception du langage C++, version orientée objet du langage C 1992 : création de Mosaïc au CERN de Genève, premier navigateur permettant de visualiser des pages Web (et donc ancêtre de Netscape, Mozilla, Firefox...) 1995 : Windows 95 généralise l'interface graphique sur les PCs. 1998 : naissance de Google
L'analyse technique facile à apprendre: Comment construire et interpréter des graphiques d'analyse technique pour améliorer votre activité de trading en ligne.
Secrets du Marketing des Médias Sociaux 2021: Conseils et Stratégies Extrêmement Efficaces votre Facebook (Stimulez votre Engagement et Gagnez des Clients Fidèles)
L'analyse fondamentale facile à apprendre: Le guide d'introduction aux techniques et stratégies d'analyse fondamentale pour anticiper les événements qui font bouger les marchés
La communication professionnelle facile à apprendre: Le guide pratique de la communication professionnelle et des meilleures stratégies de communication d'entreprise