Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION A
L’INFORMATIQUE GENERALE
(HISTORIQUE DE L’INFORMATIQUE)
Copyright © 2022 2i
I. HISTORIQUE
Le mot informatique a été créé en 1962 par PHILIPE DREYFUS. Il s’agit d’un néologisme
de la langue française fait de la contraction de deux mots « automatique » et « information ».
Pour parler du traitement automatique de l’information, les anglo-saxons utilisent les
termes de « Computer science » et de « data Processing »
L’informatique comme disciple scientifique et technique, s’est déployée sur deux siècles
environs : 19eme et 20eme siècle. Elle est liée à l’apparition des premiers automates et à la
mécanisation : un processus de développement et de généralisation des machines qui a
commencé au 18eme siècle en Europe avec l’industrialisation.
En 1936, Alan Turing infirme la théorie de Kurt Gödel et démontre qu’on ne peut pas tout
calculer de manière automatique. Il imagine pour sa démonstration un outil qui inspire encore
le fonctionnement de nos ordinateurs. Une machine universelle qui manipule des informations
– des lettres ou des chiffres – suivant des règles définies dans une table.
On peut la représenter comme un appareil qui comporte un ruban de papier de longueur infinie
avec une succession de cases et un registre mémorisant l’état de la machine.
L’opérateur (une tête de lecture/écriture) peut lire ou écrire le contenu d’une case et se déplacer
vers la case de gauche ou de droite. A partir d’un mot d’entrée noté sur le ruban, la machine va
exécuter une instruction. Pour établir un parallèle avec nos ordinateurs actuels, la taille de la
mémoire est représentée par la longueur du ruban et le temps de calcul par le nombre
d’opérations à accomplir sur le ruban.
II. LES PREMIERES MACHINES A ARCHITECTURE DE VON
NEUMANN
La Seconde guerre mondiale qui était une guerre d’action et de mouvement a été déterminante
dans l’avènement de l’informatique. Jusqu’à la fin de la guerre, le principe général
d’organisation est booléen et copié sur la Pascaline conçue en 1641, réalisée en 1645. Les
améliorations apportées concernent la vitesse de calcul.
John von Neumann en supervisa la construction de la fin de 1945 jusqu’en 1951 au sein
de l’Institut for Advanced Study. Julian Bigelow fût l’ingénieur chargé de construire cette
machine destinée à un usage balistique. Les ingénieurs n’étaient pas des physiciens théoriciens,
ils travaillaient au fer à souder et ce sont des femmes qui assuraient le plus gros de la
programmation.
La machine de von Neumann n’a jamais été brevetée contrairement à l’ENIAC qui a servi au
même usage balistique. Alors que l’ENIAC faisait ses calculs en système décimal, la machine
de von Neumann utilisait le système binaire. Tous les ordinateurs qui suivront seront calqués
sur cette machine.
Un langage de programmation est une manière d’écrire à travers des symboles spécifiques
un programme informatique qui apporte une manière nouvelle de se comporter (une intelligence
artificielle) à l’ordinateur face à une situation dont seul l’ordinateur est capable de traiter.
Vis-à-vis des générations d’ordinateurs, il est possible de mettre en parallèle des types de
logiciels. Ainsi,
Un projet de cinquième génération japonais avait été lancé par le MITI au tout début des années
1980 et devait être articulé autour des moteurs d’inférence et du langage Prolog, mais en dépit
de budgets importants, le projet n’a jamais abouti.
L’INTERFACE HOMME-MACHINE
Le domaine émerge aux USA dans les années 1980 avec la démocratisation de l’informatique
et dans les années 1990 en France grâce à des chercheurs comme Joëlle Coutaz.
Nous devons l’interface utilisateur à Xerox qui a mis sur les rails le Palo Alto Research
Center (PARC) à une époque où les ordinateurs personnels n’existaient pas encore.
En effet, quelques-uns chez le géant du photocopieur sentaient qu’il se passait quelque chose et
que de nouveaux marchés pouvaient s’ouvrir. Il s’agissait d’aller explorer ce que C. Peter
McColough, le directeur général de Xerox à la fin des années 1960 appelait déjà “l’architecture
de l’information”.
C’est ainsi qu’en 1968, Douglas Engelbart, du Stanford Research Institute, présente un
environnement graphique avec des fenêtres qui sont ouvertes et fermées via un pointeur relié à
l’ordinateur par un fil : la souris, première interface homme-machine est née. L’interface
graphique connaitra trois évolutions.
Basée sur une interaction minimale en mode texte entre l’utilisateur et l’ordinateur. Les
opérations d’entrée s’effectuent avec le clavier et en sortie, l’ordinateur affiche les résultats via
l’écran ou l’imprimante sous forme textuelle.
Les utilisateurs des années 1970 étaient plutôt des ingénieurs et des informaticiens, et
l’ordinateur était réservé à une clientèle élitiste et utilisé surtout en milieu professionnel.
L’expérience utilisateur et les spécificités du grand public ne sont pas encore prises en compte
à cette époque. Mais comme dans tout domaine, dès lors que la maîtrise technique est atteinte,
le confort de l’utilisateur sera ensuite au centre des préoccupations.
L’interface utilisateur naturelle, dite aussi Post-WIMP, est une interaction informatique
émergente qui met l’accent sur les capacités humaines telles que le toucher, la vision, la voix et
le mouvement. Elles sont une évolution majeure de l’interface homme-machine et vont devenir
un mode d’interaction courant avec les nouvelles technologies. En supprimant la souris et le
clavier (ainsi que le paradigme WIMP), l’utilisateur se libère des contraintes techniques
initiales et c’est le contenu qui devient central et vecteur de l’interaction. L’interaction directe
et intuitive facilite la diffusion rapide de ces nouveaux usages. Les écrans “touch screen”
(Smartphone et Tablette) et d’autres objets comme “Microsoft Surface”, “Sixth Sense” ou
“Nintendo Wii” ont sont des exemples parlants.
Une deuxième conséquence de cette nouvelle intuitivité est le fait de pouvoir toucher de
nouvelles populations d’utilisateurs, comme les enfants en bas âge (des tablettes spécifiques
pour les plus petits qui font débat aux Etats-Unis risquent de débarquer en France courant 2014)
et les seniors, traditionnellement rebutés par le clavier et la souris mais très intéressés par
l’interaction tactile.
Le cloud computing, littéralement informatique dans les nuages, dont on nous prédit que ce
sera l’avenir de l’informatique, désigne l’utilisation de serveurs distants (en général accessibles
par Internet) pour traiter ou stocker de l’information. Les solutions de cloud computing ont de
nombreux avantages mais c’est en réalité davantage une révolution économique que
technologique, car le cloud computing est basé sur des technologies établies depuis longtemps.
Beaucoup de traitements sont réalisés dans le cloud, mais la sophistication grandissante des
interfaces exige de la puissance en local. De plus, l’informatique contextuelle, à l’avenir,
exigera que l’ordinateur sache dans quelle situation se trouve l’utilisateur qui, en retour, aura
besoin d’interagir avec des systèmes de plus en plus intelligents.
IMAGERIES
Institut for Advanced Study Abu Jaffar Al Khawarizmi Ada Lovelace
Serveurs Xerox
IV. QUELEQUES DEFINITIONS
1. L’informatique :
L'informatique est un domaine d'activité scientifique, technique, et industriel concernant
le traitement automatique de l'information numérique par l'exécution de programmes
informatiques hébergés par des dispositifs électriques-électroniques.
En terme simple, une science qui étudie le traitement de l’information de façon automatique et
numérique.
2. L’ORDINATEUR :
Sans pourtant oublier que l’ordinateur en anglais, computer vient du verbe to compute
signifiant traitement de calculs ce qui fait de lui une machine de traitement de calculs soit
une calculatrice mais intelligente.
D’où l’ordinateur est considéré comme étant une Machine automatique de traitement de
l'information, obéissant à des programmes formés par des suites d'opérations arithmétiques
et logiques.
En d’autres termes, machine identifiée comme étant une calculatrice intelligente (smart) par
rapport a son caractère basé sur le traitement numérique des données.
Car l’ordinateur communique en traitant l’information sous le langage binaire (son langage
de communication de base) basé sur deux symboles discrets (0 ou 1).
Et, l’organe (le composant électronique) responsable du traitement numérique de l’information
au sein de l’ordinateur est appelé processeur.
3.4.Le web
➢ Ensemble des données reliées par des liens hypertextes, sur Internet.
➢ Le Web est le terme communément employé pour parler du World Wide Web,
ou WWW, traduit en français par la toile d'araignée mondiale. Il fait référence au
système hypertexte fonctionnant sur le réseau informatique mondial Internet.
Par abus de langage, le Web désigne de façon plus large tout ce qui se
rapproche à cet univers internet. On ne fait plus toujours aujourd'hui la
distinction technique entre ce que définit le Web et ce que définit Internet.
Inventé par Tim Berners-Lee et Robert Cailliau à la fin des années 1980, le Web se
résume à cet outil qui permet la consultation, via un navigateur, de pages de sites
Internet (ou sites Web). Il ne représente qu'une partie de ce que comporte réellement
Internet avec, notamment, les applications de courrier électronique et le partage de
fichiers.
NB : Naviguer revient à dire, consulter les pages des sites sur le web.
FIN !