Vous êtes sur la page 1sur 336

Janine Connes

De l’IBM 360/75
au superordinateur Jean Zay
Cinquante ans d’informatique
au centre de calcul du CNRS d’Orsay

Avec la participation de Françoise Perriquet

Des annexes sont disponibles en ligne en libre accès


sur la boutique en ligne de l’éditeur :
https://laboutique.edpsciences.fr/
« Sciences & Histoire »

La collection Sciences & Histoire s’adresse à un public curieux de sciences. Sous


la forme d’un récit ou d’une biographie, chaque volume propose un bilan des
progrès d’un champ scientifique, durant une période donnée. Les sciences sont
mises en perspective, à travers l’histoire des avancées théoriques et techniques et
l’histoire des personnages qui en sont les initiateurs.

Photos de couverture :
Salle machine, 1969 ©CIRCÉ/CNRS
Ordinateur Jean Zay installé au CIRCÉ en 2019 ©Cyril Fresillon/IDRIS/CNRS

Crédits photos IBM


Figure 96 : IBM 3090 - Reprint Courtesy of IBM Corporation ©
Figure 98 : IBM 3350 - Reprint Courtesy of IBM Corporation ©
Figure 99 : IBM 3380 - Reprint Courtesy of IBM Corporation ©
Figure 142 : Unité de refroidissement – Réfrigérateur à dilution de l’ordinateur
quantique à circuits supraconducteurs construit par IBM - Reprint Courtesy of
IBM Corporation ©

Imprimé en France

ISBN (papier) : 978-2-7598-2577-6 – ISBN (ebook) : 978-2-7598-2578-3

Tous droits de traduction, d’adaptation et de reproduction par tous procédés,


réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des
alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions stric-
tement réservées à l’usage privé du copiste et non destinées à une utilisation
collective », et d’autre part, que les analyses et les courtes citations dans un
but d’exemple et d’illustration, « toute représentation intégrale, ou partielle,
faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est
illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par
quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par
les articles 425 et suivants du code pénal.

© EDP Sciences 2022


Table des matières

Remerciements. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

PREMIÈRE PARTIE
Vue générale sur le développement
du centre de calcul d’Orsay 13
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Chapitre 1. Préhistoire du CIRCÉ, de 1954 à 1969 . . . . . . . . . . . . . . 17
1.1 En 1954 apparition en France d’un premier besoin de calcul
intensif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Le centre de calcul du JPL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Participation à l’implantation de la FFT (Fast Fourier Transform). . . 24
1.4 Conseils reçus pour la création d’un centre de calcul de service. . . . . . 26
1.5 Cinquante ans après. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Chapitre 2. La création du CIRCÉ. . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1 Brève récapitulation de l’histoire de l’informatique
de service en France avant 1969. . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2 La scission avec l’Institut Blaise Pascal (IBP)
de la rue du Maroc en 1969. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Réaction du CNRS et de l’Enseignement supérieur. . . . . . . . . . . . . . . 39
2.4 Relations CNRS-Enseignement supérieur. . . . . . . . . . . . . . . . . . . . . . 40
2.5 Comment résoudre ces difficultés. . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Chapitre 3. Vue d’ensemble du centre de calcul du CNRS
de 1969 à 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1 Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Tableau d’ensemble de la vie du centre sur la période 1969-2020. . . . . 50
3.3 Grandes lignes pour la formation des ingénieurs et des utilisateurs. . . . 61
3.4 Grandes lignes des relations à l’international. . . . . . . . . . . . . . . . . . . 63
3.5 Effectifs du personnel et sa formation. . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 Principaux rapports sur l’informatique outil pour la recherche. . . . . . . 68
Chapitre 4. Évolution des puissances installées au centre de calcul
de 1969 à 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1 Plusieurs chronologies en informatique . . . . . . . . . . . . . . . . . . . . . . . 72
4.2 Chronologie et loi de Moore au centre de calcul de 1969 à 2019. . . . . . 81
IV De l’IBM 360/75 au superordinateur Jean Zay

DEUXIÈME PARTIE
Étude détaillée de l’évolution du centre
de calcul d’Orsay de 1969 à 1981 95
Chapitre 5. Période 1969-1972. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.1 Évolution des puissances de 1969 à 1981. . . . . . . . . . . . . . . . . . . . . . 102
5.2 La période de mise en place du centre : 1969-1972. . . . . . . . . . . . . . . 103
5.3 Le système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.4 Service aux utilisateurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.5 Rôle des services d’exploitation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Chapitre 6. Période 1972-1981. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.1 Années 1972-1973. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.2 Années 1974-1975. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.3 Année 1976 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.4 Année 1977 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.5 Années 1978-1979. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.6 Année 1980 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.7 Personnel et formation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.8 Résultats obtenus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Chapitre 7. L’histoire parallèle du centre de 1969 à 1975 . . . . . . . . . . 149
7.1 Avertissement de P. Jacquinot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.2 Vue d’ensemble sur la vie parallèle du centre pendant
la première décennie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.3 Histoire parallèle du centre d’avril 1969 au 25 mars 1970 . . . . . . . . . . 163
7.4 Histoire parallèle du CIRCÉ du 25 mars 1970 au 4 avril 1972. . . . . . . 165
7.5 Histoire parallèle du centre d’avril à décembre 1972. . . . . . . . . . . . . . 173
7.6 Histoire parallèle de 1973 à 1975 . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Chapitre 8. Histoire parallèle de 1976 à 1980. . . . . . . . . . . . . . . . . . . 179
8.1 Le schéma directeur de 1976 pour l’ensemble CNRS-Enseignement
supérieur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
8.2 Nouvelle organisation du contrôle des achats informatiques. . . . . . . . . 187
8.3 Schéma directeur de l’informatique de l’Enseignement supérieur . . . . . 191
8.4 Vie pratique de CIRCÉ 1 pendant cette période. . . . . . . . . . . . . . . . 194
8.5 Mise en place des rémunérations du personnel. . . . . . . . . . . . . . . . . . 197
Chapitre 9. Période 1981-1989. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
9.1 Création du centre de calcul universitaire Paris-Sud. . . . . . . . . . . . . . 203
9.2 Création de la Division Informatique Scientifique (DIS) . . . . . . . . . . . 204
9.3 Arrivée du calcul vectoriel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
9.4 Évolution des matériels installés. . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
9.5 Évolution des services. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
9.6 Vie d’un algorithme et retombées industrielles. . . . . . . . . . . . . . . . . . 229
9.7 Réseau et télétraitement et sa reconnaissance officielle. . . . . . . . . . . . 233
9.8 Incendie de février 1988. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
9.9 Politique tarifaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
9.10 Histoire parallèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Chapitre 10. 1989-1992. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
10.1 Évolution du matériel installé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
10.2 L’audit de février 1989 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
10.3 Activité du groupe réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Table des matièresV

10.4 Activité du groupe système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249


10.5 Activités du groupe FORTRAN et calcul intensif. . . . . . . . . . . . . . . . 250
10.6 Activités des groupes LRD (Langages et Représentations de Données)
et documentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
10.7 Histoire parallèle de 1989 à 1992 . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Chapitre 11. 1993-2013. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
11.1 Machines installées et logiciels mis en service. . . . . . . . . . . . . . . . . . . 262
11.2 Création de l’IDRIS en 1993 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
11.3 Année 1994 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
11.4 Années 1995 et 1996. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
11.5 Le CINES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
11.6 Différents types de calculs à l’IDRIS. . . . . . . . . . . . . . . . . . . . . . . . . 270
11.7 Année 2004 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
11.8 Année 2006 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
11.9 Année 2007 - Création du GENCI . . . . . . . . . . . . . . . . . . . . . . . . . . 278
11.10 Année 2010 - Création de PRACE et du COCIN. . . . . . . . . . . . . . . . 279
11.11 Année 2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
11.12 Année 2012 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
11.13 Grands challenges IDRIS 2012. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
11.14 Résultats scientifiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
Chapitre 12. Période 2013-2021 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
12.1 Évolution technique de l’IDRIS pendant la période 2013-2021. . . . . . . 288
12.2 Organisation administrative. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
12.3 L’Intelligence Artificielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
12.4 Résultats obtenus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
12.5 La sécurité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
12.6 Le calcul et l’ordinateur quantique. . . . . . . . . . . . . . . . . . . . . . . . . . 312
Chapitre 13. Épilogue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
Table des illustrations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326

Des annexes sont disponibles en ligne en libre accès


sur la boutique en ligne de l’éditeur : https://laboutique.edpsciences.fr/
Remerciements

Françoise Perriquet a rejoint l’équipe informatique de l’Institut Blaise Pascal en


janvier 1968. Elle a été engagée par Philippe Salzedo dans la perspective d’un
futur déménagement à Orsay pour la création d’un centre de calcul dédié aux
besoins des chercheurs de toutes disciplines. Dans le cadre d’un stage au cours
de ses études supérieures à la faculté des sciences de Jussieu, elle a acquis une
première expérience d’utilisation d’ordinateurs de grande puissance du CEA à
Saclay pour les calculs de durée de vie du réacteur à propulsion nucléaire du
sous-marin Le Redoutable. En vue de ses activités au sein du futur centre, elle a
suivi une formation intensive en ingénierie des systèmes informatiques chez les
constructeurs d’ordinateurs de hautes performances pour le calcul scientifique.
Quand il s’est avéré en 1969 que seule une partie du personnel viendrait à Orsay
dans un centre dédié au service de scientifiques, elle en a fait partie. D’abord,
elle a été un membre de l’équipe système pour la mise en œuvre des ordinateurs
du nouveau centre. Ensuite en 1972, elle a pris la responsabilité du groupe
de services aux utilisateurs du centre. En 1979, elle a choisi de démissionner
pour rejoindre le secteur privé englobant les constructeurs de grands systèmes
informatiques. Elle a été successivement, directrice du support logiciel d’un
constructeur d’ordinateur de grande puissance, directrice d’un département de
support technique aux utilisateurs de grands systèmes informatiques au sein de
la SSII SG2, puis de 1983 à 1991, elle a créé et dirigé une SSII « System Assist »
offrant des services de type intégration de systèmes et de fourniture d’un logi-
ciel « Inter-PEL » de transferts de fichiers pour les grandes entreprises de tout
secteur d’activité.
La perte de vitesse des architectures fortement centralisées à base de puis-
sants processeurs au profit des architectures distribuées l’a incitée à se réorienter
vers l’ingénierie des télécom.
En 1992, elle démissionne de tous ses postes de direction et se remet aux études.
Elle obtient le Master Homologué Européen « Développements Scientifiques et
Technologiques des Nouveaux Systèmes d’Information et de Communication »,
major de la promotion 1994 à LORACOM-CITCOM de LORRAINE. En 1994,
elle est alors recrutée par France Telecom via la direction régionale de Lorraine,
puis Orange Business Services OBS où elle conduira en tant que consultante
Telecom, jusqu’en 2012, de grands projets d’architecture de réseaux incluant la
voix et les données (TOIP) aussi bien dans le secteur public que privé.
Pour sa participation à l’écriture du livre, elle a utilisé ses souvenirs per-
sonnels dans la période du tout début du centre et son appétence pour le
2 De l’IBM 360/75 au superordinateur Jean Zay

suivi des évolutions technologiques des processeurs de haute puissance (HPC),


puis, comme il est dit dans la suite, a patiemment décortiqué la collection des
Interfaces, journaux aux utilisateurs du CIRCÉ, dont elle a été le premier rédac-
teur, puis des lettres de l’IDRIS. Elle a pu établir une chronologie détaillée des
matériels qu’il a été possible d’installer et des systèmes d’exploitation qui ont
été choisis pour les servir, tout en signalant, quand c’était opportun, leur place
dans le classement du TOP500, la liste des 500 ordinateurs les plus puissants à
un instant donné. Elle m’a fait connaître les journaux et rapports industriels,
et la grande presse, en me signalant souvent des articles « qui pourraient m’in-
téresser ». Ce travail a donné lieu en particulier à deux synoptiques importants
qui ont évolué tout au long de l’écriture du livre : celui de la vue d’ensemble du
centre et celui de la chronologie des machines installées. Une section de ce der-
nier est répétée en tête de chaque chapitre, correspondant aux diverses périodes
que j’ai choisies pour l’étude détaillée de ce qui a été mis en place et de ce qui
aurait pu être.
Je remercie James Lequeux qui s’est intéressé le premier à ce livre, a relu les
premiers chapitres et a prodigué à une néophyte, jusqu’à la fin, ses conseils sur
le fond et sur la forme. Serge Fayolle qui connaît le centre mieux que quiconque
pour y être resté de sa sortie d’école à sa retraite, avoir été pendant trente-cinq
ans responsable de l’équipe technique, et pendant vingt-trois ans sous-directeur
ou directeur pendant deux périodes de quelques années particulièrement cru-
ciales, Jean-Marie Teuler pour ses conseils avisés sur l’analyse mathématique
de la variation des puissances installées, Astrid Auzou-Connes qui a corrigé
inlassablement mes tentatives de mise en page tout en essayant (sans succès je
crains), de m’initier à cet art, Émilie Wain-Connes qui m’a donné des conseils
d’écrivain, Yves Connes qui a veillé à ce que mon matériel soit toujours opé-
rationnel, Patrick Bouchareine qui a relu et corrigé, patiemment, tout ce que
j’écrivais et modifiais sans cesse, et tous mes collègues et anciens élèves pour
de nombreux avis et des discussions que nous n’avions pas eu le temps d’avoir
quand nous étions dans le feu de l’action.

Janine Connes
Introduction

P. Salzedo, 1969

L’histoire de l’informatique de service pour la recherche en France, et plus préci-


sément au Centre National de la Recherche Scientifique (CNRS), est une longue
épopée. Elle pourrait commencer par « Il était une fois ». Et pourtant, ses débuts
ne remontent qu’à soixante ans. Les bouleversements que la révolution numé-
rique a apportés dans notre société sont plus profonds que ceux de la révolution
industrielle du xixe siècle, et ils ont été incomparablement plus rapides. Il a fallu
deux siècles pour gagner un facteur 2000 en passant de la vitesse de 15 km/h de
la calèche à celle de 9 km/s de la fusée spatiale, et un facteur 50 000 pour passer
de la masse de 1 tonne tirée par un cheval à celle de 50 000 tonnes tirées par le
train chinois le plus puissant. Le développement de l’informatique conduit à des
chiffres qui sont d’un tout autre ordre de grandeur. La puissance de calcul des
ordinateurs et leur capacité de stockage de données croissent exponentiellement.
Elles suivent les améliorations apportées par les grandes révolutions dans les
composants électroniques et les architectures d’ordinateurs. Elles aboutissent à
une multiplication par 1015 de la puissance de calcul en soixante ans.
De nombreux livres et articles paraissent régulièrement sur l’histoire de l’in-
formatique que certains font remonter aux Sumériens, d’autres à la machine
à calculer de Blaise Pascal. À quel moment un ordinateur est-il devenu un
superordinateur ? Certains articles sont écrits à l’occasion de la célébration du
cinquantenaire d’une institution, ou de l’introduction de l’informatique comme
outil dans un domaine particulier de la recherche. L’objet de cette étude est plus
limité. C’est l’histoire de cinquante ans de la vie du centre de calcul de service
du CNRS à Orsay. Dans quelles circonstances a-t-il été créé ? Comment a-t-il
pu traverser toute cette période jusqu’à être, aujourd’hui, malgré les problèmes
rencontrés, un des grands centres nationaux ?
4 De l’IBM 360/75 au superordinateur Jean Zay

Simultanément à ce développement des moyens de traitement de l’informa-


tion, la communauté scientifique se pose des problèmes de plus en plus pointus
qui nécessitent des outils toujours plus performants. L’équilibre entre l’offre et
la demande de moyens n’est jamais atteint. En général, les problèmes les plus
novateurs ne trouvent jamais les outils assez puissants pour les résoudre à l’ins-
tant où ils se posent. Si les chercheurs ne les trouvent pas dans leur environne-
ment de travail, grâce au développement des techniques de réseau, ils peuvent
les chercher ailleurs en France, en Europe ou même dans le monde. Ou alors ils
en sont réduits à attendre les futures annonces des constructeurs.
En avril 1969, Pierre Jacquinot, alors directeur général du CNRS, se trouve
face à un tel problème Dans le laboratoire Aimé Cotton qu’il dirigeait, il avait
eu en 1954, l’exemple d’une expérience qui laissait le choix entre deux solutions :
calcul lourd inenvisageable à l’époque ou abandon. Il décida plus tard de créer
un centre de calcul du CNRS à Orsay, avec une mission bien définie :
« Donner aux utilisateurs de toute discipline la possibilité de faire pour
leur recherche les calculs dont ils ont besoin et qu’ils ne peuvent pas faire
ailleurs. »
Ce qui est certain c’est que l’installation et le démarrage du centre imposé
par P. Jacquinot dans notre paysage scientifique, à une époque où il n’y avait
rien de semblable en Europe, a été une rupture dans l’organisation globale de la
recherche en France. Pierre-Éric Mounier-Kuhn, dans son livre L’informatique
en France de la seconde guerre mondiale au plan calcul, écrit que :
« Les centres de calcul ont été progressivement séparés des laboratoires de
recherche informatique 1. »
C’est vrai pour les centres de calcul universitaires mais le CNRS a suivi une
autre voie. Pierre Jacquinot a imposé l’idée que, à côté des centres tradition-
nels de l’époque, il fallait que le CNRS ajoute quelque chose de nouveau : un
centre dédié au service des chercheurs de toute discipline qui avaient besoin
de puissance de calcul pour leurs travaux et qui, ou bien allaient la trouver à
l’étranger, ou bien abandonnaient un sujet de pointe. Pour rester compétitif
dans le domaine international, il fallait non pas détruire ou modifier quelque
chose d’existant mais juxtaposer une « usine à calcul » pour laquelle les critères
de choix de matériel et d’exploitation étaient nouveaux. Le choix du matériel
devait se porter sur le plus puissant possible, compatible avec les possibilités
budgétaires, mais indépendamment de sa provenance et, aussi fondamentale-
ment, il devait être servi par un personnel dont la compétence était à hauteur
des enjeux. Et c’est à cette mission que le centre de calcul a consacré ses efforts,
finalement avec succès, depuis cinquante ans. Il a joué le rôle de pionnier en
Europe à sa création. Il a vite perdu ce rang. Mais l’idée générale qui a guidé
son développement, depuis 1969 n’a pas varié. À chaque instant, au point où en
est arrivée la science, dans toutes les disciplines, allant des mathématiques aux
multiples domaines des sciences humaines, en passant par toutes les nuances des

1 Pierre-Éric Mounier-Kuhn, L’informatique en France, de la seconde guerre mondiale


au Plan Calcul, Paris, 2010, PUPS, p. 595.
Introduction5

mathématiques, de la physique, des sciences naturelles, de la médecine, de la


biologie, les recherches de pointe ont besoin d’un ordinateur performant. C’est
la condition indispensable pour rester dans la compétition internationale. Et
c’est ce point qui a mis le plus longtemps à être compris en France. Ce centre,
voulu par P. Jacquinot, convaincu de son absolue nécessité, a été accueilli avec
enthousiasme par les utilisateurs qui, faute de possibilité dans leur pays, allaient
auparavant travailler à l’étranger, Il a été porté à bout de bras, par certains
des directeurs généraux du CNRS qui se sont succédés, en particulier Hubert
Curien, Pierre Papon, le directeur administratif Charles Gabriel, puis François
Kourilsky, Catherine Bréchignac et ses successeurs. Mais pendant longtemps, à
l’exception, à des degrés divers, de Jean Lagasse et Jean-Jacques Gagnepain et
Michel Combarnou, il n’a pas intéressé les directeurs scientifiques, parce qu’ils
le comprenaient mal, et n’en voyaient pas l’utilité pour leurs propres recherches.
Cette incompréhension était encore plus grande à l’extérieur du CNRS. Il a
fallu quinze ans et plus d’une longue maturation des décideurs, pour leur faire
admettre le concept fondamental du centre de calcul de service assimilable à
un grand instrument comme par exemple, un grand télescope ou un accélé-
rateur de particules. Cette évolution, qui a été très lente, s’est faite sous la
pression d’éléments extérieurs : la prise de conscience du retard qui se creusait
avec les États-Unis et le Japon qui, à l’opposé de ce qui se passait en France,
avaient des politiques gouvernementales incitatives, la multiplication des grands
centres de calcul en Europe, le développement des réseaux, et en France même, le
déploiement des centres de calcul dans les départements de recherche de grandes
administrations telles que CEA, EDF et la Défense ainsi que dans l’industrie
pétrolière, Cette prise de conscience des décideurs du secteur Éducation natio-
nale au sens large s’affirme au moment de la multiplication partout ailleurs des
machines vectorielles puis parallèles, en France et dans le monde, et enfin de
l’explosion du numérique dans la vie quotidienne.
En 1969, le centre de calcul était souvent considéré comme ruineux et inu-
tile. Autrement dit, les chercheurs auraient mieux fait de réfléchir, plutôt que
de s’adonner à ces distractions assimilables aux jeux vidéo de notre époque.
Aujourd’hui, c’est exactement l’inverse. Les plus grands hebdomadaires et la
presse grand public font régulièrement des articles sur la course à la puissance
que se livrent les États-Unis, la Chine, le Japon pour équiper leurs centres de
calcul de production. Ils insistent sur les avancées scientifiques que leur utili-
sation permet, dans tous les domaines. Comme pour la Ligue 1 du football, le
championnat auxquels les centres participent au niveau mondial a ses règles.
Il est arbitré deux fois par an, en juin et novembre par le classement appelé
TOP500 des 500 ordinateurs les plus puissants au monde. En 2020 ce sont les
deux géants, États-Unis et Japon, qui se sont affrontés pour la première place.
Le Fugatu de Fujitsu l’a emporté les deux dernières fois sur le Summit d’IBM.
Et signe des temps, le concept de grand centre de calcul est entré dans la publi-
cité. L’Institut du Cerveau 2, « centre de recherche unique de dimension, inter-
nationale pour traiter et guérir les maladies du cerveau », hébergé à l’hôpital

2 Institut du cerveau, l’excellence d’un centre de recherche unique de dimension inter-


nationale, distribué par Bleu bonheur, déposé le 16/11/2020 59 S /10.
6 De l’IBM 360/75 au superordinateur Jean Zay

Lariboisière à Paris, a inséré dans les pages d’un journal de mode, distribué
gratuitement par la poste, un superbe dépliant sur papier glacé. Il y précise qu’il
met tous ses espoirs dans la neuro-informatique, avec l’exploitation des banques
de données et toutes les nouvelles techniques de modélisation disponibles.
Cette envolée des possibilités des nouveaux matériels a permis l’avènement
de l’ère de l’Intelligence Artificielle (IA) qui nous fait entrevoir des développe-
ments vertigineux 3. Dans un volumineux rapport remis au Premier ministre le
29 mars 2018, Cédric Villani avertit que la réalité va dépasser la science-fiction 4.
Cette révolution a besoin d’une puissance de calcul la plus grande possible et
d’un supercalculateur spécialisé. Le supercalculateur Jean Zay est alors installé
au centre de calcul du CNRS à Orsay, avec l’ambition de faire de la France « le
leader européen de la recherche en IA ».
Maintenant, les grands centres de calcul nationaux sont mutualisés et gérés au
niveau national par le GENCI (Grand Équipement National de Calcul Intensif),
mais leur mission est restée la même. En 2006, elle a été redéfinie exactement
dans le même esprit que celle donnée au centre à sa création, et avec des mots
quasi identiques à ceux de 1969.
« [Ces centres nationaux] donnent aux chercheurs français l’accès aux
moyens de calcul nécessaires pour mener des recherches au plus haut niveau
international 5. »
Actuellement, des annonces sur Internet invitent à des dépôts de projets
avec financement possible, dans le cadre européen. L’Agence Nationale pour
la Recherche (ANR) a publié dès 2010 une grande étude intitulée : Le calcul
intensif, technologie clé du futur 6.
La suprématie en informatique est devenue une affaire d’état. Le 2 juin
2017, à une conférence à destination des étudiants russes, le président Poutine
prédisait :
« L’Intelligence Artificielle représente l’avenir, non seulement de la Russie,
mais de toute l’humanité […]. Celui qui deviendra le leader dans ce domaine
sera le maître du monde. Et il est fortement indésirable que quelqu’un
obtienne un monopole dans ce domaine. Donc, si nous sommes les leaders
dans ce domaine, nous partagerons ces techniques avec le monde entier 7. »
Que de chemin parcouru depuis 1969 ! Mais la route a été longue et difficile.
Ce ne fut pas un long fleuve tranquille.
Elle a été rendue possible par l’excellence et la cohésion d’une équipe tech-
nique qui a su s’adapter à cette évolution fulgurante, et surtout à l’anticiper.
Elle a travaillé contre vents et marées sous la direction de Philippe Salzedo

3 Rapport Villani : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_


accessible.pdf
4 Idem.
5 Présentation de la mission MICADO par M. Daydé et D. Veynante : http://orap.irisa.
fr/wpcontent/uploads/2016/10/ORAP-OCT-mdayde-2016.pdf
6 ANR, Les cahiers de l’ANR, n° 3, janvier 2010.
7 La revue du digital, Vladimir Poutine, 2 septembre 2017.
Introduction7

pendant vingt ans, puis pendant les vingt années suivantes jusqu’en 2010 de
Serge Fayolle, qui lui-même, dans les vingt années précédentes, avait été res-
ponsable de l’équipe système. Tous deux ont été, en plus, directeur du centre à
plusieurs périodes.
Pierre Jacquinot m’avait confié la conception et la direction de la nouvelle
entreprise. Je savais ce qu’était, dès cette époque, un centre de calcul intensif.
J’avais travaillé aux États-Unis pendant des années dans le centre de calcul du
laboratoire qui venait de déposer un homme sur la Lune. Il préparait l’expédi-
tion VIKING qui vingt ans après allait explorer Mars. J’y faisais essentiellement
de la simulation. On y simulait tout : le départ de la fusée, les corrections de
trajectoire, la composition de l’atmosphère des planètes, avant d’y simuler l’im-
pact sur la Lune, d’y déposer le premier homme en 1969 et d’assurer son retour.
Encore actuellement, on pense à la NASA qu’il y a une part de miracle dans la
réussite de l’opération avec les moyens de calcul de l’époque.
Dès l’origine, l’organisation et le fonctionnement du centre de calcul d’Orsay
ont copié de très près ceux du centre de calcul intensif du Jet Propulsion
Laboratory (JPL) de la NASA à Pasadena et s’inspiraient de ceux de Livermore,
d’Argonne et du Lawrence Laboratory. À sa création en 1969, il aurait pu fonc-
tionner uniquement en centre de calcul intensif comme celui du JPL Dès le jour
de l’ouverture, il pouvait fonctionner 24h/24, 7j/7. Les chercheurs l’attendaient.
Les cinq groupes : administration, exploitation, système, assistance technique
aux utilisateurs, assistance mathématique ont évolué un affinement de leurs mis-
sions. Au cours des années, l’exploitation 8 est passée dans les mains du construc-
teur qui l’effectue à distance. En revanche, elle s’est étoffée d’un administrateur
réseau. Les groupes d’assistance aux utilisateurs et d’assistance mathématique
ont considérablement grossi et leur qualification a évolué. Maintenant, ils tra-
vaillent essentiellement à l’adaptation des programmes des utilisateurs aux nou-
velles architectures. Au fil des décennies, et surtout maintenant, l’emphase a
glissé du matériel et des systèmes d’exploitation qui, bien qu’encore de pointe
et complexes, sont devenus plus matures, vers le logiciel applicatif et les outils
de développement. D’où l’importance encore accrue de l’assistance aux utilisa-
teurs et des efforts à mener à l’échelon mondial pour adopter les algorithmes,
méthodes et paradigmes de programmation et explorer de nouvelles voies. Avoir
la technologie, c’est bien, pouvoir l’utiliser, et efficacement de préférence, c’est
indispensable. Le parallélisme massif et les architectures hybrides – sans parler
du quantique – nécessitent de repenser les outils pour les rendre utilisables en
dehors d’un nombre limité de spécialistes et d’applications. C’est sans doute ici
que continue de résider le défi.
Parmi les évolutions, un aspect devenu important est celui de la sécurité
informatique. La démocratisation de l’accès aux matériels et à la connaissance
(un PC sous linux permet d’étudier et de développer des outils malfaisants qui
pourront ensuite être introduits et exécutés sur les gros serveurs) et le partage

8 Le terme exploitation couvre l’ensemble des tâches qui permettent l’utilisation de la


machine par les utilisateurs, les diverses maintenances, le pupitrage, les montages des
supports de données, leur archivage etc.
8 De l’IBM 360/75 au superordinateur Jean Zay

des réseaux (en opposition aux réseaux privés en étoile des débuts) fait que
n’importe qui – voire les agences spécialisées des états eux-mêmes – peut tenter
de s’attaquer aux centres informatiques. Des services spécialisés sont mis en
place au sein de l’état pour la lutte (et sans doute aussi l’attaque ?), Des res-
sources sont dédiées à ce la résolution de ce problème dans les centres.
À la création, les utilisateurs attendaient impatiemment la mise en service du
centre. Plusieurs domaines de recherches en cours auraient pu assurer le plein
emploi avec leurs lourds besoins de calcul. On peut citer entre autres ce que
J. Yoccoz appellera plus tard le champ des spectroscopies de Fourier appliquées
en astronomie, en exploration spatiale, en spectroscopie atomique et molécu-
laire, et ceux de l’hydrodynamique des fluides, de la météorologie, et dès le
début celui de la chimie. Son besoin de calcul s’est concrétisé par l’installation
simultanée, dans les locaux mêmes du centre de calcul, d’un Centre d’Étude
de Chimie Atomique et Moléculaire (CECAM) émigré aujourd’hui à Lausanne.
Il a en conséquence célébré son cinquantenaire quelques mois avant celui du
centre. Il faut noter aussi les besoins des mathématiciens purs qui sont affichés
dès 1971 9. Par exemple, le calcul au degré 3 de la conjoncture de Serre aurait
demandé 1000 heures de la machine alors disponible au centre.
Mais la vocation du centre de pouvoir y faire ce qu’on ne peut pas faire
ailleurs l’a amené à partager ses activités entre le calcul intensif et les besoins
d’une large clientèle aux profils très variés, qui n’avait accès à aucun autre
moyen de calcul, y compris celle des débutants de toute discipline qu’il a fallu
initier, former et suivre pas à pas. Cette émancipation guidée des utilisateurs
s’est étalée sur vingt-quatre ans à mesure que les progrès techniques en tous
genres, la mini-informatique, la micro-informatique, permettaient des traite-
ments locaux pour tout ou partie de leurs besoins. Non seulement le centre de
calcul les formait à l’usage des nouveaux matériels, qui permettaient un travail
en local, mais il les aidait aussi à rédiger leurs demandes pour trouver les fonds
nécessaires à l’acquisition de ces machines locales. En revanche, ils ont pro-
gressivement libéré le centre de calcul des tâches qui pouvaient se faire ailleurs
pour qu’il se consacre de plus en plus uniquement à sa mission initiale : faire
ce que maintenant on ne pouvait pas faire ailleurs, c’est-à-dire uniquement du
calcul intensif. Cette migration s’est étalée un peu plus longtemps que nécessaire
car les utilisateurs concernés appréciaient au centre de calcul, pas seulement
la puissance de calcul, mais aussi les services de sauvegarde, l’assistance et la
formation. Quand il y a été mis fin, en décembre 1993, il a été vérifié qu’aucun
utilisateur n’était laissé sans moyen de calcul de remplacement.
L’histoire du centre de calcul, comme d’ailleurs celle du CNRS, et celle de
toute entreprise sortant des chemins battus, n’a pas été un long fleuve tranquille.
Il a grandi dans un contexte difficile où, pour des raisons diverses de nature poli-
tique, plusieurs étapes importantes ont été différées. Nous les appellerons dans
la suite ses échecs. Pourquoi, par exemple, malgré tous ses efforts, n’a-t-il pas

9 CIRCÉ, Justification de la demande de crédit du CNRS pour le É, 1971, p. 8 (Arch.


Nat. 85/0505-140) dans L’informatique en France, de la seconde guerre mondiale au Plan
Calcul, Paris, PUPS, Pierre-Éric Mounier-Kuhn, op. cit.
Introduction9

pu installer un ordinateur CRAY dès la fin des années 70 comme dans tous les
centres homologues en Europe ? Cependant l’élan était donné et dès le lende-
main du refus d’installation d’un nouveau matériel, choisi et demandé, le centre
rassemblait les moyens disponibles dans le contexte politique du moment pour
servir au mieux ses utilisateurs.
De nombreux problèmes ont marqué ses débuts : compétitions supposées
Paris-province, mathématiques pures contre mathématiques appliquées, CNRS
contre Enseignement supérieur. Ils ont considérablement diminué avec la créa-
tion d’une structure au niveau national, le Grand Équipement National de Calcul
Intensif (GENCI) 10. Il s’agit d’une société civile française créée en janvier 2007 et
détenue à 49 % par l’État français représenté par le ministère de l’Enseignement
supérieur et de la Recherche, 20 % par le Commissariat à l’Énergie Atomique
(CEA), 20 % par le CNRS, 10 % par les universités et 1 % par l’Institut
National de Recherche en Informatique et en Automatique (INRIA). Il a pour
objectif officiel de démocratiser l’usage de la simulation numérique et du calcul
intensif pour soutenir la compétitivité française, dans tous les domaines de la
science et de l’industrie.
Le GENCI représente la France dans l’infrastructure européenne PRACE,
Partnership for Advanced Computing in Europe. Il a été l’un des quatre
membres hébergeurs du premier groupe de PRACE, aux côtés de GCS pour
l’Allemagne, CINECA pour l’Italie et BSC pour l’Espagne. PRACE est une
Association Internationale Sans But Lucratif (AISBL) de droit belge, créée en
2010 et rassemblant 25 partenaires. Elle a pour mission la mise à disposition
de ressources de classe mondiale en termes de calcul intensif et de gestion des
données pour les chercheurs académiques et industriels européens. Les nouveaux
problèmes se posent au niveau européen. L’initiative EuroHPC (European High-
Performance Computing) fondée en 2017 se mobilise pour mutualiser de futurs
super-calculateurs reliés par un réseau de transmission super-performant. Où
faut-il les installer ? Pour le moment c’est la Finlande qui est supposée recevoir
le suivant.
Qu’est-ce qui a permis une telle évolution malgré les embuches ? Elle n’a
été possible que grâce à l’excellence et la cohésion d’une équipe technique tou-
jours préparée à mettre en œuvre les nouvelles possibilités techniques quand
les décisions politiques le lui permettaient. Le centre de calcul d’Orsay n’est
aujourd’hui qu’un des hypercentres de calcul installés en Europe, hypercentres
qui sont accessibles par les réseaux. Mais ce qui est primordial pour les cher-
cheurs, c’est que le but initial fixé par Pierre Jacquinot soit atteint. C’est un
cinquantenaire qui consacre une évolution réussie L’informatique de service non
seulement est reconnue comme indispensable, mais elle est devenue une affaire
d’état. Les chercheurs ont le choix des moyens dans la communauté européenne.
Pour écrire l’histoire présentée ici, les auteurs ne disposent pas des archives
du CIRCÉ ni de la majorité de celles privées de la première direction, qui,
à une certaine époque de la vie du centre de calcul, ont été détruites, ni des
archives personnelles de Philippe Salzedo disparues aussi dans une inondation.

10 https://www.enseignementsup-recherche.gouv.fr/cid99656/grand-equipement-natio-
nal-de-calcul-intensif-genci.html
10 De l’IBM 360/75 au superordinateur Jean Zay

En revanche, sont disponibles les archives privées de quelques membres de ses


équipes et d’utilisateurs, celles d’IBM, la collection complète d’Interface, le
journal du centre, puis des Lettres de l’IDRIS qui l’ont remplacé, des comptes
rendus et rapports d’activité des deux premières décennies. À présent, les
informations disponibles et utiles aux utilisateurs sont accessibles sur le site
de l’IDRIS, www.idris.fr. Nous avons également une partie des archives de la
période 1990-1994 quand j’étais conseillère à l’informatique du directeur général
du CNRS. Elles étaient restées au siège du CNRS et ont donc échappé à la dis-
parition ainsi que quelques rapports d’activité du CIRCÉ de la première époque.
Pour la période suivante, nous avons les rapports d’activité puis ceux de l’IDRIS
et les informations diffusées par le GENCI. Nous disposons aussi d’une partie
des comptes rendus de la commission à l’informatique de l’Enseignement supé-
rieur. Elle comprendra deux parties, la première traitera l’évolution générale du
centre de calcul, la seconde l’étude des avancées, matériel et logiciel aux diffé-
rentes époques et la seconde donnera, époque par époque, le détail des combats
qu’il a fallu soutenir pour les réaliser. L’étude de ces luttes est plus fouillée dans
la première période qui va jusqu’au début des années 90, moment où a com-
mencé enfin la reconnaissance officielle de la place de l’outil informatique et la
fin du ticket modérateur pour certains centres, où il était encore appliqué. Même
si d’autres difficultés ont subsisté, les temps héroïques de bataille pour l’exis-
tence étaient terminés. Une autre époque commençait avec d’autres obstacles
qui se sont présentés pour arriver à la solution d’aujourd’hui, celle à laquelle il
tend depuis sa création.
Il sera aussi fait souvent référence à deux livres :
− L’histoire du CNRS de 1939 à nos jours, par de Denis Guthleben aux
éditions Armand Colin ;
− L’Informatique en France, par de Pierre-Éric Mounier-Kuhn aux Presses
de Sorbonne-université (PUPS).
Ces livres sont utiles non seulement par les propos qu’ils développent mais
pour la masse de références qu’ils contiennent sur l’histoire du CNRS et de l’in-
formatique en général, même si ce n’est pas sur celle de l’informatique de service
qu’ils ignorent et donc ne traitent pas.
Les deux figures suivantes illustrent l’évolution du matériel et de sa mise en
exploitation en cinquante ans. La première, qui date de 1975, est celle de la salle
machine des débuts, complètement occupée par les ordinateurs IBM 70/165 et
370/155. Plusieurs ingénieurs et opérateurs sont affairés pour conduire l’exploi-
tation des systèmes. La seconde en 2019 montre l’ordinateur Jean Zay 11 nou-
vellement installé et commandé à distance. Celui-ci est un milliard de fois plus
puissant que le parc machines installé en 1969.

11 Supercalculateur Jean Zay : les défis de la co-construction.


http://www.cnrs.fr/fr/cnrsinfo/supercalculateur-jean-zay-les-defis-de-la-co-construction
Introduction11

Figure 1 – Salle machine du CIRCÉ en 1975

Figure 2 – Ordinateur Jean Zay installé au CIRCÉ en 2019


© Cyril Fresillon/IDRIS/CNRS
PREMIÈRE PARTIE
Vue générale sur le développement
du centre de calcul d’Orsay
Introduction

L’évolution du centre de calcul telle qu’il était programmé à sa création, outil


spécifiquement dédié aux besoins de la recherche scientifique, était prévue pour
intégrer les transformations techniques continuelles dès leur apparition. Pour des
raisons politiques, il y a eu des retards qui ont été autant d’épreuves.
Plusieurs expériences constructives ont forgé la ligne de conduite qui a
guidé le centre pendant cinquante ans. La première c’est la découverte de pro-
blèmes scientifiques qui ne peuvent être abordés que par le calcul électronique,
la deuxième, le test des possibilités de l’ordinateur 704 IBM et de son langage,
le FORTRAN. Pour l’utilisateur, cette deuxième expérience fut une révélation,
même si plus tard il apprit qu’un équivalent existait déjà sur les machines de
Control Data Corporation (CDC). La troisième expérience fut l’opportunité de
travailler dans un centre de calcul intensif de la NASA, la quatrième la possibilité
de participer avec un constructeur au développement d’un algorithme d’intérêt
général, la cinquième enfin le fait de bénéficier des conseils d’éminents chefs de
centres américains.
Ces cinq expériences ont bien ancré dès 1969 l’idée qu’un centre de calcul
pour la recherche de pointe en France ne pouvait fonctionner que dans un
contexte international.
Mais le centre de calcul a souffert de plusieurs handicaps, le premier étant
l’indifférence, parfois hostile, qui régnait à son égard. Ce sentiment, très largement
répandu, connaissait cependant quelques exceptions en dehors des directeurs géné-
raux du CNRS. Dès la fin des années 50, quelques directeurs de laboratoire dont
Pierre Aigrain et Alfred Kastler de l’École Normale Supérieure (ENS) avaient bien
compris la place que l’informatique allait prendre comme outil pour la recherche
scientifique et soutenaient l’initiative de chercheurs isolés. Pierre Aigrain, le pre-
mier, m’a soumis dès 1957 un problème qui ne pouvait être résolu qu’avec de
longs calculs nécessitant des ressources de pointe en matériel et en logiciel. Alfred
Kastler a accepté avec bienveillance d’être président de jury de ma thèse, qui trai-
tait majoritairement d’informatique dans un problème physique. Il m’a donné des
conseils et m’a rendu visite pour suivre mon travail quand je travaillais à la NASA
aux États-Unis avec Pierre Connes. Ce fut aussi le cas de Jean-François Denisse,
alors fondateur et directeur du centre de radioastronomie à Nançay. Il m’avait
donné mon deuxième sujet de thèse, la raie à 21 cm de l’hydrogène.
Le deuxième handicap fut une conséquence directe du précédent. Faute
de jugement avisé par des spécialistes sur la validité scientifique des calculs
16 De l’IBM 360/75 au superordinateur Jean Zay

exécutés, la régulation de la charge se faisait par la récupération d’une partie


du coût par le moyen du ticket modérateur. Celui-ci était payé par le chercheur,
à qui revenait donc la responsabilité de choisir s’il voulait dépenser ses crédits
en calculs ou autrement. Mais faute de règles générales, ou de difficultés pour
appliquer celles qui étaient prescrites, les contributions exigées par les différents
centres de calcul étaient très disparates. De ce fait, les chercheurs passaient une
grande partie de leur temps à adapter leurs programmes au centre le moins coû-
teux, même s’il n’était pas le mieux adapté techniquement. Il a fallu trente-huit
ans pour arriver à ce que dans ses statuts le Grand Équipement National de
Calcul Intensif (GENCI) entérine officiellement la décision de l’attribution de
temps gratuitement sur projet.
Le troisième handicap tient à la juxtaposition de deux acteurs de la recherche
française : le CNRS et l’Enseignement supérieur (ES). C’est une richesse que
nous envient les étrangers, mais leur cohabitation demande de la diplomatie.
Dans le domaine de l’informatique, l’Enseignement supérieur a souvent cherché
à imposer sa politique, quelquefois opposée à celle du CNRS.

Malgré tout, le centre de calcul a survécu et s’est développé du mieux qu’il


a pu. C’est cette évolution pratique qui sera examinée dans les quatre chapitres
qui suivent. On parlera de sa préhistoire, de sa création imposée par Pierre
Jacquinot à la communauté scientifique, d’une vue d’ensemble de son développe-
ment pendant un demi-siècle, de l’évolution des puissances de calcul installées.
Chapitre 1
Préhistoire du CIRCÉ, de 1954 à 1969

Il peut paraître étrange de remonter aux années 1950 pour comprendre comment
le Centre Inter-Régional de Calcul Électronique (CIRCÉ) a été créé en 1969 sous
la forme qu’il a prise à cette époque, et plus encore qu’elle ait commencé aux
États-Unis et non en France.
Deux évènements d’importances disproportionnées ont décidé de son identité.
Le premier est minuscule : le sujet de thèse que me proposa Pierre Jacquinot
en 1954.

1.1 En 1954 apparition en France d’un premier


besoin de calcul intensif
Il s’agissait de faire des Transformées de Fourier (TF) de 1 million de points.
Pierre Jacquinot faisait partie de mon jury cette année-là, et à l’issue du
concours il m’avait proposé de faire une thèse dans son Laboratoire Aimé
Cotton (LAC) alors spécialisé en spectroscopie atomique et développements
instrumentaux. Le sujet proposé était la spectroscopie par transformation de
Fourier qui théoriquement devait battre en résolution et en étendue spectrale
tous les records des réseaux et des interféromètres de Fabry-Perot.
Michelson avait utilisé cette méthode en 1894 pour résoudre la structure
hyperfine de raies d’émission, donc dans des domaines spectraux extrêmement
réduits. Il inventa le célèbre interféromètre à deux ondes, qui lui a valu le prix
Nobel pour avoir servi en 1881 à établir la constance de la vitesse de la lumière
et à présenter le fameux ether drag puzzle qui conduit à la Relativité restreinte
d’Einstein. Avec l’œil comme unique récepteur, il mesurait les variations d’inten-
sité du flux de sortie. Il n’a jamais employé le terme de spectroscopie de Fourier,
ni d’interférogramme. Il ne pouvait pas mesurer les phases de ses franges et
la reconstitution d’un profil de raie à partir de leur seule courbe de visibilité
(la variation de l’intensité des franges en fonction de la différence de marche),
même dans le cas d’un profil simple, était laborieux. Il imaginait au départ un
profil de raie possible et l’améliorait par essais successifs. Il a même conçu pour
augmenter la vitesse de cette opération un analyseur harmonique, une pure mer-
veille de mécanique, qui est aujourd’hui conservé à la Smithsonian Institution
18 De l’IBM 360/75 au superordinateur Jean Zay

de Washington. Lord Rayleigh fit remarquer l’insuffisance de l’analyse et intro-


duisit le théorème de Fourier en soulignant :
« I suppose that a complete determination of C and S, though theoretically
possible would be an extremely difficult task 12. »
Il entendait par là une reconstitution de tout le spectre recherché par trans-
formée de Fourier complète de l’interférogramme fourni par l’interféromètre.
Cette opération s’avéra tellement difficile que la méthode fut oubliée jusqu’à ce
que soixante ans plus tard, en 1952, Peter Fellgett publie un premier spectre
à très basse résolution, obtenu grâce à un petit interféromètre de Michelson et
un calcul numérique de la transformée de Fourier (TF) exécuté avec des outils
primitifs : les Lipson-Beevers strips. Il présentait le concept de « multichannel
spectroscopy 13. »
Pour moi, au début, la mission semblait impossible. Je n’avais pas même la
maquette d’un interféromètre adéquat et surtout aucune idée de la façon de cal-
culer pratiquement les transformées de Fourier. À l’étude, toutes les méthodes
analogiques se révélèrent inadéquates et aucun des mathématiciens consultés
en France ne présentait la moindre suggestion. C’est alors que plusieurs faits
concomitants firent entrevoir la solution : la découverte de la théorie de l’infor-
mation dans la littérature scientifique américaine et russe et l’installation d’un
ordinateur 704 IBM à Paris.

1.1.1 La découverte de la théorie de l’information


À la fin des années 40 parurent les deux publications qui sont les fondements
de cette théorie nouvelle. Dans un célèbre article Claude E. Shannon publia en
1948 son théorème qui concentre l’information dans des valeurs discrètes 14. En
1949 Norbert Wiener publia aux presses du MIT 15 un livre ayant pour titre :
Extrapolation, Interpolation, and Smoothing of Stationneray Time Series, With
engineering applications. Il avait été publié pendant la seconde guerre mon-
diale sous forme d’un rapport classifié à la Section D2 du National Defense
Research Committee. La même année parut aux États-Unis une traduction
des Mathematical Fundations of Statistical Mechanics du russe Alexandre
I. Khinchin 16. Dès cette époque la théorie de l’information fut enseignée aux
États-Unis et le succès fut tel que quatre rééditions de ce livre ont suivi jusqu’en
1964. La liaison était faite entre discrétisation de l’interférogramme et séries
de Fourier et je pus faire la simulation mathématique à la fois des interféro-
grammes et des spectres à étudier. De nombreux autres livres ont complété
ma formation. Parmi les plus importants fut celui de Philip M. Woodward sur

12 Lord Rayleigh, Physical Magazine, t. 34, 1892, p. 407.


13 Fellgett Peter, thèse, Cambridge University, 1951.
14 C. Shannon, Bell System Technical Journal, t. 8, 1948, p. 47 et 379.
15 Norbert Wiener, « Extrapolation, Interpolation, and Smoothing of stationeray series »,

the MIT Press, août 1949.


16 A.I. Khinchin, « Mathematical Fundations Of Statistical Mechanics », Dover

Publications, Inc, New York, 1949.


Préhistoire du CIRCÉ, de 1954 à 1969 19

la relation entre probabilité et théorie de l’information 17. L’étude complète


de Shannon sur son célèbre théorème fut rééditée en 1949 et 1963 18. Puis
successivement parurent en 1960 le livre de Ralph Benjamin, de l’Admiralty
Underwater Weapons Establisment sur le traitement des signaux de radar et
sonar. En 1953, fut publié en France Théorie et fonctions aléatoires d’André
Blanc-Lapierre et Robert Fortet 19. Cinq ans après, Le bruit de fond de Pierre
Grivet et Austin Blaquière 20 compléta ma formation. Plus tard encore ce fut le
cas du livre de Pierre-Michel Duffieux qui introduit dans les problèmes de dif-
fraction, les séries et spectres de Fourier 21, mais après que les premiers résultats
de spectroscopie par transformée de Fourier aient été obtenus. Des collègues
russes m’envoyèrent des exemplaires de leur abondante propre littérature sur
ce sujet, mais je ne pus en profiter pleinement que lorsque leur traduction fut
accessible. Ce fut le cas de la traduction en 1975 du Processus aléatoire de
Rozanov 22, et celui de Tikhonov et V. Arsenine sur les méthodes de résolution
des problèmes mal posés, qui reste une référence 23.

1.1.2 Utilisation du 704 IBM


Vers le milieu des années 50, un ancien membre du LAC, Charles Dufour qui
revenait des États-Unis m’apprit l’existence de nouveaux calculateurs baptisés
numériques, qui seraient peut-être capables de traiter mon problème. Au même
moment IBM France installa son tout nouveau 704 derrière de grandes baies
vitrées, place Vendôme, quartier des grands bijoutiers de Paris. Simultanément
IBM organisa des cours de FORTRAN et créa son Institut Européen de Calcul
Numérique déjà cité. Il distribuait des heures gratuites sur projet, après
examen du dossier de demande par un comité d’experts sous la responsabilité
d’E. Durand, directeur du centre de calcul de Toulouse. C’était l’un des deux
centres de recherche actifs en informatique en France 24, l’autre étant Grenoble.
IBM et son comité scientifique d’allocation d’heures gratuites était le précurseur
de la distribution d’heures gratuites dans les centres nationaux que font les dix
conseils d’Instituts instaurés plus tard par le CNRS. Ils sont eux-mêmes pilotés
par la Mission Calcul-Données (MICADO) créée le 2 mars 2015.

17 P.M. Woodward, « Probability and Information Theory with Applications To Radar »,


Pergamon Press, 1953, réédité en 1960.
18 C. Shannon, The Mathematical Theory of Communication, The University of Illinois

Press, Urbana, 1949.


19 A. Blanc-Lapierre et R. Fortet, Théorie et Fonctions Aléatoires, Éd. Masson, Paris,

1953.
20 P. Grivet et A. Blaquière, Le bruit de fond, Masson & Cie, Paris, 1958.
21 M. Duffieux, L’Intégrale de Fourier et ses applications à l’optique, Masson & Cie,

1970.
22 Y. Bazanov, Processus Aléatoire, Éditions MIR, Moscou, 1975.
23 A. Tikhonov, V. Arsenine, Méthode de Résolution de problèmes mal posés, Éditions

MIR, Moscou, 1976.


24 Histoire de l’Informatique à Toulouse, www.Academies-sciences-lettres-Toulouse.fr>

2717/01.pdf.
20 De l’IBM 360/75 au superordinateur Jean Zay

J’ai obtenu du temps calcul directement d’IBM à la seule condition que mes
futurs programmes soient déposés dans la bibliothèque scientifique d’IBM. J’ai
pu mener cette fois la simulation numérique du traitement des interférogrammes
et des effets de toutes les imperfections et erreurs dont on pouvait imaginer qu’ils
seraient entachés quand ils existeraient. Cette facilité faisait partie de la politique
d’IBM chez qui c’étaient les utilisateurs qui développaient les logiciels utilitaires
qu’IBM distribuait selon une pratique proche de ce qui se passe aujourd’hui pour
les logiciels libres. Ainsi le FORTRAN dont une version moderne tourne sur l’or-
dinateur le plus puissant en 2020, a été développé pour le 704 d’IBM.
Ce travail aboutit, malgré la faible puissance du 704, en 1958 à l’obtention de
deux spectres inaccessibles par les méthodes classiques : celui des raies d’émission
du ciel nocturne dans le proche infrarouge (IR) et celui de la lumière de recom-
binaison émise par un cristal de germanium, dans lequel un excès de porteurs
minoritaires était créé par injection optique, et tout cela à la température de
l’air liquide dans l’entrefer du gros électroaimant du laboratoire Aimé Cotton
à Bellevue. Ce dernier problème avait été proposé par Pierre Aigrain de l’ENS.
Mais la numérisation des interférogrammes était faite de façon primitive : mesure
manuelle des ordonnées sur la courbe enregistrée, à la règle graduée, à des posi-
tions de points jugés équidistants, sur le rouleau de papier sortant de l’enregis-
treur analogique. Et plus grave, les temps de calcul attribués restaient beaucoup
trop faibles pour attaquer des problèmes à résolution nettement plus élevée qui
étaient nécessaires pour une meilleure compréhension des phénomènes étudiés.
Cependant les résultats sur le ciel nocturne devaient attirer à un congrès à
Liège l’attention d’un atmospheric physicist de la NASA, Lewis Kaplan. Il m’in-
vita avec Pierre Connes à venir développer notre méthode à Pasadena, au Jet
Propulsion Laboratory (JPL) de la NASA où nous aurions toutes les facilités de
calcul imaginables à cette époque.

1.2 Le centre de calcul du JPL


Être invité à travailler au JPL fin 1963, venant de France, c’était débarquer sur
une autre planète, un immense campus où tous les efforts convergeaient vers le
même but, avec un enthousiasme inconnu jusqu’alors pour les arrivants dans
un laboratoire : la conquête spatiale, avec comme but principal la détection de
signes de vie extraterrestre. Le JPL avait déjà envoyé avec succès en 1962 la
sonde Mariner 2, qui avait visité Vénus pour recueillir des renseignements sur
son atmosphère. Le JPL avait aussi envoyé 8 sondes Ranger vers la Lune pour
préparer les futurs vols APOLLO, dont seuls les trois derniers avaient réussi. Il
travaillait aussi à une mission encore plus lointaine sur Mars, laquelle devait plus
tard s’appeler VIKING. Notre mission était modeste et purement terrestre : au
moyen d’un télescope et d’un interféromètre à construire, obtenir par spectros-
copie infrarouge une mesure de la pression dans l’atmosphère martienne, afin de
décider si l’on devait utiliser des rétrofusées ou des parachutes pour le ralentis-
sement final avant l’atterrissage. La réponse devait être qu’il faudrait les deux
successivement. Après 40 ans de mission vers Mars et six atterrissages, la NASA
insiste toujours aujourd’hui sur les difficultés possibles dans les 12 étapes de
guidage qui séparent l’entrée dans l’atmosphère de la planète et le contact du sol
Préhistoire du CIRCÉ, de 1954 à 1969 21

martien. Plusieurs films montrent les rétrofusées qui s’allument sous le module
et l’ouverture du parachute lors de la mission InSight du 26 novembre 2018 25.
Mais pour l’heure nous n’avions que des plans pour réaliser un interféromètre
imité de ceux que nous avions construits au Laboratoire Aimé Cotton et des pro-
grammes testés sur un 704. Il fallait échantillonner l’interférogramme aux points
déterminés par le théorème d’échantillonnage de Shannon ; le but ultime était
d’en tirer une Transformée de Fourier d’un million de points pour lequel le 704
de Paris aurait exigé un siècle de calculs pour un seul spectre. De plus, Gerard
Kuiper, célèbre astronome, qui avait produit, avec un spectromètre à réseau, les
meilleurs spectres infrarouges des planètes avait démontré dans un article récent
que la technique de Fourier était vouée à l’échec. C’est le cas typique de ce qui
se passe toujours soixante ans plus tard chaque fois que le problème scientifique
qu’on a à traiter nécessite des puissances de calcul supérieures à celles qui sont
disponibles. Mais il faut se préparer pour le jour où elle existera.
Le centre de calcul me fut aussitôt ouvert. Je découvris des étages entiers
d’ordinateurs 7094 avec des 7040 en frontal, des étages de dérouleurs de bandes
magnétiques et des étages de disques magnétiques de stockage.
Le lendemain de mon arrivée, après examen de passage, j’étais une utilisa-
trice sans restriction de temps, d’un centre de calcul qui tournait vingt-quatre
heures sur vingt-quatre et sept jours sur sept, apparemment sans pannes grâce
à la redondance des machines. C’est là que j’ai travaillé pendant un an d’affilée,
puis pendant de longues périodes au cours des années suivantes.
Mon bureau était situé entre la tour dans laquelle on faisait le vide pour
simuler les conditions de vol, et le centre de calcul où l’on simulait à peu près
tout : le départ de la fusée, le pilotage de son vol, les pannes possibles, les cor-
rections de trajectoire en temps réel, les expériences à bord, l’enregistrement des
données avec leur récupération et leur traitement. Le tout, le plus rapidement
possible. Chaque mission coûtait des centaines de millions de dollars et nécessi-
tait des moyens énormes ; on ne pouvait les multiplier pour voir et apprendre.
Il fallait que la première réalisation de ce qu’on simulait depuis des années, dix
ou vingt ans suivant les cas, soit la bonne 26.

25 https://www.numerama.com/sciences/441748-insight-comment-va-se-derouler-latterris-

sage-sur-mars-etape-par-etape.html, https://www.youtube.com/watch?v=C0lwFLPiZEE et
Nasa Insight Mission https://mars.nasa.gov/insight/entry-descent-landing
26 Note de l’auteure : « Il y a soixante ans, au Jet Propulsion Laboratory (JPL), tous les ordi-

nateurs ne faisaient que de la simulation et pour cause, moi y compris. J’avais un programme
prêt à être digéré immédiatement par toute machine IBM. Il traitait un certain nombre de
données, disons N. En France j’avais limité N à 15 000 car le calcul prenait déjà des heures
et les temps de calcul croissaient en N². Dès la semaine de notre arrivée, le vendredi soir, j’ai
ajouté un 0 de plus et perforé sur une carte N = 150 000. Je surveillais le traceur de courbe
(autre merveille) et au lieu d’une fonction de Gauss, bien fine, isolée, élégante, je vois appa-
raître sous mes yeux une forêt de pics tous déformés, certains la tête en bas. C’était le résultat
d’une erreur théorique dont les effets s’accumulaient quand N augmentait et qui m’avait
échappé lors de mes simulations précédentes. Heureusement le centre de calcul n’arrêtait
jamais et le lundi aux aurores, après corrections, je retrouvais ma fonction de Gauss toujours
aussi élégante. J’en ai à jamais gardé l’idée qu’il fallait faire des simulations en vraie grandeur
et pour ça avoir des machines puissantes, ce qui m’a été très utile par la suite et l’est encore.
J’ai découvert qu’il ne faut pas confondre simulation avec essai de modèle réduit.
22 De l’IBM 360/75 au superordinateur Jean Zay

Bien qu’utilisant les architectures séquentielles de l’époque, mais avec copro-


cesseur mathématique, c’était un centre de calcul intensif.
Pour illustrer ce propos, il n’est besoin que de comparer les termes mêmes
des objectifs de la Mission Calcul – Données MICADO créée au CNRS en février
2015 et ceux du centre de calcul du JPL quand je l’ai pratiqué en 1963 27.

MICADO 2015 JPL 1963

Explosion - Résolutions plus fines - Spectroscopie à très haute


de besoins - Augmentation de la taille des résolution pour définition plus
problèmes précise des constantes
- Augmentation de la taille
des problèmes ; flyby autour
de Vénus, les Ranger vers la
Lune, un homme sur la Lune,
la préparation de la première
exploration de Mars etc.

Puissance Machines massivement paral- Avec les machines les plus puis-
de calcul lèles (dizaines de milliers de santes disponibles à l’époque
processeurs) Multiplication des 7094 avec des
7040 en frontales

Avancées - Une large gamme de - Une large gamme de


scientifiques compétences compétences
significatives - Mathématiques appliquées - Mathématiques appliquées
- Algorithmiques, informatique… - Algorithmiques, informatique…
- Modélisation physique - Modélisation physique
- Traitement des données - Traitement des données

Des équipes Peu de codes partagés Pluridisciplinarité : le but ultime


multi- (production) de toute cette conquête spatiale,
disciplinaires c’est la découverte possible de
signes d’une vie extraterrestre.
Toutes les disciplines collaborent :
le chef de la mission VIKING
pour l’exploration de Mars était
un biologiste J. Soffen avec qui
l’entente de tous était totale

Figure 3 – Comparaison des missions du JPL en 1963 et MICADO en février 2015

27 Présentation de la Mission Calcul par Denis Veynante : https://docplayer.fr/53862547-


MP-E.%20Mounier-Kuhn,%20Comment%20l%E2%80%99informatique%20devint%20
une%20science,%20La%20Recherche,%20mensuel%20465,%20p.%2092-94,%20juin%20
2012ission-calcul-donnees-micado-denis-veynante-president-du-comite-directeur-de-la-
mission.html
Préhistoire du CIRCÉ, de 1954 à 1969 23

Le centre de calcul du JPL avait en 1960 d’autres caractéristiques :


− attribution aux utilisateurs de moyens sur projet ;
− satisfaction des besoins immédiats dès lors qu’on était membre d’un
projet qui fonctionne :
y exemple 1 : un lecteur de ruban perforé demandé un jour, installé et
mis en marche le lendemain,
y exemple 2 : mise à disposition de matériel de visualisation avec per-
sonnel de haut niveau pour assistance ;
− veille technologique et mise en service, avant que les chercheurs n’en
aient besoin, des logiciels adéquats. C’est la tâche qui, au centre de calcul
d’Orsay, sera dévolue au Groupe de Service aux Utilisateurs, le GSU ;
− assistance aux utilisateurs personnelle, hiérarchisée et très efficace, même
si on leur demandait de comprendre assez vite. Au centre de calcul, ce
sera aussi la tâche du GSU ;
− ET SURTOUT, enthousiasme de toutes les équipes et de tous les cher-
cheurs qui avaient le sentiment de participer à une tâche commune
exaltante.
Cette efficacité avait un prix : sélection des utilisateurs à la base, nécessité
d’un rapport mensuel sur l’avancement des travaux devant un comité de projet
restreint. Et plus surprenant pour nous : exigence de comptes par le public.
À notre arrivée, les Rangers successifs avaient tous raté la Lune et étaient
passés à côté pour continuer leur course dans l’espace. Prévenue par la presse,
une petite foule se pressait aux portes du JPL pour manifester sa déception et
demander des comptes sur l’emploi de ses impôts.
Le 24 septembre 1964, des spectres de l’atmosphère de Vénus observable à
cette époque ont montré la résolution de bandes de CO2 dans son atmosphère.
La démonstration était faite que la méthode était valable et nous sommes ren-
trés en France avec tout le matériel construit à la NASA, pour y continuer le
programme et une collaboration de 16 ans s’est établie. En effet en novembre
1964, Jean-François Denisse, alors directeur de l’Observatoire de Paris-Meudon,
m’a demandé de revenir immédiatement à Meudon pour prendre la direction du
centre de calcul de l’Observatoire. Il deviendra plus tard le centre de calcul de
l’INAG (Institut National d’Astronomie et de Géophysique), dont Denisse est
d’ailleurs devenu le premier directeur. Il me connaissait pour avoir fait partie
de mon jury de thèse et m’avait donné mon deuxième sujet de thèse, la raie
de l’hydrogène à 21 cm. À partir de novembre 1964 l’interféromètre et toute
l’électronique ont fait la navette entre les États-Unis et la France, transportés
en avion militaire grâce à des contrats de la NASA avec l’US AIR FORCE, pour
être utilisés soit au laboratoire Aimé Cotton à Orsay soit au télescope de 193 cm
de diamètre de Haute Provence, soit à celui de 5 m du mont Palomar quand
les planètes étaient visibles depuis la Terre. Ces transports ne s’effectuaient pas
24 De l’IBM 360/75 au superordinateur Jean Zay

sans quelques aléas pittoresques 28. La collaboration avec le JPL restait aussi
étroite, mais une partie de la mise au point des programmes de calcul était effec-
tuée sur le 7040 du centre de calcul de l’Observatoire de Meudon, réservé aux
astronomes. L’interféromètre se perfectionnait pour arriver, un jour, aux hautes
résolutions prévues, mais le problème du temps de calcul des TF restait entier
et bloquait la méthode.
Si j’ai aussi insisté sur cet épisode c’est que le JPL a été une formidable
école. À condition de résister au rythme de travail, on y trouvait à l’époque tout
ce qui s’est mis en place laborieusement dans les centres nationaux ; machines
puissantes dédiées à la recherche interdisciplinaire et fonctionnant 24h/24, 7j/7,
distribution d’heures gratuites sur projet, assistance de haut niveau pour dia-
logue indispensable et constructif avec les chercheurs.
Restait le problème algorithmique.

1.3 Participation à l’implantation de la FFT


(Fast Fourier Transform)
J’ai posé le problème à la direction d’IBM. Ma requête est arrivée au bon
moment. Je fus immédiatement orientée vers James W. Cooley à l’IBM Thomas
J. Watson Research Center, récemment créé à Yorktown Heights (NY).
Une citation célèbre du début des années 50, alors que seuls quelques ordi-
nateurs électroniques étaient utilisés, disait que ceux-ci pouvaient satisfaire
les besoins informatiques du monde entier. En 1965, les ordinateurs existants
étaient saturés de travail et ils étaient vendus et mis en service aussi vite qu’ils
pouvaient être construits :
« There was a famous quotation made in early 1950’s when only a few electronic
computers were in use, which said that these could satisfy the computing needs
of the whole word. In 1965, however, the existing computers were saturated with
work and computers were sold and put into use as fast as they could be built29. »

28 Note de l’auteure : Incident lors d’un transport entre le LAC et le mont Palomar
tenant à la politique internationale. Depuis le retour en 1964 la situation internatio-
nale avait évolué et le président de Gaulle avait mis les Américains à la porte ! Il fallut
donc dès lors expédier l’interféromètre jusqu’à leur base la plus proche, soit Francfort.
L’optique remplissait une grande et lourde caisse dûment capitonnée, l’électronique
quelques caisses plus petites, plus de substantielles provisions d’outillage et de visserie,
car à ce stade le système métrique n’avait que partiellement remplacé l’américain. De
Francfort, les caisses devaient gagner l’Andrew Air Force Base, un vaste complexe mili-
taire situé dans la banlieue de Washington, mais du jour au lendemain Andrew devint
une base de départ pour un pont aérien ininterrompu en direction d’Israël pendant la
guerre du Kippour. Disparues, les caisses et plus aucune nouvelle, on imaginait l’inter-
féromètre rôtissant sous le soleil sur les bords du canal de Suez, ou (pire encore) de la
Mer Morte, (gare au chlorure de sodium concentré !). Finalement un gradé inconnu dut
avoir la brillante idée mettre le tout sur un camion et le matériel arriva en Californie avec
seulement une semaine de retard.
29 Cooley James W. & Tukey John W. (1965), « An algorithm for the machine calcula-

tion of complex Fourier series », Mathematics of Computation, 19, 297-301.


Préhistoire du CIRCÉ, de 1954 à 1969 25

C’était la saturation, non pas d’un centre de calcul, mais de toute l’infor-
matique dans le monde. L’idée était venue que pour sortir de l’impasse il fallait
faire des progrès aussi bien en logiciel et algorithmique qu’en matériel et pour
cela réunir les meilleurs chercheurs dans le domaine de l’algorithmique.
Ma surprise en arrivant à Yorktown Heights fut aussi grande que lorsque
j’avais débarqué au JPL en novembre 1963. J’ai découvert une assemblée de
mathématiciens de haut niveau, venant de Columbia, du MIT, de Princeton et
qui s’attaquaient aux problèmes jusque-là insolubles qui se posaient dans toutes
les disciplines et qu’on pourrait aborder avec le calcul numérique. Cette attitude
était complètement à l’opposé de celle des mathématiciens français de l’époque
qui étaient extrêmement forts en théorie, mais peu avaient un intérêt pour les
problèmes pratiques ; c’est ce que dans la littérature spécialisée, on appelle le
« contexte français ». À Yorktown, tous étaient familiers avec les nouvelles théo-
ries et techniques de traitement du signal et avaient de l’expérience (et quelle
expérience !). On avait fait appel à eux pendant la seconde guerre mondiale.
Dans ce domaine, par exemple R. Gardwin, théoricien qui siégeait aussi au
Président Kennedy’s Scientific Advisory Commitee travaillait à l’amélioration
de la surveillance sismique à distance des explosions nucléaires russes. Un autre
de ses sujets d’étude était la possibilité de détection à distance des sous-marins.
Tous avaient besoin de calculer des transformées de Fourier.
J.W. Cooley travaillait à Yorktown. Le fameux article sur la découverte de
l’algorithme de Fast Fourier Transform (FFT) connu sous le nom « algorithme de
Cooley-Tukey » fut publié en 1965, et a eu immédiatement un énorme retentisse-
ment. Le gain de temps pour une transformée de Fourier de 1 million de points
(le problème posé) est théoriquement de N/LogN = 51 200. C’est 41 % du chiffre,
125 000 qui est le facteur d’augmentation de puissance des machines installées en
vingt ans à l’IDRIS de 1993 à 2013. Mais pratiquement, l’algorithme fonctionnait
bien pour de relativement petits nombres quand tout tenait en mémoire centrale
ce qui ne résolvait pas mon problème. C’est pourquoi James Cooley écrit :
« One of the first really good application brought to me was too large (1 mil-
lion of samples). It was a calculation being planned by Janine Connes who
was programming the calculation of FT of interferometric Data 30. »
À ce moment-là, les laboratoires Bell créent un comité présidé par un des res-
ponsables d’IBM pour développer des algorithmes de FFT. Son nom plus tard
deviendra IEEE acoustic Speech and Signal Processing Society. James Cooley
leur demanda de m’envoyer une invitation à un workshop sur les FFT organisé
par ce comité à Arden House et présidé par IBM. Il y avait cent invités exposant
leurs problèmes de FFT. Parmi eux, des chirurgiens du cœur, des statisticiens,
des géologues, des professeurs d’universités, des océanographes, etc. C’est mon
problème qui a été retenu pour étude et un étudiant du MIT, Forman, fut
désigné pour y travailler avec moi.

30 Cooley, J., Recent Aspects of Fourier Transform Spectroscopy, vol. 1, p. 14.


Note de l’auteure. Traduction : « Une des premières des très bonnes demandes qui
m’a été présentée était trop importante (1 million d’échantillons). Il s’agissait d’un calcul
prévu par Janine Connes qui programmait le calcul de la Transformée de Fourier de
données interférométriques ».
26 De l’IBM 360/75 au superordinateur Jean Zay

Cette collaboration a aussi été une très bonne école sur le rôle d’un centre de
calcul. Elle s’est concrétisée dans la thèse d’état d’Hervé Delouis faite au CIRCÉ
sous ma direction, soutenue en 1972 et qui donna lieu au manuel : Le Parfait
petit Fouriériste. Elle s’est traduite par l’exigence d’avoir toujours dans le per-
sonnel du centre au moins un mathématicien de haut niveau qui avait déjà une
formation complémentaire en informatique ou acceptait de la faire.
Une vingtaine d’années plus tard James Cooley avait gardé grand souvenir
de notre collaboration. Intervenant lors de la conférence Fourier Transform
Spectroscopy à Vienne en 1987, il écrira son émerveillement lorsqu’il avait décou-
vert l’énormité du problème de calcul posé par la spectroscopie optique :
« An extraordinary thing about this was that a single record of Data was
about 512 000 points and all values of the spectrum were needed 31. »
Et peu après le workshop d’Arden House, il devait découvrir et apprécier
l’Atlas planétaire :
« A monumental effort by Janine Connes resulted in the calculation of the
infrared spectra of the planets which has become a standard reference 32. »
Depuis 1970, il y a eu douze conférences internationales sur la spectros-
copie par transformée de Fourier, la dernière en 2018 à Singapour. Lors de la
sixième qui s’est tenue à Vienne en 1987, James Cooley fut invité à parler à 500
chimistes utilisant son algorithme implanté dans l’appareil d’analyse spectrale
qu’ils avaient acheté dans le commerce et qui pour eux était une boîte noire.
Peu leur importait qu’elle contienne un interféromètre et un calculateur. Ils met-
taient l’échantillon en place, appuyaient sur un bouton et le spectre s’affichait
sur l’écran.
Cette découverte de Cooley a aussi complètement transformé la recherche
pétrolière.

1.4 Conseils reçus pour la création d’un centre


de calcul de service
C’est aussi en novembre 1964 que j’ai pu étudier sous la direction de Schallow le
fonctionnement du centre de calcul de Stanford dans la Silicon Valley.
Les règles strictes à suivre pour un centre de service multidisciplinaire qu’il
m’a enseignées étaient les suivantes :
− le centre équipé des meilleures machines existantes et utilisant des sys-
tèmes éprouvés doit, en régime de croisière, fonctionner 24h/24 et 7j/7 ;
− l’organisation doit être rigoureuse comme celle d’une usine de produc-
tion. Trois équipes regroupent les seules personnes habilitées à intervenir

31 Note de l’auteure. Traduction : « Ce qui est extraordinaire, c’est qu’un seul enre-
gistrement de données comprenne 5 120 000 points et que toutes les valeurs du spectre
soient nécessaires. »
32 James W. Cooley, article cité. Note de l’auteure. Traduction : « L’effort monumental

de Janine Connes a abouti au calcul des spectres infrarouges des planètes, qui est devenu
une référence. »
Préhistoire du CIRCÉ, de 1954 à 1969 27

sur son fonctionnement, celle des opérateurs, l’équipe système, l’équipe


d’assistance aux utilisateurs dont la tâche est la formation, l’assistance
technique, l’assistance mathématique. En conséquence tout chercheur en
informatique qui soumet des travaux susceptibles d’influer sur le système
doit obligatoirement les planifier avec l’équipe d’assistance ;
− aucune autre tâche que du calcul au service des chercheurs ne doit être
acceptée qui risquerait de perturber la régularité de la production.

1.5 Cinquante ans après


La Silicon Vallée est devenue ce que l’on sait.
Le centre de calcul du JPL a continué à s’équiper des meilleures machines du
moment. Il fait aujourd’hui partie des 253 centres équipés des supercalculateurs
les plus performants aux États-Unis. On s’y attaque toujours avec le même
enthousiasme aux grands problèmes ; outre la préparation et la conduite des
missions spatiales, il y a toujours des utilisateurs scientifiques de haut niveau
qui travaillent à des problèmes fondamentaux.
En cinquante ans, la quête de la connaissance de Mars et de signes de vie
extraterrestre est devenue mondiale et intéresse le grand public. En juin 2020
deux grands hebdomadaires grand public y ont consacré des dossiers. Ils rap-
pellent dans On va enfin savoir s’il y a de la vie sur Mars 33 et Objectif Mars 34,
que le développement des moyens techniques permet de faire ce qui était impos-
sible lors des expéditions précédentes depuis plus de 40 ans. Pendant la période
de tir entre le 15 juillet et le 15 août 2020 :
« La route de l’espace a été presque aussi embouteillée que celle des vacances. »
Combien de supercalculateurs travaillent-ils à ces missions ?
Le centre de calcul du CNRS, sans les mêmes moyens que celui du JPL mais
créé sur son modèle et avec les mêmes objectifs de service aux utilisateurs était
à sa création le plus puissant en Europe. Il a très rapidement perdu ce rôle après
des développements au Royaume-Uni et en Allemagne. Malgré toutes les diffi-
cultés rencontrées, il n’a jamais décroché de sa trajectoire et a réussi contre vents
et marées à remplir aussi bien que possible la mission qui lui avait été assignée à
sa création et à devenir un des grands centres européens permettant de maintenir
les chercheurs au meilleur niveau international dans leur domaine.

33 « On va enfin savoir s’il y a de la vie sur Mars », Le Point, n° 2499, du 16 juillet 2020,
p. 82.
34 « Objectif Mars », L’Observateur, n° 2008, du 23 juillet 2020, p. 36.
Chapitre 2
La création du CIRCÉ

Ce n’est pas parce que les choses sont difficiles que nous n’osons pas,
c’est parce que nous n’osons pas qu’elles sont difficiles.
Sénèque

Pierre Jacquinot, directeur général du CNRS, n’avait pas utilisé lui-même l’infor-
matique dans ses travaux personnels. Mais il avait donné un sujet de recherche
qui s’est avéré demandeur de calculs intensifs. Et il a vu, dans toutes les disci-
plines, des chercheurs partant à l’étranger pour faire leurs calculs. Il en a déduit
qu’il fallait que le CNRS se dote d’un centre de calcul « dans lequel les chercheurs
de toute discipline pourraient faire ce qu’ils ne pouvaient pas faire ailleurs ».
Il m’en a confié le projet et la direction au milieu des années 1968. Je mis
plusieurs conditions à mon acceptation. Je savais que depuis de nombreuses
années le CNRS abritait à l’Institut Blaise Pascal (IBP) des théoriciens des
mathématiques, de l’informatique, des spécialistes d’applications (telles la
traduction automatique) certainement fort savants mais travaillant dans des
domaines où je n’étais pas experte et dont je savais que les activités, telles qu’ils
les pratiquaient alors, étaient incompatibles avec le centre de service que je vou-
lais mettre en place. Leurs préoccupations concernant l’informatique de service
étaient à l’opposé de celles que j’avais acquises par expérience. D’autre part, je
prévoyais les problèmes de personnel, les conditions de travail dans les centres
de calcul que j’avais pratiqués, étant fort différentes de celles en usage dans la
plupart des laboratoires français. Il existait un plan fort avancé de transfert de
l’Institut Blaise Pascal à Orsay, dont la construction était bien avancée.
J’émis le vœu de ne faire que ce pourquoi j’avais été formée par l’expérience,
à savoir : faire fonctionner un centre de service multidisciplinaire copié sur celui
du JPL. Sa finalité serait de fournir un outil aux recherches de pointe deman-
dant du calcul intensif, et de collaborer à des recherches en traitement du signal
et algorithmique, et en techniques de simulation, avec les constructeurs et les
centres américains avec lesquels je travaillais déjà. J’étais consciente, au vu de
l’état de pénétration de l’informatique chez les chercheurs, qu’il faudrait, pen-
dant un temps dont je ne prévoyais pas la durée, consacrer une partie des res-
sources du centre à l’initiation et à la formation de nombreux utilisateurs qu’il
fallait amener à découvrir un outil, avant qu’ils ne puissent prendre en charge
eux-mêmes tout ou partie de leurs besoins.
30 De l’IBM 360/75 au superordinateur Jean Zay

2.1 Brève récapitulation de l’histoire


de l’informatique de service en France
avant 1969
Beaucoup de tentatives ont été faites depuis avant la dernière guerre mondiale
jusqu’aux années 60 pour maintenir la France dans le paysage informatique.

2.1.1 Au CNRS
Dès après la fin de la deuxième guerre, le CNRS voit surgir de nouveaux besoins
et le plus impérieux concerne les moyens de calcul 35.
Après la guerre, deux missions de scientifiques français, dont certains reve-
naient de leur exil volontaire aux États-Unis, vont l’une en Angleterre, l’autre
en Allemagne pour se remettre à niveau après le désert dans lequel les scienti-
fiques français se sont trouvés pendant la guerre. La mission en Allemagne est
bien décidée à récupérer du matériel volé pendant l’occupation et à ne pas le
laisser aux mains des alliés. Frédéric Joliot-Curie crée au CNRS un « Service
des affaires allemandes » qui comprend en particulier A.L. Wolf, A. Berthelot,
L. Cagnard et Louis Couffignal (1902-1966), particulièrement chargé de la récu-
pération et de l’attribution des machines-outils et de machines comptables 36.
« La mission scientifique a récupéré en Allemagne un matériel de calcul
important, comprenant notamment plusieurs équipements de machines à
cartes perforées. Les perfectionnements apportés depuis quelques années aux
calculatrices à cartes perforées qui vont permettre à ces équipements d’être
utilisés pour des calculs scientifiques. »
Une partie de ce matériel est affectée au laboratoire de calcul mécanique
directement rattaché au CNRS 37. Joseph Pérès, directeur adjoint du CNRS et
président du comité de mécanique, prend l’initiative d’y associer son laboratoire
de calcul analogique. Ainsi est créé l’Institut Blaise Pascal (IBP) en novembre
1945 sous l’autorité de Couffignal. Le CNRS pense que la remise à niveau de la
France passe par la construction d’une machine française.
« Le CNRS veut consacrer les crédits nécessaires à l’étude et la réalisation
d’une machine universelle tenant compte des réalisations faites aux États-
Unis, mais sans les copier ; grâce aux travaux de M. Couffignal nous gardons
une avance du point de vue théorique 38. »

35 Denis Guthleben, Histoire du CNRS de 1939 à nos jours, septembre 2013, éditions
Armand Colin, p. 200.
36 Pierre-Éric Mounier-Kuhn, L’informatique en France, de la seconde guerre mondiale

au Plan Calcul, Paris, PUPS p. 91.


37 Mounier-Kuhn, op. cit., p. 92.
38 Guthleben, op. cit., p. 201.
La création du CIRCÉ 31

Son directeur Frédéric Joliot-Curie et son sous-directeur G. Tessier ont des


ambitions, mais mus par un sentiment patriotique et un anti-américanisme bien
français, ils confient le projet à Couffignal sous l’égide de Joseph Pérès 39.
« Ne pas “copier” les Américains, suivre une voie bien française. L’idée est
ambitieuse. À défaut elle est au moins patriotique. En réalité ce n’est que la
première erreur d’une longue série. »
Selon Couffignal, les calculateurs anglais et américains attribuent une place
trop importante à la mémoire. Pour lui il vaut mieux utiliser plusieurs chiffreurs
indépendants qui seraient commandés par un cerveau électronique, comme dans
un central téléphonique. En 1946, il fait un séjour aux États-Unis. Il voit les
développements à Princeton qui confèrent à la mémoire une place centrale, mais
il est persuadé qu’il n’y a pas de solution aux problèmes techniques que pose
leur réalisation et il poursuit son idée. Il prévoit que sa machine française sera
opérationnelle en 1950.
L’IBP met en place un partenariat avec la société Logabax pour construire
les machines et Couffignal en fait mettre une en place à l’IPG (Institut de
Physique du globe) en prophétisant :
« Cette machine fera de l’IPG l’établissement le mieux équipé dans le
monde pour l’analyse harmonique, mieux que les universités de Berlin et
Cambridge 40. »
Or, Logabax n’est pas le meilleur choix. La firme n’a pas la moindre com-
pétence en électronique, et elle est dans une impasse financière. Cependant,
F. Joliot-Curie et G. Tessier entretiennent « un chauvinisme technologique,
relayé par la presse française ».
« La presse de l’époque multiplie les articles sur l’Institut Blaise Pascal et
célèbre à l’envie la machine française. Le nom officiel “machine IBP” sonne
comme une réplique à l’IAS machine de Von Neumann. Face à Princeton,
Chatillon-sous-Bagneux relève le défi 41. »
La revue Atomes ne manque pas de souligner l’appui que Marcel Brillouin
apporte à Couffignal :
« En effet, M. Brillouin professeur de physique théorique au Collège de
France et Couffignal, Inspecteur général de l’enseignement technique, dont
les efforts conjugués vont bientôt permettre à la France de posséder une
machine originale de 7 tonnes, capable de rivaliser avec les plus belles réali-
sations d’outre-Atlantique 42. »
L’apothéose de Couffignal est le colloque international qu’il organise en jan-
vier 1951 ayant pour thème Les machines à calculer et la pensée humaine,
qui rassemble la plupart des spécialistes du calcul électronique européens et

39 Guthleben, op. cit., p. 201.


40 Mounier-Kuhn, op. cit., p. 96.
41 Mounier-Kuhn, op. cit., p. 104.
42 Mounier-Kuhn, op. cit., p. 105.
32 De l’IBM 360/75 au superordinateur Jean Zay

quelques notables américains 43. Ce colloque ne lui ouvre pas les yeux. Mais
Gaston Dupouy, alors directeur du CNRS, prend conscience à ce colloque du
fait que les étrangers vont bientôt sortir des machines commerciales alors que
l’ordinateur de l’IBP n’en est encore qu’à la conception de quelques-uns de ses
éléments. Mais il ne réagit pas, car il a toute confiance dans Pérès. En 1956,
la machine française doit toujours battre celles de Harvard, Amsterdam ou
Stockholm. Mais quand elle fait son apparition en 1957, elle ne tient aucune des
promesses faites il y a dix ans. On a beaucoup écrit sur les causes de l’échec du
CNRS dans son entrée dans le domaine informatique. Quelques-unes des plus
évidentes sont la méconnaissance et l’incompréhension de ce qui se faisait à
l’étranger, un antiaméricanisme qui a perduré plusieurs années, le fait que notre
excellence en mathématiques théoriques nous faisait négliger les mathématiques
appliquées, qu’on a mis tous les espoirs en un seul chercheur, et que le dit savant
n’était pas familier de l’électronique.
Le nouveau directeur du CNRS, Jean Coulomb, met fin aux fonctions de
Couffignal, dissout son laboratoire et se résout à acheter des machines parmi les
plus performantes. En 1957, il impose René de Possel (1905-1974) à la tête du
laboratoire de calcul numérique de l’Institut Henri Poincaré (IHP) puis comme
successeur de Couffignal à l’IBP. Il y restera jusqu’en 1969. C’est un brillant
mathématicien passé du bourbakisme aux mathématiques appliquées. Il ne
connaît rien aux ordinateurs, mais il est imaginatif. Il partage les premiers cours
d’informatique avec Jean Ville statisticien probabiliste. C’est à deux des élèves
de celui-ci, que de Possel confie les services de calcul de l’IBP, Jean Porte, sta-
tisticien lui aussi qui poursuit des travaux de logique mathématique et L. Nolin.
Ce dernier dispense d’excellents cours de programmation aux chercheurs et aux
techniciens du centre 44. L’IBP reçoit la tutelle de deux nouveaux laboratoires :
ceux de traduction et de documentation automatiques.
Enfin, en 1959, tous les chercheurs de l’IBP assistent au premier congrès de
l’International Federation for Information Processing (IFIP) où ils découvrent
les axes de recherches américaines en informatique. René de Possel ouvrira l’IBP
à l’Enseignement supérieur et fondera en 1963 l’Institut de programmation. Avec
toute une série de chercheurs, Jean Ville, Louis Nolin, Marcel-Paul Schutzenberger,
Jacques-Louis Lions, Jacques Arsac, J. Porte, Maurice Nivat, il créa un ensei-
gnement de l’informatique. À son âge d’or, l’IBP a eu jusqu’à 140 membres.
Il fut équipé de l’ancien 704 d’IBM de la place Vendôme, remplacé par la suite
par un Control Data 3600. Parmi les réalisations en recherche informatique, on
peut citer un système d’exploitation en temps partagé développé par Nolin, des
compilateurs etc. Mais le projet de machine à lire les caractères de de Possel est
arrêté et le Trésor de la Langue Française est transféré à Nancy. La machine à
traduire a de bonnes performances, mais est dépassée par une technologie plus
nouvelle 45.

43 Mounier-Kuhn, op. cit., p. 107.


44 Mounier-Kuhn, op. cit., p. 277.
45 Mounier-Kuhn, op. cit., p. 289.
La création du CIRCÉ 33

En 1967, de Possel confie la direction de l’Institut de programmation à


Arsac. Une chaire de programmation dont le cursus est élargi à un enseignement
complet de l’informatique avait été créée pour lui en 1965.
Arsac avait en outre créé en 1959 un centre de calcul CNRS à Meudon qui
fut doté d’un 650 puis d’un 7040 IBM. Je lui ai succédé en novembre 1964, à la
direction du centre, rappelée pour cette tâche des États-Unis par Denisse.

2.1.2 Dans les universités


On a vu qu’aux États-Unis, pendant la guerre, s’était développée une école
de mathématiciens qui par nécessité de recherches militaires s’était consacrée,
entre autres, à la théorie de l’information et aux mathématiques appliquées.
La même tendance naîtra en France après la guerre bien qu’il y eût chez nous,
à cette époque, nombre de discussions qui s’apparentaient à celles du sexe des
anges pour savoir si l’informatique était une science ou une technique et si les
mathématiques appliquées étaient vraiment des mathématiques. Robert Fortet
franchit le pas, un des premiers, après un séjour au centre de calcul du NBS
(National Bureau of Standards) de Baltimore.
Jean Kunzmann, revenant à la vie civile dès 1945 après cinq années de
guerre et de captivité, s’éloigne de l’équipe Bourbaki, et dit-il, de l’algèbre
hyper-désincarnée pour répondre, comme il avait été fait auparavant aux États-
Unis, aux besoins des électroniciens qui s’occupent de questions liées au radar
et à la radionavigation pour les services de la marine 46. Il crée l’Institut de
Mathématiques de Grenoble (IMAG) qui dès 1963 comprend 53 membres et
délivre un enseignement de 3e cycle de mathématiques appliquées. Cet institut
sera ensuite dirigé par Louis Néel et deviendra un excellent centre de forma-
tion d’ingénieurs informaticiens, dont les promotions irrigueront l’industrie et
la recherche. On y fait aussi de la recherche sur les langages et les systèmes de
programmation, en particulier sur l’ALGOL.
En 1956, l’université de Toulouse développe l’enseignement et la recherche en
informatique autour de son centre de calcul qui fait une expérience de « Time
sharing » utilisant 16 terminaux connectés à un ordinateur CAE 510. Le centre
de calcul est dirigé par Émile Durand et Michel Laudet. Il forme des ingénieurs,
en particulier pour les Télécommunications et travaille sur des algorithmes de
reconnaissance de forme et de procédures d’apprentissage dérivant de celles de
Wiener.
Les ingénieurs et les maîtres de conférences formés dans les trois pôles,
Institut de programmation à Paris, IMAG et Toulouse, émigreront dans d’autres
facultés où ils feront de l’enseignement et de la recherche autour de centres de
calcul plus ou moins bien équipés : Lille, Clermont-Ferrand, Strasbourg, Rennes,
Nantes, Besançon, Poitiers, Montpellier, Lyon, Marseille. Dès 1960, la faculté
des sciences d’Orsay crée un centre de calcul équipé avec un IBM 650 puis sous

46 Mounier-Kuhn, op. cit., p. 242.


34 De l’IBM 360/75 au superordinateur Jean Zay

Loup Verlet avec un Univac 1108. Il est d’abord consacré à la physique nucléaire
et à mesure que son utilisation par cette discipline décline, il s’ouvre à d’autres
utilisateurs de la faculté.

2.1.3 Au CEA (annexe 40)


Il est très instructif de faire un parallèle entre le développement du centre de
calcul du CEA et celui du centre de calcul d’Orsay. Ce sont aujourd’hui deux
de nos trois grands centres nationaux et on peut faire un parallèle entre leur
développement en cinquante ans. Pour le CEA ce fut cinquante ans de calcul
intensif et de simulation (annexe 37).
Jusqu’en 1954, les recherches menées au CEA en neutronique ne nécessi-
taient rarement plus de 12 équations linéaires à 12 inconnues qui pouvaient
être résolues par le centre de calcul et ses quatre machines à calculer Friden.
On a vu que c’était mon expérience dans les centres de calcul de la NASA qui
m’avait servi de support pour créer le centre de calcul d’Orsay. J’arrivais avec
un sujet de recherche qui à lui seul aurait pu saturer la machine. De même,
c’est à l’étranger qu’Albert Amouyal a trouvé ses modèles pour créer son centre.
Dès 1952 le besoin de calcul était là, avec la collaboration avec le CERN pour
les recherches en physique atomique et nucléaire. Le point de départ pour la
création du centre n’a pas été pour A. Amouyal une invitation aux États-Unis,
mais à une école d’été à Cambridge, suivie par un stage de plusieurs mois, au
terme duquel il a considéré « qu’il était temps pour le service de Mathématiques
appliquées du CEA de se lancer dans l’utilisation de ces techniques nouvelles ».
C’est la suite qui a été différente : alors que le centre de calcul d’Orsay était
confronté au scepticisme de son institution, au CEA, aussitôt après la création
du centre de calcul, la décision était prise de créer un groupe spécialisé et de
recruter de jeunes ingénieurs de haut niveau, dont deux mathématiciens frais
émoulus de l’ENS et envoyés à Cambridge et Manchester pour formation d’une
année. Ce dernier centre qui au début était quasiment en libre-service, et où
« chaque ingénieur effectuait lui-même le passage machine concernant sa propre
mise au point », s’est transformé naturellement au fil des années en un centre de
service multidisciplinaire, faisant partie du GENCI. Le tableau suivant donne la
liste des matériels installés au CEA de 1957 à 1972 47.

47 Albert Amouyal, « Les débuts de l’informatique au Commissariat à l’Énergie


Atomique (1952-1972) », Extrait des actes du deuxième colloque de l’Informatique
en France, Conservatoire national des Arts et Métiers, Paris, mars 1990, 2 volumes,
p. 11-38.
La création du CIRCÉ 35

Performances
Année Type d’équipement approximatives en MIPS
(méga instructions par seconde)

IBM 650
1957 0,1
MERCURY

1961 IBM 7090 0,3

1963 2e IBM 7090

Transformation des IBM 7090 en


1964 7094 modèle 2 2 × 0,45
2 IBM 7040

1965 IBM 360/30 –

1966 IBM 360/50 0,3

CDC 6600 1,4


1967
IBM 360/75 0,7

1969 IBM 360/91 2,2

CDC 6400 0,5


1972
CDC 7600 6,5

Figure 4 – Équipement du CEA civil jusqu’en 1972

2.2 La scission avec l’Institut Blaise Pascal (IBP)


de la rue du Maroc en 1969
J’ai voulu cette scission effective, nette, totale et immédiate. Je ne connais-
sais pas personnellement cet institut, mais je savais que son histoire était très
compliquée. En 1969, il était devenu difficile à gérer parce que sa tâche était
trop étendue Je n’avais jamais rencontré les personnes qui le dirigeaient. Mais
je connaissais très bien J. Arsac depuis qu’en 1955 je lui avais soumis mon
problème de Transformée de Fourier pour lequel il n’avait pas pu me proposer
de solution. En 1964, je lui avais succédé à la direction du centre de calcul de
Meudon. L’IBP abritait de nombreux chercheurs qui faisaient essentiellement
de la bonne recherche en informatique et un bon enseignement donné en liaison
avec l’Institut de programmation, qui était une de ses créations. Sa structure
administrative était complexe. Il abritait aussi le centre de gestion du CNRS,
deux laboratoires du CNRS, le centre de recherches en traduction automatique,
et celui de machine à lire. Très accessoirement, il était aussi un centre de ser-
vice de calcul scientifique. Par exemple, Alain Chedin chercheur à Jussieu au
Laboratoire de météorologie dynamique (LMD) y a porté ses travaux. A. Colinot
et P.-E. Mounier-Kuhn ont publié en 2010 une histoire de l’IBP. Ils y mettent en
lumière la diversité des tâches de l’IBP. Cependant, dans aucune des histoires
36 De l’IBM 360/75 au superordinateur Jean Zay

dont ce centre a fait l’objet il n’est signalé que c’était d’abord le centre de ges-
tion du CNRS. Il est surtout connu comme centre de recherches. Son directeur
R. de Possel 48.
« Celui-ci [R. de Possel] confie d’ailleurs les services de calcul de l’IBP à deux
élèves de Ville, qui commencent aussitôt à y développer des recherches. »
R. de Possel était un brillant savant, mais un mauvais gestionnaire. Il voulait
faire de la recherche fondamentale lourde, mais sans subir les contraintes qu’elle
impose. Il avait aussi des difficultés dans ses relations avec les industriels qui
ont besoin de réalisations concrètes et quand il a eu affaire à un industriel il a
fait un mauvais choix 49.
« Monsieur de Possel a d’ailleurs un grand nombre d’idées qu’il n’a malheu-
reusement jamais rédigées ou rassemblées dans des articles ou dans des notes
donnant lieu à une prise de brevet. Il en parle à tout le monde et certaines
de ses idées ont été reprises ailleurs sans aucune protection. »
Mais l’IBP était censé être le centre de calcul du CNRS. Il est obligé malgré
lui d’offrir des services à un flux de scientifiques demandeurs 50.
« [Les personnels de l’IBP] ont commencé à initier les chercheurs de toutes
disciplines à la programmation, afin de favoriser une forme de libre-service
et de dégager du temps pour leur propre recherche. »
On met ici en évidence le fait que l’objectif principal était la recherche en
informatique et pas le service, avec le souci de consacrer à cette recherche le
plus de temps de recherche personnelle et d’exploitation et d’énergie possibles.
C’était très difficile à gérer et incompatible avec la satisfaction des besoins en
calcul des chercheurs pour lesquels l’informatique était l’outil indispensable.
D’ailleurs cette situation n’est pas propre à l’IBP et Pierre-Éric Mounier-Kuhn
indique que les mêmes difficultés se présentaient dans les centres de calcul
universitaires 51.
« Le conflit est permanent dans l’emploi du temps des informaticiens entre
service de calcul pour répondre à la demande, toujours plus pressante, et
recherche génératrice de publications et de satisfactions professionnelles. »
Cet auteur, rend hommage au travail que de Possel a accompli avec son
équipe à cette époque.
« L’IBP de René de Possel a constitué une petite communauté où se sont
rapprochés pendant quelques années décisives, des scientifiques venus de tous
les horizons, habités de différentes convictions religieuses ou politiques dans
lesquelles ils ont pu puiser une énergie et peut-être une foi nécessaire pour
construire “nouvelle science”. »

48 Anne Colinot & E. Mounier-Kuhn, « Forteresse ou Carrefour », La Revue pour l’his-


toire du CNRS, n° 27-28, automne-hiver 2010, p. 81.
49 Mounier-Kuhn, op. cit., p. 289.
50 Anne Colinot & E. Mounier-Kuhn, op. cit., p. 87.
51 Mounier-Kuhn, op. cit.
La création du CIRCÉ 37

L’histoire de cette période est très difficile à appréhender, même cinquante


ans après. Il ne faut pas oublier que’ la notion de centre de calcul scientifique
voué à ce qui était le calcul intensif à cette époque n’existait pas en France,
dans les universités. Dans les deux principaux centres universitaires, à Grenoble
et Toulouse, on faisait la gestion de l’université, du bon enseignement, de la
recherche en informatique et accessoirement, on avait un service pour les uti-
lisateurs venus d’autres disciplines. Finalement, le CNRS n’était pas différent,
partagé entre plusieurs missions. À la création de l’IBP, on y faisait tout. C’était
une ruche. Puis de Possel a eu l’intuition qu’il fallait séparer les chercheurs
en les affectant à des laboratoires du nouveau type, les laboratoires associés.
Ils étaient l’ossature de l’Institut de programmation. Tellement associé que
J. Arsac faisait rue du Maroc une partie de ses cours et travaux pratiques. Dans
son ensemble, le personnel avait des idées diamétralement opposées aux miennes
quant à la vocation de ce qu’ils appelaient « un centre de calcul ». Depuis plus
d’un an, des rumeurs de changement circulaient au niveau de l’IBP et une partie
du personnel était fortement opposée à la séparation du centre de calcul et de
la recherche en informatique. En mai 1968, l’IBP était en grève à 100 %, essen-
tiellement pour obtenir la mise en place d’une structure où les ordinateurs ser-
viraient essentiellement à la recherche en informatique et ensuite seulement aux
autres utilisateurs. Les grévistes avaient déjà donné un nom au nouvel ensemble
« Groupe de Recherche en Informatique Fondamentale et Appliquée (GRIFA) ».
J. Arsac ne dit pas autre chose dans la Revue de l’Enseignement supérieur.
« À l’heure actuelle, considérant que l’essor technique n’a de sens que s’il est
nourri par une recherche fondamentale, le service entreprend de mettre sur
pied une équipe de recherche en analyse numérique 52. »
Bref, l’IBP en 1969 réunissait, pour l’informatique de service, au même titre
que les centres universitaires toutes les caractéristiques de ce que contre quoi on
m’avait mise en garde pendant mon travail aux États-Unis dans un centre de
service. J’avais eu l’occasion, de plus, de voir ce qu’à l’IBP on appelait centre
de calcul, quand en 1964 j’avais pris la direction de celui de l’observatoire de
Meudon à la suite d’Arsac qui l’avait créé.
Quand j’ai accepté la proposition de Pierre Jacquinot, ma première condi-
tion a été de ne transporter à Orsay que la partie service de calcul et rien de la
gestion, ni de l’enseignement ni de la recherche. Je lui ai demandé de prévenir
le personnel et de prendre toutes les mesures nécessaires pour que chacun, cher-
cheur et technicien, ait trouvé une structure adéquate pour l’accueillir avant
que je me présente au personnel de l’IBP avec mon projet, ce qui a été réa-
lisé. Depuis trois ans, un laboratoire, le RAMI, avait été créé pour de Possel
et le reste de la recherche a été divisé fin 1969 en quatre laboratoires associés
Enseignement supérieur-CNRS 53 :
y ERA 84 Structure de systèmes informatique (Jean Suchard, Jacques
Arsac) CNRS - Paris VII qui deviendra le MASI en 1975 ;

52 Arsac, Revue de l’Enseignement supérieur, n° 2, 1963, p. 67.


53 https://www.lip6.fr/recherche/team.php?acronyme=IBP%201946-1969
38 De l’IBM 360/75 au superordinateur Jean Zay

y GR 22 Structure de l’information (Claude-François Picard) CNRS - Paris


VI qui deviendra le LAFORIA en 1975/1977 ;
y ERA 247 Laboratoire d’automatique documentaire (Maurice Gross)
CNRS - Paris VII qui deviendra le LADL ;
y ERA 295 Informatique Théorique (Maurice Nivat 1972, Louis Nolin,
Marcel-Paul Schützenberger) CNRS - Paris VII qui deviendra le LITP.
La partie gestion est restée inchangée. Le seul contact que la nouvelle direc-
tion du centre de calcul d’Orsay aura avec les services restés rue du Maroc sera
une période de direction temporaire du centre de calcul de gestion, qui s’est
trouvé en difficulté en 1978-1979. Mais même à ce moment-là, il n’y eut pas
la moindre interaction entre les deux centres, le directeur et le sous-directeur
du CIRCÉ passant alternativement une journée rue du Maroc, en service com-
mandé. Les deux tâches urgentes durant cet épisode auront été le rétablissement
de la paie du personnel, celui du paiement des fournisseurs et la recherche d’un
directeur pour le centre de calcul de gestion.
Le CNRS avait depuis plusieurs années entrepris la construction, sur le campus
de la faculté des sciences d’Orsay, d’un bâtiment destiné à abriter les services qui
constituaient l’IBP et fonctionnaient à Paris, rue du Maroc. Mais en fait, seule
une partie du service de calcul de l’IBP y a été transférée. Elle s’est fondue dans
la nouvelle entité qui prit le nom de centre de calcul du CNRS à Orsay. À la pre-
mière visite que je fis rue du Maroc, souhaitant rencontrer l’équipe technique, je
remarquai qu’un nom circulait, celui de Philippe Salzedo, désigné comme l’ingé-
nieur faisant marcher la maison. Je lui ai exposé mon projet. Au bout d’une heure,
il a, devant moi, appelé une firme industrielle, (je ne sais laquelle), pour l’avertir
qu’il retirait sa candidature. Cette rapidité de décision m’a convaincue qu’il ferait
un bon sous-directeur et je lui ai proposé le poste. Il m’a aussitôt donné la liste
des personnes qu’il voulait emmener à Orsay si elles acceptaient. Et celles des
personnes qu’il ne voulait pas avoir à diriger dans le futur centre. Ceci sans état
d’âme car on savait qu’elles avaient déjà leur place dans l’entité qui subsistait rue
du Maroc. Donc rien ne changeait pour elles. P. Salzedo, bien qu’ayant l’intention,
sauf changement majeur, de quitter l’IBP avait commencé à former une équipe,
depuis dix-huit mois, en vue de l’installation d’un matériel IBM puissant, pour
cette époque, dans la future localisation. Il voulait quitter l’IBP mais laisser une
équipe formée. C’est ainsi qu’a commencé une collaboration de vingt années pen-
dant lesquelles il ne s’est pas passé une journée où, après discussions, nous n’ayons
adopté une position commune à afficher. Dans la suite de cette histoire, jusqu’en
1990 où il a donné sa démission, quand j’emploierai « nous » au lieu de « je », ou
quand je parlerai de la direction du CIRCÉ, il s’agira de P. Salzedo et moi-même.
Des embauches avaient été faites dans ce but en janvier 1968, dont celle de
Françoise Perriquet. Ces nouveaux venus se souviennent des heures passées chez
IBM-REAUMUR. Ils y ont même reçu des pavés au travers des vitres des locaux
d’IBM lors de la visite du président des États-Unis, Nixon à Paris. Ils y testaient
les nouveaux systèmes IBM. Puis, les événements de mai 68, avec la grève à
100 % de l’IBP pendant un mois, ont stoppé les travaux préparatoires. Ces jeunes
ingénieurs ont constitué les premiers membres de l’équipe système : Jacqueline
Denyset, Bernard Gaulle, Pierre Godot, Françoise Perriquet, Gilles Plançon,
Annie Potin, Jean-Pierre Pouchez, Marcel Soberman et Gérard Terrine.
La création du CIRCÉ 39

Ils étaient bien préparés. Certains avaient déjà fait des stages prolongés chez
IBM. Tous travaillèrent ardemment dès que les ordinateurs ramenés de Blaise
Pascal furent remis en marche après la grève de 1968. IBM les avait pris sous
son aile : visite des usines de Corbeil, séminaires, cours etc. Salzedo surveillait
les travaux à Orsay chaque semaine.
Côté exploitation, Georges Taieb et Robert Binisti et quelques opérateurs
vinrent de la rue du Maroc, ainsi que Madame Jouannaud, la secrétaire générale
et deux mécanographes.
Peu de temps avant le déménagement, à Orsay, ils ont appris qu’il y aurait
une directrice « scientifique » à la tête du Centre qui venait de l’observatoire
de Meudon. Certains ne m’avaient pas encore rencontrée, mais tous accordaient
une totale confiance à Salzedo et étaient prêts à le suivre.
Mon décret de nomination comme directrice et celui de Philippe Salzedo
comme sous-directeur sont datés d’avril 1969. Lui-même connaissait très bien le
bâtiment puisqu’il en avait suivi la construction. Je suis arrivée au moment des
finitions et ne suis intervenue que sur un point, la consolidation du plancher de
la salle machines qui n’avait pas été prévu pour le poids des nouveaux ordina-
teurs à venir. Pour le prouver il n’a été besoin que de lancer, pour le traverser,
un chariot très lourdement chargé de blocs de ciment. Il est passé au travers
de la dalle. Il a fallu la consolider en toute dernière minute. D’où la forêt de
poteaux qui la soutiennent et surprennent les visiteurs des locaux techniques.
Je n’ai pas promis au personnel du centre de calcul, comme Churchill l’a fait
aux Anglais en 1940, du sang et des larmes, mais beaucoup de travail et de nuits
blanches. J’étais consciente de la tâche qui les attendait. J’arrivais avec une
longue expérience de travail dans un centre de calcul intensif aux États-Unis.
Ma recherche personnelle nécessitait des calculs lourds. Mes contacts de travail
aux États-Unis dans une équipe multidisciplinaire m’amenaient à la conclusion
que beaucoup d’équipes en France devaient avoir les mêmes besoins. Il fallait
les leur faire découvrir. Et depuis cinq ans, je dirigeais le centre de calcul de
l’Institut National d’Astronomie et Géophysique (INAG).

2.3 Réaction du CNRS et de l’Enseignement


supérieur
Cette transformation de l’IBP, initialisée par la direction générale du CNRS, a été
soutenue sans restriction par Pierre Jacquinot ; son successeur Hubert Curien et
le directeur administratif Charles Gabriel qui l’ont portée à bout de bras, tenant
la nouvelle équipe d’Orsay, pleine d’enthousiasme, hors des remous politiques.
Quel a été l’impact sur les autres centres de calcul du CNRS ? Nul, car ce
n’était pas le propos. Un des centres du CNRS a gardé sa complète autonomie.
C’est celui de l’Institut National de Physique nucléaire et de Physique des parti-
cules (IN2P3) qui s’équipait et travaillait en symbiose avec le Conseil Européen
pour la Recherche Nucléaire (CERN). Il était dirigé par Jean Yoccoz et son direc-
teur technique, Jacques Ganouna. Pendant la première décennie, il s’est tourné
vers l’Enseignement supérieur pour ses problèmes administratifs et de développe-
ment, et ignorait totalement le CNRS. C’est d’ailleurs à l’Enseignement supérieur
40 De l’IBM 360/75 au superordinateur Jean Zay

que se prenaient… ou justement ne se prenaient pas, les décisions. Or, à la mise


en place de la Direction Informatique du CNRS (DIS), on a établi une admi-
nistration commune des quatre centres CNRS (CIRCÉ, centre de Strasbourg,
CCPN, la partie CNRS du CCVR). Alors l’IN2P3, n’obtenant rien de l’Ensei-
gnement supérieur s’est tourné vers le CNRS. Un accord a été trouvé avec la
Commission à l’Informatique : l’IN2P3 obtenait les ordinateurs américains VAX
qu’il demandait, si le CIRCÉ se sacrifiait en prenant du matériel français.
À la création du centre de calcul CIRCÉ, une opposition directe est venue
de l’Enseignement supérieur en la personne de Louis Verlet, qui dirigeait le
centre de calcul universitaire d’Orsay. Il était très opposé à l’installation sur
le campus d’Orsay d’une usine à calcul. Pour bien lui montrer qu’il garderait
ses clients qui appréciaient son centre convivial, il a été nommé dès le début au
comité de direction de la dite usine. Le but était de faire ce qu’on ne pouvait
pas faire ailleurs, mais pas de casser ce qui marchait. Bon nombre d’utilisateurs
de l’UNIVAC étaient très satisfaits d’y avoir leurs entrées et de l’utiliser à leur
guise en libre-service. Ils ont continué à le faire, utilisant le CIRCÉ, petit à petit
quand ils en avaient vraiment besoin, ce qui est très bien.
Les principes qui ont présidé à la création du CIRCÉ allaient à la fois contre
les idées affichées d’une partie du « personnel informatique » et contre celles
de l’Enseignement supérieur pour qui elles étaient suspectes. Si nous avons tant
insisté sur ces difficultés, c’est parce qu’elles ont mis des décennies à disparaître.
Plusieurs rapports le montrent, écrits au fil des années, par des personnes indé-
pendantes ; ils seront détaillés par la suite. Comme il a déjà été dit, le centre
de calcul doit sa survie et son développement au soutien sans faille des direc-
teurs généraux du CNRS, en particulier Pierre Jacquinot, Hubert Curien, Pierre
Papon, et François Kourilsky et Catherine Bréchignac, mais, pendant long-
temps, avec une attitude très réservée de la plupart des directeurs scientifiques.

2.4 Relations CNRS-Enseignement supérieur


Le centre de calcul du CNRS avait donc à défendre son existence vis à vis de
l’Enseignement supérieur (ES). À la fin des années 50 et pendant les années 60,
l’Enseignement supérieur avait développé des centres de calcul universitaires,
dont certains fonctionnaient d’ailleurs en partie avec du personnel CNRS. Ils
faisaient la gestion de l’université, de la recherche en informatique et avaient
essentiellement un rôle d’enseignement. Ils ont formé des promotions d’ingé-
nieurs pour la recherche et l’industrie. Mais ils n’avaient que peu de temps à
consacrer à une activité de service pour les autres disciplines de leur université.
Quelques-uns, surtout dans la région parisienne, ont craint de voir leur mode de
fonctionnement bouleversé. Que venait faire là cette usine à calcul d’un genre
tout nouveau ? Ceux des utilisateurs de ces centres qui avaient de gros calculs
ont été vite rassurés, quand ils ont compris que l’usine était là pour satisfaire
des besoins qui ne l’étaient pas jusqu’alors. Mais les autorités de tutelle de
l’Enseignement supérieur ne l’ont compris que beaucoup plus lentement. Et cela
était entretenu par une confusion au plus haut niveau. Au gré des changements
de gouvernement, qui étaient accompagnés d’ajustements de leurs ministères, le
La création du CIRCÉ 41

CNRS a dépendu du ministre de la Recherche et de l’Enseignement supérieur,


ou du ministère de la Recherche et de l’Innovation, ou de la Recherche, ou de
la Recherche et de l’Industrie, ou de la Recherche et de la Technologie et même
des Télécommunications. Et les dossiers qu’il présentait en commission étaient
en apparente compétition avec ceux de l’Enseignement supérieur, bien que les
objectifs aient été différents.
Un autre problème de taille auquel le personnel du centre de calcul a été
confronté est le manque de considération qu’il ressentait de la part de certains
hauts responsables et de certains informaticiens eux-mêmes. On a déjà dit que
des livres entiers avaient été écrits sur les frontières entre mathématiques pures
et appliquées, entre ces dernières et l’informatique. La question « l’informatique
est-elle une science ? » a beaucoup préoccupé les esprits.
Au comité national du CNRS, il est question de savoir quelle commission
doit abriter l’informatique, qui jusque-là était dans la même commission que la
mécanique 54 :
« On s’accorde sur la création d’une section de mécanique. Mais quel statut
donner à l’informatique ? Le président de séance, André Lichnerowicz, expose
d’emblée son point de vue. “La notion même de mathématiques appliquées est
à réprouver” et il faut écarter de la discussion la question du service de calcul,
qui ne relève pas d’une commission de recherche. »
Pendant longtemps, les informaticiens du centre de calcul se sont sentis mal
considérés par certains chercheurs en informatique. Ils étaient d’autant plus
surpris qu’il est arrivé très souvent qu’un des sujets de recherche et de thèse des
chercheurs était le développement d’outils en service depuis des années chez les
constructeurs et qu’ils avaient eux-mêmes modifiés pour les adapter aux besoins
spécifiques. L’idée centrale qui a présidé à la création du centre de calcul et qui
a mis si longtemps à être acceptée est que faire de la recherche en informatique
et exploiter un ordinateur de pointe sont deux métiers différents, mais qu’il n’y
a pas de hiérarchie entre eux. L’ingénieur qui doit être au fait des dernières
possibilités en matériel et logiciel sur les machines de pointe pour les mettre à
disposition des chercheurs a une tâche aussi exigeante que celle du chercheur.
Pour preuve, s’il était besoin d’en trouver une, un ingénieur sortant d’une uni-
versité donnant le meilleur enseignement devait travailler un an dans le centre
de calcul avant d’être utilisable, c’est-à-dire avant qu’il soit responsable d’un
développement spécifique. D’où des difficultés de recrutement considérables qui
sont apparues dès 1975. Les nouvelles recrues donnaient leur démission au bout
d’un an, jusqu’à ce que l’un d’entre eux avoue qu’à la sortie de son école ils
étaient recrutés par une firme qui les envoyait faire une formation d’un an au
CIRCÉ, moyennant une prime qui les assurait que l’ingénieur reviendrait bien
chez eux après sa formation.
« Par ailleurs, le simple achat d’un ordinateur ne débouche pas nécessai-
rement sur un développement de l’informatique : dans bien des cas, cette

54P.-E. Mounier-Kuhn, « Comment l’informatique devint une science », La Recherche,


mensuel 465, p. 92-94, juin 2012.
42 De l’IBM 360/75 au superordinateur Jean Zay

acquisition répond à la demande de disciplines ayant besoin de calculs mais


ne prenant pas les méthodes de calculs pour objet : mécanique, astronomie,
physique nucléaire, cristallographie. Enfin, l’existence de cours de calculs
numérique voire d’informatique ne s’accompagne d’un développement de
recherche que si ces cours sont assurés par un enseignant de rang suffi-
sant. […] Les enseignements pratiques techniques du calcul sur machine ne
suffisent pas. De plus, le conflit est permanent dans l’emploi du temps des
informaticiens entre des services de calculs pour répondre à la demande tou-
jours plus pressante et recherche génératrice de publications et de satisfaction
professionnelle 55. »
Cette citation tirée du livre de P.-E. Mounier Kuhn est extrêmement impor-
tante. Elle donne son opinion sur deux idées fondamentales qui font la trame
du présent essai sur l’histoire du centre de calcul. D’une part elle reconnaît la
difficulté de faire côtoyer dans un même lieu deux activités, service et recherche.
D’autre part elle est explicite de l’idée qui était communément répandue – beau-
coup moins aujourd’hui – de la place d’un ingénieur de haut niveau d’un centre
de calcul dans la hiérarchie de la connaissance et de la compétence. Il faut aussi
que l’ingénieur d’un grand centre soit de rang suffisant et sa fonction n’est
pas seulement de donner des enseignements pratiques techniques du calcul sur
machine. Chacun son rôle. Cet enseignement de base est nécessaire et il est
donné dans les centres de calcul par des ingénieurs dont c’est la tâche. Mais
pour que le centre remplisse sa mission, il nécessite des ingénieurs qui ont des
tâches différentes qui s’apparentent à celles des meilleurs chercheurs. Ils ne sont
pas jugés sur leur nombre de publications, mais ils retirent aussi « une satisfac-
tion personnelle » de leur métier et nombre de chercheurs savent ce qu’ils leur
doivent et en témoignent. Dans les travaux de réception des machines de der-
nière génération, généralement assemblées à la demande, ils participent sur un
pied d’égalité avec les chercheurs dont les travaux ont été choisis comme tests.
Ce sont souvent des spécialistes d’une discipline dans laquelle ils ont quel-
quefois une thèse ou sont de ce niveau. Certains sont post-docs. Et en plus
ils ont une formation d’informaticien. Dans le centre de calcul ils collaborent
pendant des périodes de quelques semaines avec les chercheurs sur un problème
de pointe. Au bout de quelques temps, ils se lassent de papillonner d’un sujet
à l’autre et, s’ils le peuvent, trouvent un poste dans leur spécialité. C’est tout
bénéfice pour le laboratoire dans lequel ils atterrissent et en un sens, c’est le rôle
du centre de calcul de former des informaticiens de haut niveau. Mais c’est une
perte pour lui s’il ne reçoit pas un poste frais en échange, ce qui se passe dans
la majorité des cas.

55 Mounier-Kuhn, op. cit., p. 240.


La création du CIRCÉ 43

2.5 Comment résoudre ces difficultés


Ces difficultés de tous ordres ont mis des décennies à disparaître tout en faisant
de brèves réapparitions sporadiques. On a vu périodiquement un ministre ou un
ministre délégué demander à des autorités de lui faire un rapport sur l’état de
l’informatique en France pour en déduire des lignes de conduite. Ils sont volu-
mineux, documentés. Nous les verrons en détail. Mais souvent, ils enfoncent des
portes ouvertes et reprennent inlassablement les mêmes questions : l’informa-
tique, science ou technique ? Doit-on séparer recherche en informatique et centre
de calcul, vieilles questions judicieuses mais que les auteurs semblent découvrir à
chaque fois, et les solutions proposées sont très nettement influencées par l’ins-
titution d’appartenance de l’auteur.
Ces difficultés n’étaient que la traduction dans l’informatique de difficultés
beaucoup plus générales qui marquaient la vie des deux institutions CNRS et
Enseignement supérieur. Pour les comprendre il faut remonter d’un siècle, bien
avant la création du CNRS ! Elles se manifestent en fait à la création en 1901
de la Caisse des Recherches Scientifiques (CRS) qui marque la première mani-
festation des chercheurs scientifiques et leur besoin de s’organiser en dehors de
l’Université 56.
« La création de la CRS marque peut-être un début de prise de conscience
dans deux domaines : la faiblesse, à l’époque, des universités dans le champ
des recherches scientifiques et la nécessité de substituer aux distinctions et
aux prix qui viennent récompenser chaque année quelques découvreurs, des
moyens pérennes pour aider les chercheurs. »
Cinquante ans plus tard, Gaston Dupouy, qui développe à Toulouse le micros-
cope électronique dans des locaux exigus de l’université, profite des espaces plus
vastes du CNRS, et recherche avec finesse l’emboîtement parfait des politiques
des deux institutions, CNRS et Université. Mais cette nouvelle belle entente
tourne à la schizophrénie trois ans plus tard au sujet du laboratoire de biologie
végétale de Toulouse 57.
Ce sera tout l’enjeu de la décennie suivante, que de définir la manière de lier
le sort du CNRS et de l’Université. Ce problème a été le sujet de nombreux livres
et la façon dont il y est abordé dépend de l’appartenance administrative de l’au-
teur. Dans celui d’E.-P. Mounier-Kuhn est sous-jacent l’idée que la politique du
CNRS fait toujours partie des causes (même si ce n’est pas la seule) du retard
de la France en informatique en général. L’expérience malheureuse de l’IBP a
été déterminante pour son jugement sur les relations CNRS-Informatique. Elle
aurait marqué l’incapacité du CNRS à sa collaboration avec l’industrie.
« On peut faire remonter à cet épisode le faible développement de l’archi-
tecture de machines en France – notons que le CNRS, dans les dix années
suivantes, ne prendra aucun brevet de dispositifs de calcul numérique. Enfin,
l’échec de Couffignal est aussi celui de la collaboration entre le CNRS et

56 Guthleben, op. cit., p. 15.


57 Guthleben, op. cit., p. 204.
44 De l’IBM 360/75 au superordinateur Jean Zay

l’entreprise Logabax. Il n’a pu que creuser le fossé d’incompréhension ou de


méfiance entre la science et l’industrie, entre la recherche fondamentale et la
recherche technique 58. »
Malgré tout, il ne faut pas être trop sévère dans un jugement sur l’IBP.
Certes le CIRCÉ, suivant ma volonté, a été à sa création un nouveau laboratoire
propre que j’ai a voulu totalement indépendant de l’IBP, administrativement
et dans sa vocation. Mais si l’IBP était un « foutoir » suivant l’expression de
P. Jacquinot, c’est parce que ses fonctions étaient trop nombreuses et incompa-
tibles les unes avec les autres. Mais il ne faut pas oublier que c’est M. de Possel
qui a créé l’Institut de programmation, que la plus grande partie du personnel
des laboratoires associés informatiques de l’université de Paris-Jussieu et tous
leurs directeurs viennent de la rue du Maroc. Jacques Arsac, créateur de l’Ins-
titut de programmation, même après sa nomination à l’université où une chaire
d’informatique lui a été créée, a continué longtemps à y faire ses cours
Dans la collaboration CNRS-Logabax, la seule faute de Couffignal a été
de choisir Logabax, qui était comme on l’a déjà vu une société en mauvaise
situation financière et ne connaissant rien en électronique. C’était un sérieux
handicap pour construire un ordinateur ! L’échec était prévisible. La leçon à
retenir n’est pas que CNRS et industrie ne peuvent pas collaborer, mais qu’il
faut qu’une grande attention soit portée sur le choix de l’industriel. Et c’est là
que le CNRS a fait une faute qui ne remet pas en cause la collaboration avec
une industrie compétente.
L’organisation même du CNRS est aussi considérée comme fautive :
« Ce qui est particulier à la France, c’est qu’après 1951, le CNRS n’a pas tiré
les conséquences de l’échec et a attendu six ans pour prendre des mesures.
Au-delà d’un cas individuel, cette inertie met en cause les mécanismes d’éva-
luation et d’orientation du CNRS de l’époque où les laboratoires propres
étaient de véritables fiefs relativement fermés vis-à-vis de l’Université comme
de l’Industrie 59. »
Pour remédier aux difficultés des relations CNRS-Enseignement supérieur,
Pierre Jacquinot engage la création fondamentale des « laboratoires associés »
dont le premier sera créé en 1966 60. Le but était aussi de rétablir un peu de
discipline dans certains laboratoires universitaires où elle manquait quelque peu.
C’était un mariage de raison qui a eu un franc succès mais ne s’est pas fait faci-
lement car « à la veille d’associer aussi étroitement leurs destins le CNRS et
l’Université continuent de s’observer en chiens de faïence 61. »
Deux exemples montrent la complexité du problème : Jean Coulomb, alors
directeur du CNES après avoir dirigé le CNRS, craignait que l’Université ne voit en
lui qu’un pourvoyeur de moyens qu’elle pillerait. À l’opposé, Gérard Dupouy, qui
avait été si diplomate pour régler l’affaire du laboratoire de physiologie végétale,
lors de son passage à la direction du CNRS, prend parti pour l’Université quand il

58 Mounier-Kuhn, op. cit., p. 113.


59 Mounier-Kuhn, op. cit., p. 113.
60 Guthleben, op. cit., p. 250.
61 Guthleben, op. cit., p. 252.
La création du CIRCÉ 45

retourne à son laboratoire de Toulouse. Il craint, lui, que « le CNRS n’empiète trop
sur les prérogatives de l’Université et ne finisse par lui dicter ses recherches62. »
Cette mésentente s’attise souvent aux moments de changement de majo-
rité qui amenait des changements de l’équipe gouvernementale. À la fin des
années 80, elle est devenue critique.
« […] les relations entre l’organisme et sa tutelle, le nouveau ministre des
universités confié à Alice Saunier-Seïté sont exécrables, et la ministre n’a,
selon P. Creyssel, qu’une obsession : le CNRS est un gros machin, une grosse
administration 63… »
Les alternances de majorité dans les gouvernements ont entraîné automati-
quement la nomination d’un nouveau directeur du CNRS qui souvent avait sur
la politique de l’institution des vues différentes de celles de son prédécesseur.
Serge Feneuille, en 1987, prend le contre-pied de la réforme préconisée par
Hubert Curien quelques mois plus tôt, mais il entretient lui aussi des relations
exécrables avec son ministre de tutelle Jacques Valade (le mot « exécrable » est
employé pour la deuxième fois par Denis Guthleben) 64. S’il a été autant insisté
sur l’histoire du CNRS, c’est parce qu’il y sera fait référence dans les chapitres
suivants pour montrer que souvent les décisions prises pour le centre de calcul
du CNRS ont été politiques et comment il a su pendant cinquante ans surmonter
les incohérences, gardant pour seul objectif le service aux utilisateurs.
Comment ces problèmes ont-ils évolué dans les décennies suivantes pour les
équipements de l’informatique de service ? Une solution au problème de coha-
bitation constructive des deux institutions dans notre domaine, très longue à
élaborer, a été apportée par la création du GENCI. En revanche, les problèmes
de rémunération du personnel dans le contexte actuel ne sont pas résolus et se
posent d’une manière plus pressante encore avec le besoin de spécialistes très
pointus. Les solutions bricolées qui ont été mises en place au cours des années ne
sont plus suffisantes. De nouvelles doivent être trouvées pour l’avenir.
Le panorama des difficultés qu’a dû affronter le centre de calcul du CNRS
pour devenir ce qu’il est aujourd’hui, un des trois grands centres nationaux, ne
serait pas complet si l’on ne mentionnait pas l’instauration du ticket modérateur,
qui a donné cours à des situations ubuesques qui seront étudiées dans la suite.
Mais l’une d’elles est particulièrement illustrative des difficultés dans lesquelles
des décisions ministérielles mettaient la DIS, censée les faire appliquer dans les
quatre centres financés par le CNRS : IDRIS, CCVR pour sa part de participa-
tion au GIE, IN2P3. À un moment critique de la vie du centre de calcul Vectoriel
(CCVR) installé à Polytechnique, la DIS recevait du ministère l’injonction de
modifier le ticket modérateur dans ses quatre centres. Il s’agissait de comptabi-
liser pour pouvoir les facturer le nombre de pages sortant des imprimantes.
Et il était bien spécifié que cela devait s’appliquer sur la part CNRS du
CCVR alors que plus ou moins officiellement, le calcul y était gratuit pour ses
utilisateurs depuis la création du GIE. La confusion était complète.

62 Guthleben, op. cit., p. 252.


63 Guthleben, op. cit., p. 357.
64 Guthleben, op. cit., p. 405.
Chapitre 3
Vue d’ensemble du centre de calcul
du CNRS de 1969 à 2020

Pour avoir une vue d’ensemble de la vie du centre de calcul du CNRS qui, pen-
dant vingt ans, s’appellera CIRCÉ (Centre Interrégional de Calcul Électronique),
il faut non seulement passer en revue les parcs de machines installés, mais aussi
les systèmes d’exploitation disponibles en hardware et software, et cela depuis
soixante ans. Des bouleversements techniques ont fait passer les composants de
la lampe au transistor puis au circuit imprimé, au développement prodigieux.
Les architectures scalaires, vectorielles puis parallèles puis massivement paral-
lèles ont fait évoluer les puissances pour les calculs scientifiques et les volumes
de stockage de données d’une façon exponentielle. Leurs représentations gra-
phiques se font toujours à l’échelle logarithmique. Ceci en attendant les ordina-
teurs quantiques qui donneront « théoriquement » une puissance aussi grande
qu’on veut quand tous les problèmes annexes auront été résolus. Simultanément,
l’explosion de la demande, la formation des chercheurs scientifiques à l’informa-
tique, la banalisation de la mini-informatique et de la micro-informatique, le
développement des réseaux, le travail à distance, l’invasion du numérique dans
la vie quotidienne ont constamment modifié les possibilités de traitement de
l’information dans toutes les formations scientifiques. Mais pour que ces for-
midables avancées techniques soient accessibles aux chercheurs, il faut qu’elles
soient accompagnées d’avancées concomitantes au niveau décisionnel, en ges-
tion des perspectives et des moyens. Or, nous verrons que ce fut une opération
difficile.
Il faut revoir les schémas directeurs, les évolutions proposées, celles qui ont
pu être réalisées, celles qui ont été rejetées et pour quelles raisons. Il faut aussi
examiner les avancées scientifiques que le CIRCÉ a permis d’effectuer. L’idée
fondamentale est qu’un centre de service est un outil indispensable pour faire
une recherche de pointe. Cette idée a été partagée par les directeurs généraux,
et au début, pour aussi longtemps qu’il a été en exercice, par le directeur admi-
nistratif Gabriel qui a été jusqu’à demander quelques leçons particulières pour
mieux comprendre les démarches. C’est C. Gabriel qui m’a introduite auprès
des contrôleurs financiers avec lesquels j’ai toujours eu par la suite des rapports
constructifs. Il était habité par l’idée que l’administration du CNRS était là
pour aider les chercheurs et m’en a fait connaître les rouages dans la mesure où
48 De l’IBM 360/75 au superordinateur Jean Zay

cela pouvait servir mes projets. Mais d’autres instances supérieures n’étaient
pas dans le même esprit et au mieux ignoraient le centre de calcul, avec quelques
rares exceptions comme Messieurs Lagasse, Charpentier, Rocher, Combarnous,
Gagnepain, pour le département Sciences Physiques pour l’Ingénieur (SPI) et
Vermelin pour la chimie. Le centre de calcul avait plusieurs péchés rédhibi-
toires : il coûtait cher et on ne savait pas exactement ce qu’il faisait. Question
rituelle, l’informatique est-elle vraiment une science ? D’ailleurs on ne faisait
même pas de recherche en informatique au CIRCÉ. Alors on ne savait pas dans
quelle discipline le classer. Au début, il a été rattaché aux mathématiques, puis
ce fut au SPI, puis à la Direction de l’Informatique Scientifique (DIS). Celle-ci
rapportait directement à la direction générale et participait au comité de direc-
tion du siège quand il y était question du CIRCÉ, du centre de Strasbourg, de
celui de l’IN²P3, de la participation du CNRS au centre de calcul Vectoriel pour
la Recherche (CCVR), des réseaux et de l’informatique de service en général.
Puis le centre de calcul du CNRS est devenu une Unité de service (USI). Avec
les années, la prise de conscience de son utilité est arrivée au plus haut niveau et
maintenant le CNRS fait partie d’un GIE, le GENCI où les décisions sont prises
au niveau national et de plus en plus au niveau européen.
Comment ces problèmes ont-ils évolué dans les décennies suivantes pour les
équipements de l’informatique de service ? Une solution au problème de cohabi-
tation constructive des deux institutions dans notre domaine, très longue à éla-
borer, a été apportée par la création du GENCI. En revanche, les problèmes de
rémunération du personnel, dans le contexte actuel, n’est pas résolue et se pose
d’une manière plus pressante encore avec le besoin de spécialistes très pointus.
Les solutions bricolées qui ont été mises en place au cours des années ne sont
plus suffisantes. De nouvelles doivent être trouvées.
Avant de commencer l’étude de l’évolution des puissances installées, il faut
préciser quelques définitions et en particulier celle de l’unité de mesure.

3.1 Définitions
Le même ordinateur peut suivant les publications s’appeler calculateur, main-
frame, supercalculateur ou superordinateur et sa puissance peut être exprimée
suivant les besoins en MIPS (millions d’instructions
Nom FLOPS par seconde), en OPS (opération point par seconde)
yottaFLOPS 1024 ou en FLOPS (Floating Point Operations per second)
avec ses multiples (détails dans l’annexe 1).
zettaFLOPS 1021
Un ordinateur central ou un macro-ordinateur
exaFLOPS 1018 (mainframe computer), est un ordinateur de grande
pétaFLOPS 1015
puissance de traitement et qui sert d’unité centrale
à un réseau de terminaux.
téraFLOPS 1012 Un superordinateur ou supercalculateur est un
gigaFLOPS 109 ordinateur conçu pour atteindre les plus hautes
performances possibles (HPC) avec les techniques
mégaFLOPS 106
connues lors de sa conception, en particulier en ce qui
kiloFLOPS 103 concerne la vitesse de calcul.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 49

La puissance en flops d’un ordinateur se calcule par la formule : FLOPS =


cœurs × fréquence × FLOP/cycle.
C’est cette unité qui sera employée dans la suite.
Au début, le nom de mainframe était très lié au constructeur IBM et attaché
à ses séries 360 et 370.
Depuis 1954, avec le 704, IBM a développé parallèlement à sa ligne de ges-
tion une ligne scientifique et c’est uniquement de cette ligne dont il sera ques-
tion dans la suite de l’histoire du centre de calcul puisque pour diverses raisons,
à certaines époques nous n’avons pas pu changer de constructeur. Il est doté
d’un processeur arithmétique en virgule flottante, de formats pour nombres
entiers et nombres en virgule flottante, de formats de données, de caractères
alphanumériques.
Ces avancées de conception ont été accompagnées de l’arrivée d’un sys-
tème rudimentaire développé par General Motors et North American Aviation.
Et en 1957, c’est l’annonce du langage FORTRAN développé chez IBM par
Bachus, et les premiers cours pour utilisateurs. Très vite, de multiples langages
ont vu le jour, Lisp, Pl1, Algol, Cobol etc. développés par les constructeurs
et les universités. Le langage FORTRAN a traversé les décennies en se trans-
formant pour s’adapter aux nouvelles architectures et il reste très utilisé avec
le langage C++. Aujourd’hui, en entrant à l’Institut de Développement et
Recherche en Informatique Scientifique, IDRIS (c’est le nom qui a été donné
au centre de calcul à partir de 1993) on peut, certains jours, voir sur un écran,
l’annonce d’un cours FORTRAN, comme on le voyait il y a cinquante ans à
la création du CIRCÉ sur le grand panneau d’affichage de l’entrée. Ce n’est
plus le même FORTRAN, mais il s’est adapté, comme le même ingénieur qui
l’enseigne ici depuis vingt-cinq ans.
Pour nombre d’utilisateurs scientifiques de toute discipline, l’arrivée de
l’IBM 704, version scientifique, avec la virgule flottante, et celle du FORTRAN,
marquent le début de l’introduction du calcul intensif dans la panoplie de leurs
outils. À partir de ce moment précis, ils ont compris tout ce que ces nouveautés
leur apportaient et ils ont fait des projets qui exigeaient plus que les moyens
existants ne le leur permettaient. La course à la puissance et aux capacités de
stockage a commencé pour eux et ne se terminera jamais.
Évidemment, avec la définition ci-dessus des superordinateurs, leur classe-
ment varie avec le temps car l’ordinateur qui est le plus puissant à un instant
donné est vite égalé puis dépassé. La complexité des problèmes scientifiques
qu’ils ont permis d’aborder et de résoudre suit très précisément leur évolution.
J’ai déjà rappelé plusieurs fois qu’en 1963 la NASA explorait l’espace, tour-
nait autour de Mars et en 1969 déposait un homme sur la lune après avoir fait
toutes les simulations sur les supercalculateurs de l’époque.
Cette définition met aussi en évidence la continuité qui caractérise la vie
des grands centres américains depuis les années 50 et du centre de calcul depuis
1969. Les premiers sont passés naturellement de l’IBM 7094 au FUGAKU,
et le centre de calcul en France, moins naturellement, de l’IBM 360/75 au
Jean Zay. De nouveaux superordinateurs sont apparus dans la recherche
publique française et se sont mutualisés dans le GENCI. Depuis les débuts de
50 De l’IBM 360/75 au superordinateur Jean Zay

l’informatique, il y a eu, aux États-Unis, des centres de calcul intensif équipés


des meilleurs superordinateurs de l’époque. Ils sont peu à peu apparus ensuite
en Europe, au Japon, en Chine, au Pakistan, en Slovénie, etc.
La puissance n’est pas le seul critère du service rendu aux utilisateurs. La
taille mémoire, le logiciel, le volume de stockage sont aussi importants. Mais
la puissance reste le critère adopté pour établir un classement des ordinateurs.
La conclusion de ces réflexions, est que dans les graphiques de nos analyses les
puissances sont en FLOPS depuis l’apparition de la virgule flottante dans la
technique.
Ces choix étant bien précisés, les développements suivants portent avant
l’étude détaillée année par année sur :
− un tableau d’ensemble (figures 5, 6 et 7) donnant pour 1969 à 2019 des
renseignements sur les ministères de tutelle, les noms des directeurs géné-
raux, les différentes places du centre dans l’organigramme du CNRS,
les noms des différents directeurs et sous directeurs, la comparaison sur
cinquante ans des puissances installées et des puissances de crêtes dispo-
nibles que nous appellerons le TOP, la liste des constructeurs, celles des
différents systèmes d’exploitation au cours du temps ;
− les grandes lignes pour les formations ;
− les grandes lignes des relations avec l’international ;
− les rapports transmis à la direction du CNRS et au ministère.
Et tout cela sans oublier les résultats scientifiques obtenus.

3.2 Tableau d’ensemble de la vie du centre


sur la période 1969-2020
Ce qui frappe à première vue, c’est la continuité et la rapidité de l’évolution
du centre de calcul :
− continuité dans les dirigeants, dans la composition des équipes d’ingé-
nieurs et techniciens qui ont eu comme but unique pendant cinquante
ans la satisfaction des utilisateurs grâce à leur maîtrise de l’explosion de
l’informatique et des matériels nouveaux quand ils apparaissaient ;
− ampleur de l’évolution qui lui a fait perdre depuis longtemps sa place
de centre de service multidisciplinaire le plus puissant d’Europe mais l’a
amené à être l’un des trois grands centres français qui ont leur place dans
le réseau européen des supercalculateurs avec l’ambition d’être, pour un
temps, le premier centre européen consacré à l’Intelligence Artificielle.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 51

Figure 5 – Tableau d’ensemble des années 1969 à 2020


52 De l’IBM 360/75 au superordinateur Jean Zay

Figure 6 – Tableau d’ensemble des années 1969 à 1993


Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 53

Figure 7 – Tableau d’ensemble des années 1993 à 2019


54 De l’IBM 360/75 au superordinateur Jean Zay

3.2.1 Noms des ministres et secrétaires d’État de tutelle


du centre de calcul
Ces synoptiques regroupent le nom des 22 ministères de tutelle qui se sont suc-
cédés pendant cette période, passant successivement de la tutelle de la Recherche,
à celle de l’Industrie, de l’Innovation et même celle du ministère délégué à la
Poste, aux Télécommunications et à l’Espace. De rares fois, le ministre ou le
secrétaire d’État ne siégeait pas pendant toute la période séparant deux rema-
niements. C’est ainsi qu’en cinquante ans, on a changé 27 fois de ministre,
certains venant d’un univers bien éloigné. Il était difficile dans ces conditions
d’avoir une politique suivie. Et souvent, leur première tâche était de demander
un rapport sur l’état de l’informatique en France, et dans ces rapports il était
question de la recherche en informatique, mais pas de l’informatique de service.

Nom du ministère
Sigle Nom du ministre Dates
de rattachement

ministère délégué chargé


de la Recherche scientifique
MRS Robert Galley juillet 1968 à juin 1969
et des questions atomiques
et spatiales

ministère du Développement François Ortoli juillet 1972 à avril 1973


MDIS
industriel et scientifique Jean Charbonnel avril 1973 à février 1974

ministère de l’Industrie, du
Commerce et de l’Artisanat

ministère de l’Industrie
MIR Michel d’Ornano août 1976 à mars 1977
et de la Recherche

secrétariat d’État chargé Jacques Sourdille mars 1977 à mars 1978


SER
de la Recherche Pierre Aigrain avril 1978 mai 1981

ministère d’État, ministère


MRT de la Recherche et de la mai 1981 à juin 1982
Technologie Jean-Pierre
ministère d’État, minis- Chevènement
MRI tère de la Recherche juin 1982 à mars 1983
et de l’Industrie

ministère de l’Industrie
MIR Laurent Fabius mars 1983 à juillet 1984
et de la Recherche

ministère de la Recherche
MRT Hubert Curien Juillet 1984 à mars 1986
et de la Technologie

ministère délégué de la Alain Devaquet Mars à décembre 1986


MRES Recherche et de l’Enseigne-
ment supérieur Jacques Valade Janvier 1987 à mai 1988
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 55

ministère délégué chargé


MR mai à juin 1988
de la Recherche

ministère de la Recherche
MRT Hubert Curien juin 1988 à avril 1992
et de la Technologie

ministère de la Recherche
MRE avril 1992 à mars 1993
et de l’Espace

ministère de l’Enseignement
MESR François Fillon 1993-1995
supérieur et de la Recherche

secrétariat d’État à la Élisabeth Dufourcq mai à novembre 1995


SER
Recherche François d’Aubert

ministère délégué à la Poste, novembre 1995 à juin


MPTE aux Télécommunications et à François Fillon 1997
l’Espace

ministère de l’Enseignement
MESRI supérieur, de la Recherche Claude Allègre juin 1997 à mars 2000
et de l’Innovation

Roger-Gérard
MR ministère de la Recherche mars 2000 à mai 2002
Schwartzenberg

ministère délégué à l’Ensei-


MESR gnement supérieur et à la François Loos mai à juin 2002
Recherche

ministère délégué à la
MRNT Recherche et aux Nouvelles Claudie Haigneré juin 2002 à mars 2004
technologies

ministère délégué à la
MR François d’Aubert mars 2004 à mai 2005
Recherche

ministère délégué à l’Ensei-


MESR gnement supérieur et à la François Goulard juin 2005 à mai 2007
Recherche

Valérie Pécresse mai à juin 2007


ministère de l’Enseignement
MESR novembre 2010 à mai
supérieur et de la Recherche Laurent Wauquiez
2012

secrétariat d’État chargé Geneviève Fioraso mai 2012 au mars 2015


SEESR de l’Enseignement supérieur
et de la Recherche Thierry Mandon juin 2015 au mai 2017

ministère de l’Enseignement
MESRI supérieur, de la Recherche Frédérique Vidal depuis mai 2017
et de l’Innovation

Figure 8 – Tableau des noms des ministres et secrétaires d’État de tutelle


56 De l’IBM 360/75 au superordinateur Jean Zay

3.2.2 Noms des directeurs généraux du CNRS

Pierre Jacquinot 1962 à 1969

Hubert Curien 1969 à 1973

Bernard Grégory 1973 à 1976

Robert Chabbal 1976 à 1979

Jacques Ducuing 1979 à 1981

Jean-Jacques Payan 1981 à 1982

Pierre Papon 1982 à 1986

Serge Feneuille 1986 à 1988

François Kourilsky 1988 à 1994

Guy Aubert 1994 à 1997

Catherine Bréchignac 1997 à 2000

Geneviève Berger 2000 à 2003

Bernard Larrouturou 2003 à 2006

Arnold Migus 2006 à 2010

Alain Fuchs 2010 à 2017

Antoine Petit 2017-

Figure 9 – Tableau des noms des directeurs généraux du CNRS

3.2.3 Les directeurs et sous-directeurs du centre de calcul


Dans ces cinquante ans d’existence, le centre de calcul n’a eu que six directeurs et
sous-directeurs. Deux directeurs étaient des chercheurs, moi-même pendant douze
ans à la création et Victor Alessandrini pendant quinze ans à partir de 1993.
Quatre directeurs : Philippe Salzedo, Serge Fayolle, Denis Girou étaient d’anciens
ingénieurs du CIRCÉ ainsi que P.-F. Lavallée, directeur actuel ; les deux premiers
étant sous-directeur ou directeur adjoint dans les périodes où ils n’étaient pas
directeurs. De plus, pendant les quarante-deux premières années, P. Salzedo et
S. Fayolle ont dirigé l’équipe technique, assurant la continuité du service avec le
souci de la satisfaction des besoins des utilisateurs au mieux des possibilités avec
les moyens dont ils disposaient, et chose fondamentale, anticipant l’avenir.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 57

3.2.4 Courbe de comparaison des puissances installées


et du TOP
La comparaison fera l’objet du chapitre 4. Mais on est frappé dès maintenant par la
continuité de l’évolution des puissances installées au centre de calcul et par le fait
que leur somme s’écarte peu de celle de la machine la plus puissante du moment.
Le problème est un peu plus complexe car il y a eu pour le centre de calcul des
moments difficiles et les courbes ne représentent pas exactement la puissance
totale offerte aux utilisateurs qui au travers de liaisons ou de frontales pouvaient
utiliser d’autres facilités. Pendant toute l’existence du CCVR, les utilisateurs pou-
vaient soumettre des travaux au CCVR à travers une frontale installée au CIRCÉ.
Les travaux soumis au CCVR représentaient 50 % de la charge totale de ce centre
installé à Polytechnique. La parfaite entente de S. Fayolle et J.-C. Adam, directeur
du CCVR, a aplani bien des difficultés qui auraient pu surgir.

3.2.5 Architectures
Comme dans tous les grands centres de service pour la recherche, les architec-
tures, scalaire, puis scalaire avec processeur vectoriel, puis vectorielle, puis scalaire
et parallèle, puis massivement parallèle, se sont succédées.

3.2.6 Constructeurs
Les constructeurs qui ont été choisis suivant les époques pour équiper le centre sont
CDC, IBM, Amdahl, NAS, Fujitsu, CRAY, et maintenant HPE. En cinquante ans,
il n’y a eu que deux périodes où le centre n’ait pas exploité parmi ses machines au
moins une IBM. Ce n’était pas la plus puissante du parc. Elle coexistait avec une
machine Bull ou une compatible IBM comme Amdahl ou une machine japonaise ou
un CRAY. Depuis 2019, Blue Gene IBM a été remplacée par HPE 8600.

3.2.7 Systèmes d’exploitation


Du plus ancien système MVT de l’IBM 360/75 on aboutit avec le Blue Gene
d’IBM à LINUX Fedora en passant par MVS, VSP, MVS/AIX, COS/UNIX 65.
Les superordinateurs sont conçus pour atteindre les plus hautes performances
possibles avec les technologies connues, en particulier en termes de vitesse de calcul.
En novembre 2006, selon le TOP500, GNU/Linux fait tourner 74 % des 500
plus puissants ordinateurs du monde (contre 20 % pour UNIX) dont les deux
serveurs Blue Gene d’IBM (40 960 et 131 072 processeurs).
Ce même TOP500 indique que ces taux sont passés respectivement de 85 %
et 6% en novembre 2008, à 89,2 % et 1 % en novembre 2009.
En novembre 2017, 100 % des TOP500 « utilisent » GNU/Linux pour sys-
tème d’exploitation.

65 https://fr.wikipedia.org/wiki/Chronologie_des_syst%C3%A8mes_d%27exploitation
58 De l’IBM 360/75 au superordinateur Jean Zay

Constructeur Modèle Année installation OS


CDC 3600 1969 SCOPE
IBM 360/75 1969 MVT
IBM 360/50 1969 MVT
IBM 370/165 1972 MVT
IBM 370/155 1972 MVT
IBM 370/168 1974 MVS
IBM 370/158 1974 MVS
IBM 370/168 1976 MVS
Amdahl 470/V7 1980 MVS
NAS AS/9060 1983 MVS
NAS AS/9080 1984 MVS
BULL DPS8/62M 1984 Multics
IBM 3090-200 1986 MVS
Siemens/Fujitsu VP200-EX 1988 VSP
IBM 3090-400J 1989 MVS
IBM 3090-600E +VF 1990 MVS/AIX
CRAY C98 1993 COS/Unix
CRAY C94 1994 COS/Unix
CRAY T3D 1995 Super UX
CRAY T3E 1996 Super UX
Fujitsu VPP300 1997 UXP/V
NEC SX-5 1999 Super UX
IBM Power 3 2001 AIX
IBM Power 4 & Power 4+ 2002 AIX
NEC SX-8 2006 Super - UX
IBM Regatta power 6 2008 AIX
IBM Blue Gene/P 2008 CNK/ SLES 9
IBM x3750 2013 Linux
IBM Blue Gene/Q 66 2013 CNK/ SLES 9
HP HPE 8000 2020 RHEL 67

66 Les nœuds I/O des superordinateurs Blue Gene exécutent un système d’exploitation
différent : le noyau de nœud I/O (INK) est basé sur un noyau Linux modifié.
67 RHEL 6,8 « Red Hat Enterprise Linux » : Operating System Open Source.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 59

100 Linux
90 Unix
80 k.A./ver.
Windows
70
BSD
60
Mac
%
50

40

30

20

10

0
1995

2000

2005

2010

2015
FigureLinux
10 – Transition des systèmes d’exploitation des superordinateurs d’Unix (en
vers Linux (en
)Unix )Linux
k.A./ver. Unix

Le Titan,le plus puissant


Windows supercalculateur fabriqué par CRAY Inc, en
k.A./ver.
novembre 2012, fonctionne avec une version de GNU/Linux appelée CRAY
BSD Windows
Linux Environment
Mac 68. Le Roadrunner
BSD d’IBM, qui fut le premier à avoir officiel-
lement dépassé la puissanceMac symbolique de 1 pétaFLOPS, fonctionne sous la
distribution Linux Fedora 69.

3.2.8 Évolution du volume de stockage


Dans un centre de calcul, l’évolution des volumes de stockage de données est
aussi importante que celui de la puissance de calcul installée. Au tableau de
l’évolution des courbes de puissance, il faut adjoindre celui de l’évolution du
2015

volume de stockage sur disque et celle de la mémoire de masse (figures 11 et 12).


2005

2010

2015

Stockage sur disque et mémoire


de masse
100,000,000
10,000,000
1,000,000
100,000
10,000 Masse
1,000
Disque
Méga octets

100
10
1

Figure 11 – Stockage sur disque et mémoire de masse

68 https://fr.wikipedia.org/wiki/Linux
69 https://fr.wikipedia.org/wiki/Chronologie_des_langages_de_programmation
60 De l’IBM 360/75 au superordinateur Jean Zay

Liste des mémoires auxiliaires.

Figure 12 – Mémoires auxiliaires


Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 61

3.3 Grandes lignes pour la formation des ingénieurs


et des utilisateurs
C’est un vaste sujet, car il concerne la formation continue des ingénieurs, celle des
utilisateurs sous des formes multiples, cours, documentation, assistance person-
nalisée. Il concerne pour tous, la formation à la veille technologique. Une atten-
tion particulière doit être portée sur la formation des « utilisateurs extérieurs ».
Ceux-ci sont des chercheurs n’appartenant pas à l’Enseignement supérieur ou
au CNRS, mais à des services de recherche d’État ou à des services de recherche
d’industries ayant des relations avec l’état. Le CIRCÉ fournissait tous les élé-
ments de comptabilité à l’administration du CNRS qui les facturait directement.
Le tableau partiel les concernant extrait des états comptables de la première
quinzaine de juin 1975 permet de juger de la diversité de leur origine (figure 13).
On y trouve à côté de grands industriels, plusieurs services de tous les minis-
tères : ministère de la Santé, ministère de la Santé psychique, ministère de la
Défense, ministère de l’Équipement, ministère du Travail, ministère de l’Agri-
culture, ministère de l’Environnement, ministère de la Coopération, etc. mais
aussi la banque de France, l’Office de la Recherche Scientifique et Technique
Outre-Mer 70 (ORSTOM), l’Institut de recherches et d’applications en psycho-
logie du travail etc. Au stade où ils en étaient, ils venaient à cette époque cher-
cher non pas toujours la puissance de calcul, mais la formation qui les initierait
à l’emploi de l’informatique dans leurs travaux. Ils y trouvaient aussi un abri
sûr pour stocker leurs premières banques de données mais surtout, du personnel
qui les guidait pas à pas et qu’ils ne trouvaient nulle part ailleurs, puisqu’il n’y
avait alors pas d’autre grand centre de pointe où ils auraient pu faire des stages.
Ainsi, l’Institut Curie y a-t-il constitué en lieu sûr ses premières banques de
données nominatives.
Dans les années suivantes, ces utilisateurs extérieurs se sont équipés en
moyens locaux suffisamment puissants et n’ont plus utilisé les services du centre
de calcul, sauf certains pour des travaux très lourds. Les utilisateurs extérieurs
ne venaient pas seulement chercher au CIRCÉ de la puissance de calcul, mais
aussi de l’assistance. Par exemple, Dassault a commencé à développer le logiciel
CATIA avec l’aide d’un ingénieur du CIRCÉ, les industriels du pétrole venaient
y apprendre à faire des transformées de Fourier pour étudier les spectres des
ondes sismiques lors des forages de prospection. Quand les utilisateurs exté-
rieurs nous quittaient pour créer leur propre centre et y faire ce qu’auparavant
ils « faisaient ailleurs », la puissance de leur centre a souvent dépassé rapide-
ment celle du CIRCÉ. Ce fut le cas de TOTAL et de l’EDF. Cette tendance a
continué. D’après les tableaux du TOP500, Total Exploration Production a eu le
centre de plus puissant de France en juin 2019 avec le PANGEA III qui est à la
11e place des systèmes de Calcul Haute Performance mondiaux. C’est le rang le
plus élevé obtenu par un centre français et c’est aussi le premier superordinateur
à usage industriel du classement.

70 ORSTOM : Office de la Recherche Scientifique et Technique Outre-Mer, organisme


aujourd’hui remplacé par l’IRD (Institut de Recherche pour le Développement).
62 De l’IBM 360/75 au superordinateur Jean Zay

Figure 13 – Liste non exhaustive d’utilisateurs extérieurs pendant la première quinzaine


de juin 1975
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 63

3.4 Grandes lignes des relations à l’international


Dès la première période, de 1969 à 1981, ont été constantes les relations avec
les États-Unis, l’Allemagne et la Grande-Bretagne. J’ai noué, à titre personnel
des contacts avec Ullman à Berlin, et en Angleterre où se développait le réseau
JANET.
Puis sont arrivés les premiers réseaux qui se sont développés tant aux États-
Unis qu’en Europe. Des normes sont apparues. Les avancées dans les techniques
de communication ont permis, à travers les projets successifs Eurogrid, HPC
europa, et DEISA, d’aboutir à PRACE (Partnership for Advanced Computing
in Europa), structure qui pilote la progression du calcul haute performance
(High-performance computing ou HPC) en Europe. Elle continue maintenant
dans EuropHPC.

3.5 Effectifs du personnel et sa formation


Dès sa création, à l’image de ce que j’avais vu et voyais dans les grands centres
américains avec lesquels je travaillais, j’ai organisé le personnel du centre de
calcul en quatre unités principales.

Direction du CIRCÉ

Administration &
Intendance

Équipe système Équipes


Assistance
Exploitation
Utilisateurs
Administration

Figure 14 – Organigramme du centre de calcul

Le service administration était chargé, entre autres, de la comptabilité et des


tâches de recouvrement du ticket modérateur.
Le statut des personnels est toujours resté un problème. Si la question de
rémunération des ingénieurs a trouvé des solutions avec des primes insuffisantes
certes, mais acceptées par le contrôleur financier, le cas des trois équipes d’opé-
rateurs travaillant 24h/24 et 7j/7 était beaucoup plus inédit. Il n’y avait pas
d’exemple au CNRS et avant d’ouvrir le centre de calcul aux utilisateurs, j’ai
fait la seule grève de ma carrière pour deux raisons. Je savais qu’il y avait assez
de travail en attente de calcul intensif pour occuper tout le temps disponible.
Et je savais aussi que c’était le point sur lequel il fallait être intransigeante, et
que si des solutions n’étaient pas trouvées immédiatement elles ne le seraient
jamais. Ce serait toujours du bricolage, ce qui était inadmissible dans l’esprit de
la nouvelle entreprise. Charles Gabriel, le directeur administratif du CNRS, a
eu beaucoup d’imagination, et le centre de calcul a pu démarrer, avec seulement
une semaine de retard.
64 De l’IBM 360/75 au superordinateur Jean Zay

Depuis, les effectifs n’ont cessé de diminuer en nombre, en partie parce qu’il
est toujours aussi difficile d’obtenir des postes avec les qualifications nécessaires
et surtout parce que les technologies de l’information et de la communication
ont considérablement évolué en un demi-siècle. Les machines sont beaucoup
plus fiables. Elles peuvent travailler en mode dégradé en cas de pannes par-
tielles. Beaucoup des tâches de maintenance se font désormais à distance, ce qui
diminue le nombre de personnes présentes sur le site.
L’introduction du travail de saisie des données sur écran a amené la dispari-
tion des mécanographes, la soumission et la récupération du travail à distance,
la disparition du personnel du dispatching. Puis ce sont les opérateurs qui ont
vu leur tâche disparaître avec le pilotage et l’administration des machines à
distance par le constructeur. En revanche, le nombre d’ingénieurs a augmenté,
ainsi que leur qualification. Dans l’ensemble le volume du personnel est passé
de 80 à 50 puis 35.
Les technologies évoluant, l’équipe système, le Groupe de Service aux
Utilisateurs (GSU), l’administrateur du réseau, tout a changé, mais pour tous,
le socle général est resté le même pendant cinquante ans, même si, à l’intérieur
de chaque groupe les tâches ont considérablement évolué.
Un autre changement important pendant cette période, est celui du statut du
personnel qui est devenu fonctionnaire.

3.5.1 L’équipe système


L’équipe système est composée d’une dizaine d’ingénieurs. Le centre de calcul
recrute des informaticiens débutants 71 ou de jeunes diplômés scientifiques qui
vont acquérir une expertise des technologies des grands systèmes du construc-
teur. Elles ont considérablement varié dans le temps, les machines devenant de
plus en plus fiables et les systèmes de plus en plus compliqués. De sa qualité a
dépendu et dépend toujours la qualité des services. Dans les premières décen-
nies, les activités principales menées par l’équipe système sont :
− installer et maintenir les systèmes du constructeur ;
− optimiser les ressources matérielles et logicielles de l’installation ;
− sécuriser le fonctionnement du système et l’accès aux données ;
− étudier les améliorations apportées par des mises à jour logicielles ;
− appliquer les correctifs communiqués par le constructeur pour anticiper
les problèmes et stabiliser le fonctionnement du système ;
− faire de la veille technologique.
En cas d’incidents complexes entrainant l’arrêt des services, l’équipe système
est sur le pont pour analyser de bout en bout la manifestation de la panne et
procéder à la localisation du problème et à sa définition. Elle effectue les répa-
rations logicielles afin de rétablir le service dans les meilleurs délais. Il se peut
que des correctifs soient attendus du constructeur pour corriger définitivement

71 MIAGE de l’université de Grenoble (centre de recherche IBM), de Montpellier (pré-


sence d’usines IBM), Paris.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 65

l’incident. En attendant, l’ingénieur système développera une procédure de


contournement (By Pass) de l’erreur pour assurer la continuité des services,
ce qui exige une parfaite connaissance du système dans son ensemble et pour
chacun une connaissance extrêmement pointue dans le domaine spécifique qui
lui est dévolu.
En cas de pannes matérielles, c’est la maintenance du constructeur qui inter-
vient suivant les modalités du contrat.
Pour suivre les innovations technologiques, les ingénieurs système entre-
tiennent des relations régulières avec les constructeurs, les éditeurs de logiciels
et l’opérateur de télécommunication.
Chaque année, la direction missionne des membres de l’équipe système pour
assister aux réunions des utilisateurs scientifiques de grand système (SEAS en
Europe, GUIDE aux États-Unis). Ces réunions initient des stages de durée
variable pouvant aller jusqu’à quelques mois, et suscitent des échanges fruc-
tueux entre installations semblables au centre de calcul. Elles permettent égale-
ment l’échange de bibliothèques de programmes scientifiques.
Il n’y a pas de formation académique spécifique aux tâches d’ingénieur dans
les centres de calcul de pointe autres que chez les constructeurs puisque les
dernières nouveautés ne sont que chez eux. Une bonne formation théorique de
base est nécessaire, mais elle doit être complétée par une formation sur le site,
profitant de l’expérience de ceux qui sont en place depuis plus longtemps.

3.5.2 Procédure de renouvellement du parc machines


Le renouvellement du parc machines est une préoccupation permanente du
centre de calcul pour répondre aux besoins toujours croissant en puissance de
calcul des applications des utilisateurs. Comme on travaillait au début avec
un budget au mieux constant, il fallait procéder constamment à des ajuste-
ments de matériels pour profiter des baisses de prix de certaines unités. C’est
le travail de l’équipe système, mais on verra que la commission informatique a
souvent refusé ces propositions qui auraient permis d’économiser des sommes
considérables. L’équipe système contribue majoritairement à la préparation de
l’arrivée d’une nouvelle configuration de machines, avec l’équipe d’assistance
aux utilisateurs.
L’arrivée d’une nouvelle machine se prépare plusieurs années à l’avance.
Elle commence par l’étude des travaux des utilisateurs et la collecte des nou-
veaux besoins, suivies par l’inventaire auprès des constructeurs, de ce qu’ils
proposent ou annoncent dans un futur proche. Enfin, elle s’appuie sur l’étude
des expériences de centres à l’étranger qui exploitent le matériel visé. Elle se
concrétise par la rédaction d’un cahier des charges à soumettre à la liste des
constructeurs susceptibles de répondre aux attentes. Elle se continue avec la
préparation de benchmarks sur les matériels en concurrence. Un benchmark est
un banc d’essai de programmes qui permet de comparer les puissances d’ordi-
nateurs. Il comprend en général deux parties, l’une mesurant les temps de pas-
sage des algorithmes courants de mathématiques généralement utilisés, l’autre
mesurant le temps de passage d’un train de travaux caractéristique du centre.
66 De l’IBM 360/75 au superordinateur Jean Zay

Les benchmarks officiels comme Linpack 72 ne sont apparus qu’en 1993 et servent
aujourd’hui à mesurer les puissances de crête des supercalculateurs.
Maintenant la première partie utilise une bibliothèque de programmes en
FORTAN appelée LINPAC pour la résolution d’équations linéaires de n équa-
tions à n inconnues. Le temps de calcul utilisant la virgule flottante est propor-
tionnel à 2n3+n2. Donc il augmente très vite avec le nombre de points traités et
le programme est un très bon test de la vitesse de calcul. Puisqu’il est largement
utilisé, c’est en conséquence un bon test de comparaison des machines Alors que
pour la FFT on a pu passer de n² à nlogn, il a été démontré qu’ici on ne pourra
pas améliorer l’algorithme. Il fait partie de ce qu’on appelle les problèmes mal
posés. L’algorithme utilisé dans MATLAB permet de s’affranchir de la program-
mation en FORTRAN.
Pour suivre les innovations technologiques, les ingénieurs système entre-
tiennent des relations régulières avec les constructeurs, les éditeurs de logiciels
et avec l’opérateur de télécommunication.
Un exemple précis sera détaillé par la suite pour notre premier dossier pré-
senté aux commissions.

3.5.3 Le groupe de service aux utilisateurs ou GSU


Les cinquante ans d’existence du centre de calcul ont permis de former de
nombreux chercheurs à l’informatique, qu’ils aient besoin de calcul haute per-
formance, ou qu’ils appartiennent aux milliers de ceux, venant de toutes les
disciplines, qu’il a fallu amener à l’informatique.
Les services d’assistance réunissent des compétences pour aider les utilisa-
teurs à mieux maitriser l’accès aux moyens informatiques mis à disposition.
Comme pour l’équipe système, le centre de calcul recrute des informaticiens
débutants, ou des jeunes diplômés scientifiques qui vont acquérir une expertise
des technologies des systèmes du constructeur. Le GSU assure :
y Une permanence physique quotidienne pour :
− répondre aux demandes d’information ;
− aider à corriger des problèmes rencontrés lors de la soumission et/ou
l’exécution des programmes ;
− établir un calendrier des formations ;
− assurer de la formation telle que des cours de programmation autant
pour coder que pour utiliser des codes existants, ces cours étant dis-
pensés au centre de calcul ou dans les labos.
y La rédaction d’un bulletin de liaison dénommé Interface initialisée lors
de la période CIRCÉ du centre de calcul pour informer les utilisateurs :
− communiquer sur la vie du centre ;
− publier le calendrier des formations ;
− prévenir de la disponibilité des machines et des services ;
− expliquer le langage de contrôle (JCL) pour soumettre ses travaux ;
− expliquer la gestion de fichiers.

72 http://www.netlib.org/linpack/
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 67

La fréquence de la publication d’Interface dépendait de l’information


à diffuser. Elle était environ mensuelle. Des numéros spéciaux étaient
publiés sur des thèmes spécifiques en fonction de l’actualité technologique
du moment.
L’IDRIS a maintenu une lettre d’information « papier » jusqu’en 2008.
Avec les technologies nouvelles de communication, la diffusion de la lettre
est devenue électronique. Elle est constituée de flashs Info accessibles sur
le site web de l’IDRIS. cf. : http://www.idris.fr/.
y Des services spécifiques :
− l’assistance mathématique. J’avais acquis par l’expérience l’idée
qu’aussi bien pour expliquer l’emploi de logiciels existants que pour
s’attaquer à des problèmes nouveaux, il fallait adjoindre à l’équipe
au moins un mathématicien. Ceux qui au début ont rendu le plus de
service sont H. Delouis, mathématicien appliqué qui a fait sa thèse au
CIRCÉ et J. Teuler, mathématicien agrégé qui s’est attaché particuliè-
rement aux problèmes des chimistes et à certains de l’INSU. J. Teuler,
à la retraite, continue bénévolement à collaborer activement avec les
chimistes ;
− l’assistance infographie : traceur BENSON de courbes, unité d’affi-
chage graphique IBM 2250 au départ ;
− l’assistance à la connexion de terminaux lourds et terminaux TSO.
Le but était de rendre autonomes les utilisateurs pour laisser plus de
temps au calcul intensif. Cette partie réseau devenant de plus en plus
primordiale a donné naissance à un groupe d’assistance réseau à côté
du groupe de service aux utilisateurs (GSU). Le premier responsable
de ce groupe, M. Michaut a été détaché à la DIS avant de devenir res-
ponsable de l’unité de service réseau du CNRS.
L’assistance au groupe d’utilisateurs avait abouti à ce que certains aient
acquis suffisamment d’autonomie pour exécuter une partie de leurs travaux en
local. Ils libéraient ainsi du temps de calcul qui pouvait être utilisé par les tra-
vaux nécessitant du calcul intensif. Il leur fallait de l’aide pour la préparation
de leur dossier de demande d’acquisition devant la commission d’informatique.
Cela nécessitait une bonne connaissance de toutes les chaines techniques et
administratives.
Comme ce qui s’est passé pour les réseaux, au GSU un sous-groupe fut
consacré aux problèmes de mini-informatique sous la houlette de J. Denyset.
Elle connaissait les chercheurs, leur niveau en culture informatique, leur possibi-
lité de se prendre en main. Elle les a conseillés d’abord au CIRCÉ puis à la DIS,
où elle a été détachée, pour soulager le centre de calcul.
68 De l’IBM 360/75 au superordinateur Jean Zay

3.6 Principaux rapports sur l’informatique outil


pour la recherche

Rapports publiés Auteur Date


L’informatique, outil de recherche au CNRS J. Connes 1978
Projet CRAY 1 CIRCÉ P. Salzedo 1981
Informatique Fondamentale et Programmation M. Nivat 1982
Schéma Directeur 1983 P. Salzedo 1983
VP200 P. Salzedo DIS 1985
Rapport sur l’état d’informatisation de la France J. Sakarovitch mars 1986
Schéma directeur 1987 P. Salzedo 1987
Bilan du schéma directeur 1983-1988. Propositions J. Connes 1988
GFI groupe
Audit des centres CNRS 1989
SD-SCICOM
Réflexions sur la place de l’informatique dans la
J. Connes juin 1989
recherche vue par les utilisateurs
Rapport sur les grands moyens de calcul scienti-
P. Caseau janvier 1990
fique et leur organisation en réseau
Rapport sur les besoins de la recherche en matière
J. Yoccoz décembre 1993
d’équipements informatiques
Promouvoir le calcul haute performance ORAP avril 2004
La politique française dans le domaine du calcul E. Sartorius
mars 2005
scientifique M. Héon
Rapport d’activité 2017 GENCI 2018
Rapport d’activité 2018 GENCI 2019
Rapport sur les stratégies française et européenne
C. Villani 2017-2018
en Intelligence Artificielle

Figure 15 – Principaux rapports sur l’informatique pour la recherche

Détails du rapport 73 d’Emmanuel Sartorius et Michel Héon :


« Par lettre du 21 septembre 2004, le ministre délégué à la Recherche a
demandé le concours de l’Inspection générale de l’Éducation nationale et de
la Recherche et du Conseil général des technologies de l’information pour

73 Rapport sur la politique française dans le domaine du calcul scientifique par Michel
Héon et Emmanuel Sartorius, mars 2005. Inspection générale de l’Éducation nationale et
de la Recherche et Conseil général des technologies de l’information.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 69

animer un groupe de travail dont les travaux seraient destinés à définir et à


préfigurer les structures de concertation et de décision nécessaires à la mise
en œuvre d’une politique forte en matière de calcul scientifique en France.
L’ensemble des réunions et auditions ont permis de dégager un consensus
sur la nécessité d’un pilotage stratégique du domaine, d’une meilleure coor-
dination entre centres de calcul, et d’un financement à un niveau convenable
et surtout régulier du parc français des grands ordinateurs scientifiques.
À partir de là, les avis divergent sur les modalités de mise en œuvre de
ces principes généraux ? Il doit donc être clair que les opinions exprimées
dans ce rapport et les recommandations qu’il contient sont celles des seuls
rapporteurs. »
Ce rapport a été à l’origine des réflexions qui ont conduit à la création du
GENCI en 2007.
Chapitre 4
Évolution des puissances installées
au centre de calcul de 1969 à 2020

Depuis soixante ans, une proportion de plus en plus importante des chercheurs
avait bien constaté que dans toutes les disciplines, la résolution des problèmes
de pointe demandait des masses de calcul qui dépassaient les possibilités des
ordinateurs auxquels ils avaient accès. Depuis l’apparition de la virgule flot-
tante, les constructeurs ont mesuré pour leurs modèles les puissances en FLOPS.
Officiellement, IBM les publie en MIPS, mais il en publie quelques-uns en
FLOPS et on trouve les autres en FLOPS dans leurs archives. D’ailleurs, on
peut les calculer en FLOPS avec la formule vue au chapitre précédent.
À partir de juin 1983, paraît deux fois par an en juin et novembre, la liste
des 500 ordinateurs les plus puissants installés au monde. C’est le TOP500, et
pour toute la période précédant sa publication, en juin 1993, nous appellerons
TOP la puissance de la machine la plus puissante du moment depuis le début
de l’apparition de l’informatique, que certains historiens font remonter de plus
en plus loin.
Ce qui suit dans ce chapitre est une comparaison pour la période 1969-2020
des puissances installées au centre de calcul et de celles du TOP. Comparer en
faisant des courbes de régression sur la période entière montrerait qu’il y a eu
une croissance continue, mais ne permettrait pas d’appréhender la vie du centre
et les causes techniques ou autres qui ont été à la source de son évolution. C’est
comme si on faisait l’histoire de la température de la Terre avec une seule droite
de régression depuis le début d’une période glaciaire jusqu’à aujourd’hui. On
dirait que la Terre s’est réchauffée, mais cela ne donnerait aucun renseigne-
ment sur les différentes étapes, périodes de refroidissement et réchauffement,
leurs différentes conditions et causes. Aussi notre étude est faite en distinguant
cinq périodes contiguës dans l’histoire du centre et en traçant les courbes de
régression pour chacune des périodes. Il n’a jamais été question d’installer LA
machine du TOP à Orsay, mais de donner, avec le budget dont on disposait,
un outil adéquat aux chercheurs de n’importe quelle discipline pour traiter leur
sujet de recherche qui demandait du calcul intensif. Pour cela, il fallait que la
courbe de régression du centre de calcul ne s’éloigne pas trop de celle du TOP.
Sinon, pour ces cas, la recherche ne pourrait pas se faire (nous en verrons des
exemples), ou bien le chercheur partait à l’étranger. Cela ne veut pas dire qu’on
72 De l’IBM 360/75 au superordinateur Jean Zay

ne pourrait pas faire de la bonne science. Mais nombre de problèmes parmi les
plus novateurs ne pourraient pas être abordés. Il s’agit par exemple de tous ceux
qui utilisent un algorithme pour lequel le temps d’exécution est proportionnel
à une puissance de N supérieure à 1, N étant le nombre de données à traiter.

4.1 Plusieurs chronologies en informatique


L’idée d’une telle méthode d’analyse n’est pas nouvelle. L’informatique est une
science jeune, mais on trouve déjà beaucoup de livres sur son histoire, et beau-
coup de chronologies des différents systèmes qui ont fonctionné. Certaines sont
de simples énumérations, d’autres essaient de les replacer dans le contexte scien-
tifique de l’époque. Toutes éclairent à leur façon un objet à multiples facettes.
Les unes remontent à l’Antiquité, d’autres au boulier, d’autres à la machine de
Babbage, ou d’Alan Turing, avec son processeur mathématique, d’autres à celle
de Konrad Zuse, d’autres à la 704 IBM avec son processeur mathématique et
son FORTRAN, d’autres à la 6600 CDC, d’autres encore au CRAY et à ses suc-
cesseurs. Elles s’intitulent Histoire de l’informatique ou Histoire des ordinateurs
ou Histoire des superordinateurs, et ceci même si ce dernier mot désigne aussi,
à quelque époque que ce soit, l’ordinateur le plus puissant de l’instant. Le CEA
revendique son emploi de superordinateurs et de méthodes de simulation depuis
cinquante ans.
Ce n’est pas notre propos de les passer toutes en revue. Après l’étude de
quelques-unes, il sera intéressant de voir comment celle du centre de calcul s’in-
sère dans le paysage global, pour la période 1969-2020.

4.1.1 Université Waterloo


En 1995 à l’université de Waterloo, un cours sur une « très brève histoire de
l’informatique » résume les faits marquants dans plusieurs périodes, avant 1900,
de 1900 à 1990 et au-delà 74. L’explosion des mathématiques, pendant la guerre,
la naissance de l’informatique électronique, puis les nouveautés décennie par
décennie sont énumérées dans cet article très succinct.

4.1.2 Université de Stanford


En 2006, dans l’encyclopédie de philosophie de l’université de Stanford 75,
B. J. Copland écrit The modern history of computing qui trace les grandes
étapes de son évolution. Il va de la machine de Babbage en 1828 à l’université
de Manchester, aux calculateurs analogiques, à la machine universelle de Turing,
aux calculateurs électromécaniques puis électroniques, à l’ENIAC, l’EDVAC et
à l’apparition de la mémoire à accès rapide.

74 https://cs.wterloo.ca/-shallit/courses/1234.history.html
75 https://plato.stanford.edu/entries/computing-history/
Évolution des puissances installées au centre de calcul de 1969 à 2020 73

4.1.3 Roy Longbottom


Dans une autre forme, S. Roy Longbottom 76 entretient depuis de longues années
une base de données avec les résultats de benchmarks passés sur 2000 ordina-
teurs, des micros mais aussi de plus puissants. Le tableau suivant donne la liste
des benchmarks utilisés. On y trouve bien entendu LINPACK, mais aussi des
tests spéciaux pour la FFT.

General Logged Configuration Whetstone Benchmark

Livermore Loops
Dhrystone Benchmark Linpack Benchmark
Benchmark

MemSpeed Benchmark NeonSpeed Benchmark BusSpeed Benchmark

RandMem Benchmark FFT Benchmarks MP-Whetstone Benchmark

NEON-Linpack-MP
MP-Dhrystone Benchmark MP-BusSpeed Benchmark
Benchmark

NEON-MFLOPS-MP
MP-RandMem Benchmark MP-MFLOPS Benchmark
Benchmark

OpenGL Benchmark Java Drawing Benchmark CPU MHz Benchmark

Battery Drain Test DriveSpeed Benchmark

CPU Stress Tests Floating Point Stress Test Integer Stress Test

FPU Plus Integer Tests Errors and False Errors System Details

Figure 16 – Liste des tests exécutés par Roy Longbottom

4.1.4 Université de Pawsey (Australie)


Elle fait commencer son Histoire très brève histoire des superordinateurs 77 à la
mise en service de la CDC 6600.

4.1.5 Les grandes dates de l’histoire informatique


Elle donne la liste détaillée, commentée et très référencée des ordinateurs depuis
ENIGMA en 1930 jusqu’à 2012 78.

76 « Computer Speed Claims 1980 to 1996, Roy Longbottom », https://www.roylong-


bottom.org.uk/mips.htm
Roy’Longbottom’s PC Benchmark Collection.
77 www.pawsey.org.au
78 https://histoire-informatiue.org/grandes_dates/2_3.html
74 De l’IBM 360/75 au superordinateur Jean Zay

4.1.6 Chronologie de l’ENSICAEN


À l’université de Caen, Régis Clouard a écrit une histoire de l’informatique 79
avec une chronologie très détaillée du matériel partant de -10 000 avec les
Sumériens jusqu’en 1990 et du logiciel jusqu’en 2016. C’est la liste avec com-
mentaires de tous les ordinateurs micros ou superordinateurs jusqu’à 1990 et
des développements software. On y trouve les prémices d’UNIX, une histoire des
réseaux, la naissance de Fortran sur la 704 IBM d’une puissance de 5 kFLOPS
et celle de C++. Cette étude sera utilisée en particulier pour savoir ce qui se
passait dans le monde informatique en 1969 au moment de la création du centre
de calcul.

4.1.7 Chronologie de Morn


Les tentatives pour établir une chronologie complète de « l’outil de calcul »
sont très nombreuses et se recoupent. Il y a des centaines de références sur
des époques distinctes et des articles de synthèse plus ou moins réussis qui se
trouvent sur Wikipédia, sous les rubriques Histoire de l’informatique, history of
supercomputing, superordinateur, chronique de l’informatique. L’une d’elles 80,
commencée en 2014 et mise à jour régulièrement, fait remonter les prémices à la
règle à calcul en 1632 avant la Pascaline en 1645 et donne de nombreuses réfé-
rences jusqu’à aujourd’hui. Un tableau 81 (annexe 2), intitulé Chronologie des
ordinateurs, donne leur liste avec leur lieu d’implémentation, leur puissance en
OPS, kFLOPS, PFLOPS allant de la ZUE 1 de 1938 au FUGAKU de Fujitsu en
tête du TOP500 82 en juin et novembre 2020.
Elle est intéressante car on voit qu’à partir de 1946 jusqu’en 2010 les ordina-
teurs les plus puissants ont été installés aux États-Unis sauf en 1984 où la palme
est revenue à l’URSS. À partir de 2010, il y a compétition entre les États-Unis,
la Chine et le Japon. L’accroissement de la puissance est représenté par un gra-
phique qui s’étend sur 80 ans et va de 1938 à 2019 (figure 17).
Les données qui ont permis son élaboration sont publiées dans les Commons
de Wikipédia 83. Il a été commencé en 2014 par Morn qui l’a mis à jour jusqu’en
juin 2019. Il est devenu une référence et apparaît dans de nombreux articles.
Il fournit la liste des données utilisées pour le dessiner et leurs sources. Depuis
1993, ce sont celles du TOP500. Il est maintenant dans le domaine public et on
peut l’utiliser et le modifier. Ce sont ces mêmes données qui avaient été utilisées
par A. Brenner en 1996 et le seront par D. Dureisseix en 2017.

79 Histoire de l’informatique de Régis Couard https://foad.ensicaen.fr/pluginfile.php/4321/


mod_page/content/14/histoireinformatique.pdf
80 https://foad.ensicaen.fr/pluginfile.php/4321/mod_page/content/14/histoireinforma-

tique.pdf
81 https://fr.wikipedia.org/wiki/Superordinateur#Historique
82 https://top500.org
83 https://commons.wikimedia.org/wiki/File:Supercomputing-rmax-graph2.svg
Évolution des puissances installées au centre de calcul de 1969 à 2020 75

Figure 17 – Vitesse de calcul (Rmax) du top des superordinateurs sur 80 ans

4.1.8 Chronologies de D. Dureisseix et de A. Brenner


Ces deux dernières seront étudiées plus précisément car nous utilisons les mêmes
méthodes qu’elles, pour établir l’évolution des puissances installées au centre de
calcul du CNRS à Orsay. Elles ont été réalisées simultanément et utilisent les
mêmes données. Celle de D. Dureisseix 84 dans l’introduction de sa thèse sur une
application du calcul parallèle fait un rappel historique qui couvre cinquante ans
de 1940 à 1990, mais il ne le commente pas (figure 18).
La chronologie, écrite en 1996 par A. Brenner 85, donne la liste des détenteurs
de records pour le supercalculateur polyvalent le plus rapide dans le monde, et
l’année où chacun a établi le record. Pour les entrées antérieures à 1993, cette
liste fait référence à diverses sources 86.

84 Sa thèse de doctorat, soutenue à l’ENS Cachan en 1997, intitulée « Une approche


multi-échelles pour des calculs de structures sur ordinateurs à architecture parallèle » est
accessible sur le site des Archives ouvertes : https://tel.archives-ouvertes.fr/tel-00083732/
document.
85 « The Computing Revolution and the Physics Community » et publiée dans Physics

today, octobre 1996, p. 24-30.


86 https://www.computerhistory.org/revolution/?tax_id=03.04.01.00#4
76 De l’IBM 360/75 au superordinateur Jean Zay

Figure 18 – Évolution de la puissance de calcul des ordinateurs

A. Brenner était alors Deputy director of the computer and software enginee-
ring division of the Institute for Defense Analysis in Alexandria, Virginia. Il
était le responsable des calculs au Fermilab en 1984. Puis, il resta conseiller pour
l’informatique auprès de la Défense jusqu’en 2000 et jusqu’en 2010 historien de
l’informatique 87. Dans son article de 1995, il publie un synoptique classant les
ordinateurs depuis 1955 jusqu’en 1996 (figure 19). Il ne fait pas le graphique des
puissances, mais leurs courbes de régression.
Dans notre étude sur les cinq périodes du centre de calcul d’Orsay, nous étu-
dierons à la fois, les puissances et leurs régressions.
Dans le graphique d’A. Brenner, les puissances de calcul des machines du
TOP sont tracées avec une échelle semi logarithmique. Elles s’inscrivent approxi-
mativement sur une droite. On en conclut que leur croissance est exponentielle.
Sur ces courbes de régression, il porte approximativement les noms des ordi-
nateurs qui en fait s’éloignent peu de cette droite. Mais quel coefficient pour
cette exponentielle ? C’est ici qu’intervient la loi de Moore, ou plutôt, les lois de
Moore. Ce sont des lois empiriques qui ont trait à l’évolution de la croissance de
la puissance de calcul des ordinateurs. La première prédisait un doublement
de la puissance de calcul tous les deux ans. Moore, un des ingénieurs spécia-
listes de semi-conducteurs chez Intel, constata en 1965 que la complexité des
semi-conducteurs d’entrée de gamme doublait tous les ans à prix constant. Et il
extrapolait que cela continuerait. Puis, la technologie de fabrication des puces et
des transistors évolua très vite et en 1975 la prévision du doublement à deux ans
fut réduite à 18 mois. Maintenant la vitesse de calcul d’un ordinateur dépend
de nombreux facteurs en plus de la densité de transistors sur une même puce.
Ce facteur devient critique à cause de son coût et du dégagement de chaleur.
Il est tel, qu’aujourd’hui certains centres de calcul se chauffent avec la chaleur

87 Les papiers d’Alfred E. Brenner, qui datent de 1962 à 2010, contiennent des docu-
ments techniques et commerciaux relatifs aux ordinateurs à haute performance.
NSF HPC program HPCC program
AA Sabre Arpanet Ethernet Bitnet Internet ISDN ATM
Brooks bill AT&T divestiture NII Telecom reform
FORTRAN BASIC UNIX DES Visicale WWW Mosaic
1955 1960 1965 1970 1975 1980 1985 1990 1995 2000
Cray T90 $12M
105
Cray C90 [Structural biology]

Cray Y-MP Cray T3E


Cray T3D
104 Cray 2
[Pharmaceutical design]
Cyber 205
[72-hour weather]
Leading edge Cray X-MP
103 [Higgs boson mass]
Intel iPSC Pentium Pro PC
Cray 1 TMC CM-1
[48-hour weather] $5K
Pentium PC
[3D plasma]
102 [Airfoil design]
CDC 7600 (DEC VAX 780)
[2D plasma] Macintosh PC
Sun WS
IBM 360/90 IBM PC
Apollo WS
10 CDC 6600 Illiac IV Apple II
IBM 7094 (DEC PDP11)
Functional/affordable
IBM Stretch Altair 8800
IBM 7090 (IBM 360)
(PDP6)
1 IBM 704 Intel 4004
(DEC PDP1)
DEC PFP8
$5M
$30K
0.1
1955 1960 1965 1970 1975 1980 1985 1990 1995 2000
YEAR
Évolution des puissances installées au centre de calcul de 1969 à 2020 77

Figure 19 – Régression des croissances du TOP ordinateurs de 1955 à 1996 (© National Navy Laboratory, USA, libre de droits)
78 De l’IBM 360/75 au superordinateur Jean Zay

dégagée par leurs ordinateurs 88 et qu’IBM fait des recherches sur des puces
fonctionnant à la température de l’hélium liquide. D’autre part, les ordinateurs
les plus puissants sont souvent assemblés à l’unité. Ce qui est important dans
notre étude est de trouver pour le TOP500 et le centre de calcul l’évolution du
facteur de croissance de la puissance de calcul mesurée avec LINPACK 89 ou avec
ses prédécesseurs. Nos benchmarks comportaient, en plus, un test sur le temps
d’exécution d’un flux de travaux représentatif de notre exploitation et exécuté
avec nos priorités. C’est ce facteur de croissance que nous allons étudier.
La première utilisation qu’on peut faire de la méthode est la prolongation de
la droite de régression effectuée par le National Navy Laboratory à Washington,
qui l’a extrapolée jusqu’en 2030 en faisant des spéculations sur le calcul de haute
performance (High Performance Computing) :

Figure 20 – Extrapolation des courbes de Brenner par la National Navy à Washington


(© National Navy Laboratory, USA, libre de droits)

88 La chaleur dégagée par les ordinateurs de l’IDRIS est tellement grande qu’un accord
vient d’être signé permettant sa récupération pour chauffer tous les bâtiments de l’en-
semble universitaire Paris-Saclay sur le plateau. C’est l’équivalent de ce qu’il faudrait pour
chauffer 1000 logements.
89 Le LINPACK est un test de performance qui sert à classer les ordinateurs les plus puis-

sants. C’est une bibliothèque de fonctions FORTRAN utilisées pour résoudre un système de
n équations et à n inconnues. Le temps de calcul croit avec n suivant la formule : 2/3 n3+n².
Évolution des puissances installées au centre de calcul de 1969 à 2020 79

Figure 21 – Extrapolation des courbes de croissance de Brenner (© National Navy Laboratory, USA, libre de droits)
80 De l’IBM 360/75 au superordinateur Jean Zay

Nous-mêmes l’avons prolongée jusqu’en 2050 (figure 21).


Connaissant maintenant le TOP500 de novembre 2019, on peut vérifier les
extrapolations de Brenner et du laboratoire de la Navy.
C’est extrêmement instructif. L’extrapolation des courbes de Brenner conduit
à l’EXAFLOPS en 2050 alors que des machines le dépassant sont déjà prévues
en 2021. La conclusion est qu’il faut bien choisir les limites dans lesquels faire les
calculs de régression pour que leur interprétation ait un sens. La croissance de la
puissance peut être lissée par une exponentielle. La représentation de cette expo-
nentielle dans un graphique à coordonnées semi-logarithmique est une droite. La
pente de la droite est liée au coefficient de l’exponentielle de lissage. Si les limites
du lissage sont bonnes, les données oscillent de façon aléatoire autour de la droite
de régression. Si les limites sont mal choisies, il y a décrochage des deux courbes.
Dans le cas de l’étude d’A. Brenner, visiblement la période avait été choisie trop
longue et a conduit à une extrapolation fausse. La pente de la droite de régres-
sion permettra de vérifier la loi de Moore.
En 1995, après son analyse historique, Brenner insiste sur l’importance de
poursuivre, par l’intermédiaire du National Research Council du gouvernement
fédéral de Washington, les initiatives des commissions qui supportent l’infrastruc-
ture informatique nationale.

4.1.9 Chronologie de Jean-Marie Gourio


Des tentatives de réalisation de supe-
rordinateurs utilisant des architectures
Von Neumann en général de type
parallèle ont été entreprises très tôt.
La première est, peut-être, le BIZMAC
de RCA, commencé en 1952, il faisait
appel à des petits ordinateurs satel-
lites sous-traitant certains travaux
(échanges, tris...). Malheureusement,
il ne sera terminé qu’en 1958, époque
à laquelle il était déjà dépassé90.

4.1.10 Courbes de croissance du TOP500


Elles vont ici de 1993 à juin 2020 (figure 22). Il y a trois courbes à une échelle
semi-logarithmique. Celle du milieu donne la puissance mesurée (Rmax) de
l’ordinateur le plus puissant, celle du dessus donne la puissance cumulée des
500 ordinateurs les plus puissants à un instant donné, celle du dessous donne

90 Dans son document, J.-M. Gourio présente une chronologie de 1955 à 2010. https://www.
iutbayonne.univ-pau.fr/~dalmau/documents/cours/archi/Parallel2010.pdf
Évolution des puissances installées au centre de calcul de 1969 à 2020 81

la puissance du dernier ordinateur du TOP500. Le graphique donne aussi les


droites de régression de ces trois courbes.

Figure 22 – Étude du TOP500 de 1990 à 2020

4.2 Chronologie et loi de Moore au centre de calcul


de 1969 à 2019
Comment aborder l’étude de la croissance des puissances installées au centre
de calcul et de celles du TOP avec l’expérience des deux cas précédents ?
Nous allons d’abord étudier l’évolution générale et voir comment on peut
diviser ces cinquante ans en périodes homogènes. Il faut vérifier pour chacune
d’elles que la croissance est bien exponentielle et trouver les coefficients de
multiplication annuels. Son carré donne un coefficient de croissance en deux
ans à rapprocher de celui de Moore.

4.2.1 Les 25 ordinateurs installés au centre de calcul


en cinquante ans et le total des puissances installées
Les trois synoptiques suivants donnent, année par année, le nom des machines
installées donc en service, leur puissance individuelle en MFLOPS et la puis-
sance totale installée.
82

Figure 23 – Évolution du parc machine du centre de calcul, 1969-2020


De l’IBM 360/75 au superordinateur Jean Zay
Évolution des puissances installées au centre de calcul de 1969 à 2020 83

Figure 24 – Chronologie du parc machine de 1969 à 1993


84
De l’IBM 360/75 au superordinateur Jean Zay

Figure 25 – Évolution du parc machine du centre de calcul, 1994-2020


Évolution des puissances installées au centre de calcul de 1969 à 2020 85

4.2.2 Comparaison des puissances installées au centre de calcul


et celles du TOP
L’analyse de ces synoptiques peut être menée de deux façons distinctes : soit en
établissant la liste des puissances installées comme dans le tableau ci-dessous,
soit en traçant les courbes de la puissance totale installée au centre de calcul
chaque année mesurée en Mflops et du TOP à la même date (figure 26). Cette
méthode sera utilisée dans les graphiques et analyses ultérieurs.
Au xxie siècle, les superordinateurs les plus puissants sont le plus souvent
conçus comme des modèles uniques par des constructeurs informatiques « tradi-
tionnels » comme International Business Machines (IBM), Hewlett-Packard (HP),
ou Bull, qu’ils aient derrière eux une longue tradition en la matière (IBM) ou qu’ils
aient racheté dans les années 90 des entreprises spécialisées, alors en difficulté,
pour acquérir de l’expérience dans ce domaine.

Année Centre calcul TOP Ordinateur/implantation


1969 8 36 CDC 7600
1970 8 36
1971 8 36
1972 19 36
1973 19 36
1974 22 100 CDC STAR
1975 22 150 Burrougs ILLIAC
1976 36 250 CRAY 1
1977 36 250
1978 36 250
1979 36 250
1980 51 250
1981 51 400 CDC CYBER
1982 51 400
1983 102 941 CRAY X MP4
1984 129 2400 M13
1985 129 3900 CRAY 90/98
1986 286 3900
1987 286 3900
1988 1133 3900
1989 1409 10 300 ETA 106G/8
86 De l’IBM 360/75 au superordinateur Jean Zay

Année Centre calcul TOP Ordinateur/implantation


1990 1685 23 200
1991 1685 23 200
1992 1685 23200
1993 7 600 235 800 Fujitsu Japon
1994 11 400 235 800 Fujitsu Japon
1995 30 600 368 200
1996 184 200 614 400 CP-PACS/2048 Hitachi Japon
1997 167 200 1 453 000 ASCI Red Intel États-Unis
1998 167 200 1 830 400 ASCI Red Intel États-Unis
1999 460 700 3 207 000 ASCI Red Intel États-Unis
2000 458 500 12 288 000 ASCI White IBM États-Unis
2001 598 500 12 288 000 ASCI White IBM États-Unis
2002 6 804 000 40 960 000 Earth-Simulator NEC Japon
2003 6 804 000 40 960 000 Earth-Simulator NEC Japon
2004 6 804 000 91 750 000 BlueGene/L IBM États-Unis
2005 6 804 000 367 000 000 BlueGene/L IBM États-Unis
2006 7 800 000 367 000 000 BlueGene/L IBM États-Unis
2007 7 800 000 596 400 000 BlueGene/L IBM États-Unis
2008 207 300 000 1 456 700 000 Roadrunner IBM États-Unis
2009 207 300 000 2 331 000 000 Jaguar CRAY États-Unis
2010 207 300 000 4 701 000 000 Tianhe-1A Chine
2011 207 300 000 11 280 400 000 Fujitsu Japon
2012 206 000 000 27 112 500 000 Titan CRAY XK7 États-Unis
2013 1 060 000 000 54 902 400 000 Tianhe-2A Chine
2014 1 060 000 000 54 902 400 000 Tianhe-2A Chine
2015 1 060 000 000 54 902 400 000 Tianhe-2A Chine
2016 1 060 000 000 125 435 900 000 Sunway Chine
2017 1 060 000 000 125 435 900 000 Sunway Chine
2018 1 060 000 000 200 794 900 000 Summit IBM
2019 13 000 000 000 200 794 900 000 Summit IBM
2020 16 000 000 000 537 212 000 000 Fugaku Japon

Figure 26 – Puissances installées au centre de calcul et TOP de 1969 à 2020


Évolution des puissances installées au centre de calcul de 1969 à 2020 87

Figure 27 – Comparaison des puissances installées en mégaflops au centre de calcul et


celles du TOP500 de 1969 à 2020
88 De l’IBM 360/75 au superordinateur Jean Zay

Taille du
Type équipe- Puissance NB Compléments
Date mot en
ment MF MIPS CPU d’informations
bits
Déménagé depuis la rue
CDC 3600 0,3 48 1 du Maroc à Orsay, ordina-
1969-1972 teur à bandes
Première installation à
IBM 360/75 0,94 32 1
Orsay
Augmentation de la
IBM 370/165 2,7 32 1
mémoire à 3 MGo en 1973
1972-1974
décembre 1973 arrêt IBM
IBM 370/155 0,47 32 1
370/165
1974-1980 IBM 370/168 3,1 1
IBM 370/168 3,1 1
1976-1980 IBM 158 remplacé par un
IBM 370/168 3,1 1
second 168
Amdahl V7 Remplace le
1980-1983 Amdahl V7 5,5
premier 168
Amdahl V7 5,5 1 Arrêt du V7 en 1986
1983-1984 NAS 9060 puis NAS 9080 Frontal du
11,5 2
9080 CRAY 1 de la CISI
IBM 3090 200 Frontal du
IBM 3090 200 52 267 1
CRAY 2 CCVR en 1987
1984-1988 NAS 9080 21,5 2
Bull DPS /62 Multics
DPS8/62 M 1,5 2
opérationnel
IBM 3090 600, upgrade
IBM 3090 600 du 200 devient Frontal
134 800 6
+ VF du CRAY 2 XMP du
CCVR
1988-1990 Arrêt du Bull DPS 8 en
DPS8/62 M 1,5 6
1990
NAS 9080 21,5 2 Arrêt du NAS en 1990
VP-200 533 2 Supercalculateur vectoriel
IBM 3090 600 IBM 3090 600 VF arrêté
134 800 6
+ VF le 31.12.1993
1990-1993 TOP500 06/1993 Rang
VP-200 533 2 476 Pic théorique 533
MFLOPS
CRAY Y-MP
1993 8000 1 Création IDRIS
C90/8

Figure 28 – Chronologie des installations de 1969 à 1993


Date Date Nom de Cons- Performance Classement
Modèle Caractéristiques Mémoire
début fin machine tructeur de crête au TOP500
8 processeurs
1993 1999 ATLAS CRAY C98 2 Go 7,6 GFlop/s 81e en juin 1994
vectoriels
4 processeurs
1994 1999 AXIS CRAY C94 2 Go 3,8 GFlop/s
vectoriels
1995 1997 KAOS CRAY T3D 128 processeurs 8 Go 19,26 Flop/s 120e en juin 1996
1996 2002 ALEPH CRAY T3E 256 processeurs 32 Go 153,66 Flop/s 12e en nov. 1996
6 processeurs
1997 2000 SHINE Fujitsu VP300 12 Go 2,26 Flop/s
vectoriels
38 processeurs
1999 2006 UQBAR NEC SX-5 224 Go 304 GFlop/s 48e en juin 2000
vectoriels
BRODIE
2001 2002 IBM Power 3 160 processeurs 240 Go 141 GFlop/s
(IBM)
Power 4 /
2002 2008 ZAHIR IBM 1024 processeurs 3,1 To 6,5 Flop/s 59e en juin 2002
Power 4+
BRODIE
2006 2011 NEC SX-8 80 processeurs 640 Go 1,3 TFlop/s
(NEC)
2008 2012 BABEL IBM Blue Gene/P 40 960 cœurs 20 To 139 TFlop/s 10e en juin 2008
2008 2012 VARGAS IBM Regata Power 6 3584 cœurs 17,5 To 67 TFlop/s 51e en nov. 2008
2013 TURING IBM Blue Gene/Q 5536 cœurs 65 To 839 TFlop/s 29e en juin 2012
2013 ADA IBM x3750 10 624 cœurs 46 To 230 TFlop/s 123e en nov. 2012
Évolution des puissances installées au centre de calcul de 1969 à 2020 89

Figure 29 – Chronologie des installations de 1993 à 2013


90 De l’IBM 360/75 au superordinateur Jean Zay

4.2.3 Étude des droites de régression


L’examen visuel de la courbe générale des puissances comparées du centre de
calcul et du TOP (TOP500 depuis 1993) de 1969 à 2020 montre que si le déve-
loppement est exponentiel, il y a eu des changements d’amplitude de ces varia-
tions, suivant les périodes. Faire une courbe de régression qui irait de 1969 à
2020 montrerait qu’il y a eu en effet une progression, mais ne permettrait pas de
faire une analyse des causes de ces changements. C’est pourquoi la vie du centre
de calcul a été divisée en cinq périodes 1969 à 1980, 1980 à 1989, 1989 à 1992,
de 1992 à 2013 et de 2013 à 2020.

Méthode de l’étude

Le but est de définir le facteur annuel de multiplication de la puissance. En


l’élevant au carré, on verra comment varie le coefficient de la première loi de
Moore qui prévoyait un facteur 2 tous les deux ans.
Dans la figure 5 et celles qui suivront, toujours tracées à l’échelle logarith-
mique, les puissances sont en ordonnées. La variable x qui intervient dans les
formules des courbes inscrites sur les graphiques est reliée aux années par la
formule :
x = année courante - année de départ + 1.
Par exemple, pour la période allant de 1992 à 2019, x varie de 1 à 28.
Les puissances installées et celles du TOP, croissent exponentiellement. La
régression exponentielle des points expérimentaux tracés sur papier logarith-
mique est une droite.
Le logarithme de y peut se mettre sous la forme :
Log(y) = ax+b où a est le coefficient directeur de la droite.
y(x) = eb eax
Si x augmente d’une unité, y(x) est multiplié par exp(a)
On en déduit que chaque année, la puissance est multipliée par exp(a).

Période 1969-2020

Le graphique qui regroupe les 5 périodes permet, avant l’étude en détail de


chacune d’elles, d’avoir une vue d’ensemble de ce qui s’est passé en cinquante
ans (annexe 21).
Évolution des puissances installées au centre de calcul de 1969 à 2020 91

Figure 30 – Courbes de régression des puissances des cinq périodes étudiées


92 De l’IBM 360/75 au superordinateur Jean Zay

Figure 31 – Puissances installées et TOP500 et leurs courbes de régression


Évolution des puissances installées au centre de calcul de 1969 à 2020 93

Un premier examen de ces deux graphiques montre que les puissances instal-
lées sont toujours inférieures à celles du TOP mais les tendances ne décrochent
pas. C’est dans la période 1980-1989 que les taux de croissance ont été le plus
voisins. De 1989 à 1992 a eu lieu une période de stagnation. Puis les puissances
installées et celles du TOP ont repris une évolution presque parallèle avec des
coefficients plus élevés tenant aux changements de technologie.

Coefficient a Facteur multiplicatif


Période centre centre
TOP TOP
de calcul de calcul

1969 – 1980 0,17 0,24 1,18 1,24

1980 – 1989 0,42 0,39 1,53 1,47

1989 – 1992 0,05 0,24 1,06 1,27

1992 – 2013 0,52 0,59 1,68 1,82

2013 – 2020 0,268 0,318 1,307 1,374

En moyenne, chaque année, la puissance installée est multipliée par 1,18 et


celle du TOP par 1,24 pour la période 1969 à 1980 et respectivement 1,53 et 1,47
pour 1980 à 1989, et 1,06 et 1,27 pour 1989 à 1992, puis 1,68 et 1,82 pour 1992
à 2013, puis 1,307 et 1,374 pour 2013 à 2020.
On en conclut que, en moyenne, pendant les vingt-six dernières années tous
les deux ans, les puissances du TOP ont été multipliées par 3,31 et celles du
centre de calcul par 2,78.
DEUXIÈME PARTIE
Étude détaillée de l’évolution
du centre de calcul d’Orsay
de 1969 à 1981
La vue d’ensemble de la vie du centre a montré son évolution pendant un demi-
siècle, durant lequel il n’a jamais oublié le but qui lui avait été fixé à l’origine
(figure 5). Il s’est adapté à la fois aux bouleversements techniques et à ceux de
la société. En 2020, où la course à la puissance bat son plein en devenant un
enjeu stratégique, il est l’un des mieux équipés d’Europe. On peut donc dire que
l’objectif fixé à la création en 1969 est atteint.
Mais l’étude détaillée, année après année, des cinq périodes définies au cha-
pitre 4, montre que cette évolution n’est qu’un ensemble de solutions possibles,
un compromis entre les schémas directeurs proposés et les échecs. Dans cette
seconde partie, on va étudier le détail de cette évolution année après année, mais
aussi comment elle s’est faite, au prix de quelles luttes, de quels compromis. On
essaiera d’en trouver les raisons, en soulignant ce qu’on aurait voulu faire, mais
en gardant à l’esprit que d’une certaine façon, le but fixé en 1969 est atteint et
que la lutte a payé.
Les idées suivantes se dégagent de l’étude :
I. le CIRCÉ a été imposé par Pierre Jacquinot à l’ensemble des décideurs
qui ensuite, pendant vingt ans à l’exception de quelques-uns, l’a ignoré ;
II. jusqu’à la création du GENCI, il a survécu grâce à l’opiniâtreté de ses
directeurs. Deux d’entre eux en référaient directement au directeur
général. S. Fayolle, dans les périodes intermédiaires a œuvré pour que le
centre ne soit pas totalement oublié de l’administration générale et que
l’équipe technique qu’il a dirigée pendant trente-cinq ans maintienne la
qualité des services attendus par les utilisateurs ;
III. c’était une copie conforme de celle du centre de la NASA au JPL. La mise
en place s’est donc faite rapidement ; réception du bâtiment, installa-
tion des matériels, recrutement du personnel, constitution des 3 groupes :
exploitation, système, assistance aux utilisateurs. Dès l’ouverture, le
14 avril 1969 le centre a fonctionné 24h/24, 7j/7. Les trois équipes, exploi-
tation, système et groupe de service aux utilisateurs (GSU), étaient en
place le jour de l’ouverture du centre de calcul. Elles ont évolué, mais le
cadre est resté. Avec l’arrivée des nouvelles architectures des systèmes
informatiques, l’équipe exploitation a fusionné avec l’équipe système. Mais
l’ossature est restée intacte et c’est la compétence du GSU au fil des années
qui a décidé en partie du choix de l’installation au centre de calcul de la
machine dédiée à l’Intelligence Artificielle (IA). Des membres du personnel
ont disparu ; pour cause de retraite, de décès, ou par choix de carrière ou
d’autres raisons personnelles. Des éléments nouveaux sont arrivés.
Mais ils se sont fondus dans un environnement qui a su s’adapter aux pro-
fonds changements technologiques et ne s’est jamais écarté de son but : rendre
le meilleur service possible. Chaque fois qu’une nouvelle technologie naissait, ils
étaient prêts à l’accueillir parce qu’ils l’avaient anticipée.
98 De l’IBM 360/75 au superordinateur Jean Zay

Bien entendu cette structure a évolué. Les effectifs relatifs des groupes ont
changé. Des services comme les réseaux sont venus se greffer. Mais les objectifs
principaux, qui ont bien été précisés dès l’origine ont perduré au fil des évolu-
tions. À l’inauguration du supercalculateur, Jean Zay, il a été rappelé que le
centre de calcul est un centre de calcul pour la recherche. Ce n’est pas un centre
de recherche.
Un constat s’est imposé qui est toujours valable après cinquante ans. Dès
l’installation d’une nouvelle machine, la puissance offerte est toujours inférieure
à celle qu’exigerait la résolution d’un des problèmes de pointe du moment. En
1969, l’un d’eux était la détermination de la pression à la surface de la planète
Mars grâce à des simulations et traitement de données tributaires de la trans-
formée de Fourier. Il aurait pris des années de temps machine. En 2020, lors de
l’inauguration du Jean Zay, c’est un chercheur en sciences humaines qui explique
que son problème demanderait 3000 heures du nouvel ordinateur installé.
La période de 1969 à 1990 sera traitée dans les quatre chapitres qui suivent.
Elle a vu l’émancipation de quelques équipes qui, après formation, ont pu traiter
en local une partie de leurs besoins. L’équipe technique a été, et reste toujours
de nos jours, en formation continue avec les constructeurs et d’autres centres
étrangers, pour anticiper l’apparition dans le paysage informatique des machines
toujours au fait de l’état de l’art en matière de calcul scientifique. Nous traite-
rons successivement de l’évolution des machines installées dans cette période,
du personnel qui les a servies, des projets qui n’ont pas abouti avec les causes
de ces échecs, des rapports de la direction du centre avec ses autorités de tutelle
et l’Enseignement supérieur.
Une étude détaillée de cette comparaison sera faite dans le chapitre 7 qui
traite de l’histoire parallèle du centre et les résultats présentés dans la figure 72,
p. 159.
Enfin et surtout, un bilan sera dressé des résultats scientifiques obtenus.
Chapitre 5
Période 1969-1972

La période 1969-1981 est celle pendant laquelle le CIRCÉ s’est affirmé dans la
panoplie d’outils pour la recherche. Elle a été à la fois enthousiasmante mais
difficile et riche d’enseignements.
Que se passait-il dans le monde informatique mondial en 1969, au moment
où démarrait le CIRCÉ, et dans la décennie suivante ?
Il existe, nous l’avons vu, de très nombreuses histoires de l’informatique. L’une
d’elles, déjà citée, (https://fr.wikipedia.org/wiki/Superordinateur#Historique),
est particulièrement intéressante : elle retrace, année après année, l’émergence
des idées nouvelles qui ont conduit à l’informatique d’aujourd’hui.
« 1940 : pour décrypter les messages de l’armée allemande, les Anglais mettent
au point sur le site de Bletchley Park les calculateurs Robinson et Colossus sous
la direction du mathématicien Alan Turing. Ce sont les premières machines
qui intègrent les concepts d’arithmétique binaire, d’horloge interne, de mémoire
tampon, de lecteurs de bande, d’opérateurs booléens, de sous-programmes et
d’imprimantes. Tout ceci restera inconnu car “Secret défense” jusqu’en 1975. »
C’est avec la machine ENIGMA que le problème de décryptage est résolu.
Il y a cinquante-sept ans, en 1963, au MIT, est développé le premier logiciel gra-
phique interactif utilisant un stylo optique pour faire sur écran des dessins techniques.
L’année 1964 est particulièrement riche en avancées. Chez Control Data
Corporation (CDC), Seymour CRAY lance le CDC 6600 et une bataille commerciale
commence avec IBM qui annonce une machine qui ne sera en service que quelques
mois après, l’IBM 90. La bataille continue quand CDC met en service la 7600. C’est
aussi en 1964 qu’après FORTRAN, IBM lance le langage de programmation PL/1
(Programming Language 1).
En mars 1964, IBM lance la série des 360 et inaugure le concept d’une lignée
d’ordinateurs compatibles entre eux. Cette série est un grand succès commercial.
Un autre grand projet voit le jour. Le MIT avec General Electric et les Bell
Laboratories s’investissent dans le projet MULTICS, avec un prototype de nouvel
ordinateur et d’un nouveau système d’exploitation pour ordinateur, parfaitement
fiable, capable de tourner 24h/24, 7j/7, utilisables par plusieurs personnes à la
fois, et capable en même temps de faire tourner des travaux en tâche de fond. Des
étudiants du Dartmouth College créent le langage BASIC (eBeginners All Purpose
Symbolic Instruction Code).
100 De l’IBM 360/75 au superordinateur Jean Zay

En 1965, la société russe ITMIVT construit en 350 exemplaires de la


machine la plus puissante du moment. La même année, BURROUGH annonce
l’ILLIAC.IV, avec une architecture parallèle et 64 processeurs. Une seule fut
installée à la NASA en 1972 et fonctionnera en 1975. C’est à ce moment que
DIGITAL présente le premier mini-ordinateur, le PDP8, cinq fois moins cher
que le plus petit IBM 360. En 1966, la fondation du club Amateur Computer
Society marque le début de l’informatique personnelle.
1966 est aussi l’année qui voit apparaître la première console de jeu.
En 1967, IBM est le plus gros vendeur d’ordinateurs et il construit le premier
lecteur de disquettes.
L’été 1969, Bell Lab abandonne MULTICS, trop long à mettre au point.
Mais, contre l’avis de la hiérarchie de la firme, un groupe de ses informaticiens
développe sur un PDP7 récupéré, un nouveau système reprenant quelques-unes
des idées de MULTICS dans leur développement. C’est le noyau de ce qu’on
appellera UNIX (par opposition à MULTICS).
En avril 1970, Digital Equipement Corporation (DEC) lance la ligne PDP11
qui tourne sous UNIX et sur laquelle est porté le langage de programmation de
haut niveau, FORTRAN.
En janvier 1971, apparaît pour la première fois le nom de Silicon Valley dans
la revue Electronic NWS. Le réseau ARPANET relie 23 ordinateurs.

Figure 32 – Machines installées de 1969 à 1980


Période 1969-1972 101

L’étude des droites de régression de la puissance de la période 1969-1980


(figure 33) ammène à plusieurs conclusions.

Figure 33 – Régression des puissances de 1969 à 1981


102 De l’IBM 360/75 au superordinateur Jean Zay

Les calculs de régression ont été faits avec EXCEL qui donne la formule de
la courbe de régression. Pour le centre de calcul on relève a = 0,1656 b = 7,088
d’où un coefficient multiplicatif de exp(0,1656) = 1,179.

a centre Facteur multiplicatif Facteur multiplicatif


Période a TOP
de calcul centre de calcul TOP
1969 – 1980 0,165 0,235 1,179 1,235

Il y a deux conclusions :
y la période a été bien choisie car les droites de régression ne s’écartent pas
beaucoup des valeurs installées. Il n’y a pas de décrochements ;
y les puissances en un an ont été en moyenne multipliées par 1,179 pour le
centre de calcul et 1,235 pour le TOP, soit pour la loi de Moore un coefficient
d’augmentation de 1,39 pour le centre et 1,52 pour le TOP en deux ans.
Cette période sera divisée elle-même en deux parties. La première jusqu’en
1972 est celle du démarrage. La seconde de 1972 à 1980 incluse est celle de la
tentative pour instaurer un régime de croisière dans un environnement méfiant.
Ces années ont été celles de l’installation et de la confirmation du centre de
calcul. Il s’est construit autour de sa devise : centre de service où les chercheurs
de toutes les disciplines trouveront la possibilité de faire les calculs dont ils ont
besoin et qu’ils ne peuvent pas faire ailleurs. Elle était gravée dans le marbre et
tout le personnel l’a faite sienne.
Cette période décisive de mise en place de la structure a permis au centre de
remplir son objectif de service. Les résultats en calcul intensif sont arrivés très
vite, en chimie théorique, dynamique des fluides, spectroscopie et traitement
de données astronomiques. En effet les chercheurs étaient prêts et ont immé-
diatement commencé à faire au CIRCÉ les calculs qu’ils faisaient auparavant à
l’étranger faute de moyens chez eux. Beaucoup, à cette époque, avaient travaillé
à l’étranger sur du matériel IBM. De sorte que, un an après l’ouverture, 1000
utilisateurs appartenant à 250 laboratoires étaient recensés et soit faisaient du
calcul intensif, soit s’initiaient à l’informatique, tous sous la houlette du service
d’assistance aux utilisateurs. Après que les bases ont été posées et consolidées,
le régime de croisière s’est instauré. Cela ne veut pas dire que tous les problèmes
aient été résolus. Au contraire, ils commençaient. Mais le bateau était lancé. Il
survivra aux tempêtes.

5.1 Évolution des puissances de 1969 à 1981


C’est au milieu de tout ce bouillonnement, à l’étranger, d’idées et de réalisa-
tions que le centre de calcul cherche, pour son installation un matériel puissant,
le plus fiable possible et dans son budget. Pendant que se mettait en place
chez nous le premier centre de service, à l’étranger on en était déjà aux débuts
d’UNIX qui remplaçait MULTICS, aux réalisations de CRAY, à la mise en place
des premiers réseaux. Il était temps de prendre le train en marche. Peu importe
l’origine de l’outil et du modèle d’organisation puisqu’ils avaient largement fait
leurs preuves. L’important était ce que l’on allait en faire.
Période 1969-1972 103

Le figure 33 a montré une évolution exponentielle des puissances offertes,


et chaque année la puissance moyenne a été multipliée par 1,18, alors que celle
du TOP l’a été par 1,24. Ce ne sont pas de mauvais choix techniques qui nous
ont empêchés de faire plus, mais la nécessité de faire évoluer le centre à budget
constant et les nombreux rejets de la commission informatique.

Il a déjà été dit qu’au centre de calcul les documents concernant cette époque
avaient été détruits. Il en reste cependant quelques-uns, épars, en particulier un
exemplaire d’une plaquette présentant le CIRCÉ datant de 1970 à usage de ses
utilisateurs. Elle rend sensible le fait que, à sa création le CIRCÉ avait deux
catégories d’utilisateurs. Les uns avaient des programmes qui utilisaient toutes
les ressources de la machine, qu’ils satureraient volontiers. Les autres abor-
daient l’informatique et il fallait leur expliquer ce qu’étaient, un mot, un octet,
la mémoire vive, les mémoires auxiliaires etc. Faire coïncider ces deux mondes
et qu’ils soient satisfaits tous les deux était un difficile travail d’équilibriste. La
plaquette est touchante, parce que non seulement c’est un cours d’informatique
pour débutants, mais parce qu’elle tente de faire comprendre l’engagement de
tout le personnel 91. Son style marque une époque.
Et ça a marché ! Non seulement, nous l’avons vu, pour les utilisateurs
extérieurs, mais pour les sciences humaines. C’est le centre de calcul qui est
devenu le centre de rencontre des diverses spécialités de sciences humaines qui
se côtoyaient pour les premières fois.

5.2 La période de mise en place du centre :


1969-1972
À cette époque, l’architecture des ordinateurs du marché se réfère à celle définie
par Von Neumann 92. Les gammes de machines des constructeurs sont assez dis-
parates selon que le client souhaite effectuer des calculs scientifiques ou exécuter
des applications de gestion d’entreprise.

91 Plaquette du CIRCÉ. Archives de la DIS.


92 L’architecture de Von Neumann est un modèle d’ordinateur qui utilise une structure
de stockage unique pour conserver à la fois les instructions et les données demandées ou
produites par le calcul. De telles machines sont aussi connues sous le nom d’ordinateur à
programme enregistré. La séparation entre le stockage et le processeur est implicite dans
ce modèle.
(https://fr.wikipedia.org/wiki/Architecture_de_von_Neumann)
104 De l’IBM 360/75 au superordinateur Jean Zay

La série IBM 360, de troisième génération,


annoncée en 1964, comporte de nombreuses
innovations permettant qu’elle soit aussi per-
formante pour les applications scientifiques
(arithmétique flottante) que pour celles de
gestion (arithmétique décimale).
La série 360 a massivement contribué à
imposer les ordinateurs IBM dans le monde
tant scientifique que celui des affaires 93.
Les modèles de la série sont installés dans
les grands centres de calcul français tels que
ceux du CEA, EDF, etc. comme dans ceux de
grandes entreprises privées.

5 .2 .1 Matériel
On retrouve beaucoup de ces renseignements techniques dans la première pla-
quette du CIRCÉ 94.
À sa création, le centre de calcul dispose du parc de machines suivant :
− un ordinateur 3600 Control Data « diskless » (à bandes magnétiques) ;
− un IBM 360/50, mémoire 512KB, cycle 2000 ns, environ 0,3 MIPS ;
− un IBM 360/75, mémoire 1MB, cycle 750 ns, environ 1 MIPS.

Type Puissance Nombre


Date Complément d’information
d’équipement en MIPS de CPU

CDC 3600 0,30 1 déménagé depuis la Rue du Maroc à Orsay


1969-
IBM 360/50 0,30 1 installé à Orsay
1972
IBM 360/75 0,94 1 installé à Orsay

5 .2 .1 .1 . L’ordinateur 3600 Control Data


C’est un ordinateur de moyenne puissance qui comporte :
− une mémoire centrale de 64 000 mots de 48 bits dont le cycle de base est
1,5 µs environ ;
− Gibson Mix → puissance 337 kIPS ;
− un lecteur lisant 1200 cartes à la minute ;
− une imprimante dont la vitesse est de 1200 lignes par minute.

93 https://fr.wikipedia.org/wiki/IBM_360_et_370
94 Plaquette CIRCÉ de 1972.
Période 1969-1972 105

Les mémoires auxiliaires disponibles comportent huit dérouleurs de bandes


magnétiques type 607 permettant d’écrire jusqu’à 800 caractères par pouce
(800 bpi), dont deux contiennent le système d’exploitation et des programmes
dits de service.
Le 3600 est utilisé suivant le mode classique des trains de travaux (ou moni-
teur), pour la mise au point ou l’exploitation de programmes de recherche.
L’introduction des travaux et l’impression des résultats sont faits séparément
sur CDC 3600 ou sur IBM 360.

Figure 34 – William Norris, président de Control DATA, au pupitre du CDC 3600


(© Courtesy of Gwen Bell)

5.2.1.2. L’ordinateur IBM 360 modèle 50


Ses principales caractéristiques sont :
− une mémoire de 524 KB
Des mémoires auxiliaires à accès sélectif qui sont caractérisées par le fait
qu’il est toujours possible de choisir et de sélectionner une information et d’aller
directement chercher celle-ci, là où elle est stockée, par opposition aux mémoires
dites séquentielles, telles les bandes magnétiques où la recherche suppose le
défilement de la bande jusqu’au moment où l’information désirée passe devant
le mécanisme de lecture.
Les mémoires auxiliaires comprennent (figure 35) :
− une unité de huit disques amovibles 95 2314, dont la capacité de stoc-
kage est de 233 millions d’octets et le temps moyen d’accès est de
60 millisecondes ;
− un débit d’un canal d’E/S 1,3 MB/s ;
− un tambour magnétique IBM 2301, capacité 4 MB, débit 1,2 MB/s, temps
d’accès moyen 8,6 ms ;
− un disque amovible IBM 2314, capacité 29 MB.
Il comprend en outre :
− un lecteur de ruban perforé type 2671, lisant 1000 caractères/seconde ;
− un perforateur de bande, type 1012.

95 En raison de leur apparence, ils ont acquis le surnom de « Fours à pizza ».


106 De l’IBM 360/75 au superordinateur Jean Zay

Figure 35 – Schéma d’ensemble des IBM 360/75 et 360/50

Figure 36 – IBM 360/75


Période 1969-1972 107

5.2.1.3. L’ordinateur IBM 360 modèle 75 (figure 35)


Il comprend (figure 36) :
− une mémoire de 1048 kB dont le temps d’accès est de 750 ns pour 8 octets ;
− une mémoire à ferrites supplémentaire, à accès direct de 1 048 octets ; le
temps complet de lecture et d’écriture, pour un bloc de 8 octets est de 8 µs ;
− deux tambours magnétiques, type 2301, de 4 MB chacun, dont le délai
moyen d’accès est de 8,6 millisecondes et la vitesse de transfert de 1,2 mil-
lion d’octets par seconde ;
− une unité de huit disques amovibles 2314, en commun pour ces deux
ordinateurs 360 ;
− une mémoire à cellules de 400 MB et d’accès relativement plus lent : entre
175 et 600 millisecondes ;
− une unité de disques 2311 dont la capacité de stockage est de 7,25 MB et
le temps moyen d’accès de 75 ns ;
− huit dérouleurs de bandes 2401 ; la vitesse de lecture et d’écriture est de
60 Mo/s avec une densité d’enregistrement de 800 bpi ;
− six imprimantes fonctionnant à 1000 lignes par minute ;
− deux lecteurs-perforateurs de cartes (lecteur : 1000 cartes par minute ;
perforation : 600 cartes par minute) ;
− deux traceurs de courbes ;
− deux terminaux à écran cathodique 2260 ;
− une unité de visualisation graphique 2250 ;
− deux unités de contrôle de terminaux, permettant la connexion de ter-
minaux lents (type 2740, machine à écrire) et rapides (petits ordinateurs
type 1130 ou lecteurs-perforateurs-imprimantes 2780).

5.2.2 Système d’exploitation


Le 50 et le 75 travaillent en multiprogrammation sous le système MVT/ASP, le
premier étant consacré aux entrées-sorties et le second aux calculs. Le schéma
ci-dessous montre le trajet d’un travail dans les deux ordinateurs depuis l’entrée
des données au lecteur jusqu’à la restitution des résultats sur l’imprimante ou
une console graphique interactive.

Figure 37 – Cheminement des travaux dans l’ensemble 360/50, 360/75 travaillant sous
MVT/ASP
108 De l’IBM 360/75 au superordinateur Jean Zay

5.2.3 Comment utiliser les ordinateurs


Aujourd’hui, dans la salle machine, il n’y a que des baies (ou racks) techniques
contenant les éléments matériels du supercalculateur tels que les lames96, les
nœuds97 de calcul et les processeurs98. D’autres baies, incluent les serveurs du
système de fichiers et d’autres serveurs de service. Enfin, des baies de brassage
réseaux complètent les éléments de configuration matérielle dans la salle machine.
Des ingénieurs travaillent dans leurs bureaux aux étages et un technicien surveille
le réseau. Le silence est total. Et cela pour deux raisons : la première est que l’ex-
ploitation et la maintenance du matériel sont assurées à distance par le construc-
teur, la seconde est que le centre comme tout autre de cette importance est sous
surveillance constante. Tout visiteur qui franchit la première porte doit déposer
ses papiers d’identité dès l’accueil. Ils ne lui seront remis qu’à sa sortie. Puis il est
pris en charge par un membre du personnel qui ne le quittera plus. Ce personnel
est divisé en plusieurs groupes, munis chacun d’un badge qui lui donne accès aux
parties du bâtiment où son travail risque de l’appeler. Les salles de cours et la
cafétéria où il risque d’y avoir « foule » occupent les ailes droite et gauche du rez-
de-chaussée aussitôt après l’accueil et la première porte, après le premier contrôle.
Deux autres successives au rez-de-chaussée protègent la salle des machines.
En 1969, l’ambiance était très différente. On a peine à imaginer à la fois les
conditions de travail d’alors et le nombre de personnes nécessaires au maintien
et à l’exploitation des machines pour un service fiable et sans interruption. À ses
débuts, le bâtiment est une « ruche » dans laquelle l’utilisateur entre et sort sans
contrôle d’accès, sauf dans la salle machine, bien protégée. En cas grave, un rideau
métallique actionné de l’intérieur peut se déployer et en renforcer l’isolement.
À cette époque, la façon de travailler de l’utilisateur dépend de sa situation
géographique.

5.2.4 Traitement par lots

Figure 38 – Schéma de traitement par lots

96 Chaque lame contient des nœuds de calcul CPU ou 1 nœud de calcul CPU+GPU.
97 Les nœuds comprennent deux processeurs (ou sockets), et pour les nœuds GPU,
4 cartes graphiques accélératrices (GPU).
98 Chaque processeur est constitué de plusieurs cœurs physiques.
Période 1969-1972 109

S’il est physiquement dans le centre de calcul,


il est souvent venu par la navette du centre de
calcul qui, à certaines heures en début et fin de
journée, fait des trajets entre la gare du RER au
guichet à Orsay et le CIRCÉ.
Une fois sur place, il a le choix entre le libre-ser-
vice et le dispatching. S’il est entre 7 h et 20 h, si
son job (le passage en machine du travail soumis)
dure moins d’une minute, s’il ne demande pas de
montages de mémoires auxiliaires, s’il aboutit à
moins de 1000 lignes d’impression, alors il intro- Figure 39 – Dépôt au
duit lui-même ses cartes dans le lecteur réservé et dispatching
récupère ses résultats.
Le temps d’attente dépend de la charge. Par
exemple, les 20 et 21 octobre 1969, le temps
moyen d’attente était de 3 minutes 30 secondes.
Si son job ne répond pas à ces conditions,
il remplit un formulaire (figure 4), donne son
paquet de cartes, programmes et données à un
technicien du dispatching qui le transmet à un
des opérateurs qui lui, l’introduit dans un lec-
teur, d’où il rejoindra la file d’attente. C’est
le traitement par lots : un autre technicien du
dispatching, récupère les listes de résultats qui
sortent des imprimantes, les découpe, les classe
par nom d’utilisateur indiqué en fin d’impression
Figure 40 – Terminal 2740
de chaque travail. Il met chaque liasse dans les
cases spéciales devant lesquelles il y a embouteil-
lage d’utilisateurs attendant leurs résultats, un peu comme dans les aéroports
où on attend ses bagages qui tournent sur le tapis roulant.
L’utilisateur qui n’a pas la possibilité de venir à Orsay, mais est localisé à
Paris, peut déposer ses travaux à un des points relais dans la capitale : faculté des
sciences de Jussieu, École Normale Supérieure, École polytechnique, Muséum,
Maison des sciences de l’homme, où un chauffeur du CIRCÉ passe matin et
soir, prendre les paquets de cartes à traiter, quelquefois une bande magnétique
transportant des données et ramène les résultats.
Enfin le CIRCÉ étant le centre national, l’utilisateur de province n’a d’autre
ressource que les services postaux. À la poste d’Orsay, le chauffeur avait une
place spéciale réservée dans la salle de tri pour tous ses colis journaliers à
déposer ou à récupérer.

5.2.5 Télétraitement
À l’ensemble 360/50 et 360/75 étaient reliés des terminaux. Les uns, dits
lourds ou passifs, au nombre de 4, ne faisaient que lire les cartes, les transmet-
taient à la file d’attente et restituaient les résultats. Les 24 autres, gérés par
110 De l’IBM 360/75 au superordinateur Jean Zay

le système CRBE 99, étaient dits conversationnels. Ils se composaient de deux


machines à écrire avec clavier, l’une pour l’entrée des informations, l’autre
pour l’impression des résultats. Ils offraient aussi la possibilité de consulta-
tion de fichiers et de mise au point des programmes. Tous étaient reliés aux
ordinateurs par lignes téléphoniques. Ils étaient installés au CIRCÉ ou chez
les utilisateurs.
C’est la direction du CNRS qui statuait sur l’attribution d’un terminal à
un laboratoire. Celui-ci devait soumettre un rapport pour avis technique au
CIRCÉ. Il comprenait outre la description du matériel une copie de la conven-
tion passée entre le CIRCÉ et le demandeur qui fixait les responsabilités de
chacun.

5.2.6 Personnel et fonctionnement du centre


Toute cette organisation devait fonctionner 365 jours par an, à plein, sans
heurts, du lundi matin 7 heures au dimanche matin 7 heures et à effectif réduit
le dimanche, consacré essentiellement aux travaux lourds ainsi que trois jours
fériés : Noël, Pâques, 1er mai.
L’organigramme du centre de calcul en régime de croisière est décrit
ci-dessous. Il tournait avec 4 équipes d’opérateurs, 3 étant au travail et une en
récupération 100, 5 personnes au dispatching et 2 chauffeurs. Tous travaillaient
en horaires décalés. L’enjeu dès la création a été la continuité de l’exploitation,
élément primordial pour l’atteinte du but fixé : que les chercheurs puissent
mener à bien leur recherche.
L’administration comprenait outre les deux secrétaires de direction, une res-
ponsable du groupe et sa secrétaire, une secrétaire pour la comptabilité du
ticket modérateur et une autre s’occupant des achats, une documentaliste, deux
chauffeurs, un agent d’entretien.
L’effectif de ces groupes va considérablement varier dans les cinquante ans
à venir.
La rémunération du personnel a nécessité des initiatives de la part de
Charles Gabriel à la direction générale du CNRS et de M. Morvan, le directeur
régional à Gif-sur-Yvette. Un système de primes et temps de récupération com-
pliqué mais très encadré a permis d’ouvrir le centre avec le personnel travaillant
suivant les règles imposées. Il n’y a pas eu de période de transition.

99 Le système CRBE a été développé en interne par les ingénieurs système du CIRCÉ
et a été remplacé par TSO.
100 Les trois-huit ou 3×8 sont un système d’organisation d’horaires de travail qui consiste

à faire tourner par roulement de huit heures consécutives trois équipes sur un même
poste, afin d’assurer un fonctionnement continu sur 24h. Chaque semaine, les équipes
changent de tranche horaire.
Période 1969-1972 111

Figure 41 – Organigramme du personnel du CIRCÉ pendant la première décennie

5 .2 .7 Problèmes de logistique
Des problèmes de logistique ont dû être résolus avant l’ouverture du centre aux
utilisateurs. Le centre était une copie de celui du JPL, mais ce dernier était situé
dans un très grand campus où étaient installés tous les services annexes néces-
saires à des chercheurs ayant des horaires décalés et quelquefois travaillant 24 h
d’affilée. Notre « usine à calcul » était et est toujours logée sur le territoire de
la faculté Paris-Sud, appelée le plateau, reliée à la vallée par une route sinueuse.
Une annexe de la cantine y ouvrait pour les laboratoires du plateau entre 11 h 30
et 14 h. En 1969, nous n’avions pour voisins que quatre laboratoires distants les
uns des autres d’une centaine de mètres et dont le personnel travaillait à des
heures normales. Il y avait bien des chercheurs qui travaillaient quelque fois la
nuit, mais ils étaient discrets. En dehors de ces heures, bordé d’un côté par la
forêt toute proche et à la limite de champs de blé, la zone construite du plateau
était un désert complet, loin de toute activité. Il est difficile d’imaginer le pla-
teau d’alors au moment où on y construit le campus Paris-Saclay avec ses seize
grues géantes, et un service d’autobus qui le dessert et bientôt un métro. Mais
en 1969, il fallait bien que le CIRCÉ vive.
Aussi a-t-il fallu dès l’ouverture organiser un service de navettes avec deux
chauffeurs, matin et soir pour le personnel et les utilisateurs. Au second étage,
ont été aménagées deux pièces communicantes pompeusement appelées café-
téria, ouvertes au seul personnel. Une personne de service, appartenant à la
société de nettoyage, s’y tenait pendant les heures ouvrables pour servir un café
à ceux qui voulaient faire une courte pause ou au retour de la cantine. C’était
une salle de réunion informelle, où elle préparait une simple collation à ceux
qui n’avaient pas le temps d’aller à la cantine. Elle faisait avec le chauffeur les
112 De l’IBM 360/75 au superordinateur Jean Zay

quelques courses nécessaires. Quand elle n’était pas en service, la cafétéria res-
tait ouverte au personnel. Les opérateurs disposaient d’un grand réfrigérateur
pour leurs provisions. Ils y prenaient leurs repas de nuit et leur petit déjeuner
avant de repartir le matin avec le chauffeur à la gare du Guichet à Orsay, la
première équipe de jour ayant déjà été amenée à pied d’œuvre 101.

5.2.8 Rapports avec les autorités de tutelle. Ticket modérateur


Pierre Jacquinot a quitté la direction générale du CNRS peu après la création
du centre de calcul. Il a remis son « testament » à son ministre le 17 juillet
1969. Son successeur, Hubert Curien, avait vu à travers ses collègues étrangers
que l’informatique est « un outil d’avenir » et a fait tout ce qui était en son
pouvoir pour soutenir le jeune CIRCÉ. Quatre ans après, il est devenu directeur
du CNES (Centre National des Études Spatiales). Il n’ignorait pas la place de
l’informatique dans les programmes spatiaux. Il connaissait bien le CNRS et
son fonctionnement puisque depuis trois ans, il était directeur scientifique du
département Physique-Mathématiques. Il avait déjà mesuré le manque d’en-
thousiasme de ses collègues pour l’informatique. Dès notre première rencontre,
il m’avait prévenue : « Vous discuterez directement avec moi les questions du
centre de calcul. Je les verrai moi-même avec les directeurs scientifiques. » Mais
a-t-il ajouté avec son sourire légendaire : « J’espère que je ne le regretterai pas.
Vous travaillez sans filet. Vous n’avez pas droit à l’erreur. »
Il s’est trouvé dès le début confronté à notre premier handicap : nous
devions faire des plans de remplacement de matériel. Seuls des matériels
étrangers répondaient à notre cahier des charges. Mais le gouvernement avait
mis en place des comités, missions et commissions informatiques présidés par
Wladimir Mercouroff, qui non seulement nous invitaient à choisir du matériel
français mais exerçaient leur droit de veto si nous choisissions un autre construc-
teur. Nous vivions dans la terreur de ces commissions. Nous étions revenus au
temps où le service Blaise Pascal voulait construire une machine française. Mais
cette fois, en plus, ce n’était pas nous qui choisissions du matériel français ina-
dapté. On nous l’imposait. Hubert Curien a trouvé une solution.
En février 1971, il a appelé W. Mercouroff au poste de directeur scientifique
d’un département « résiduel » qui englobait les mathématiques, l’astronomie, la
géophysique, la géologie et l’océanographie 102. Ce dernier cumulait cette fonc-
tion avec celles qu’il avait au ministère. Ainsi, il se trouvait dans la situation
ambiguë de défendre au nom du CNRS des dossiers qu’il devait refuser en tant
que directeur au ministère.

101 La copie du centre du JPL avait été jusqu’à celle du mobilier de la cafétéria. Elle était
décorée de photos de Mars à côté de superbes fractales.
102 Wladimir Mercouroff, Témoignage : « L’informatique dans l’enseignement et au

CNRS au début des années 70 », Histoire de la recherche contemporaine, tome IV,


n° 2015.
Période 1969-1972 113

Pour éclairer la situation, il va être fait de larges citations du texte inti-


tulé Témoignages 103, que W. Mercouroff a écrit en 2017 au sujet de ses pre-
mières fonctions ministérielles.
« Bien que débutant en la matière, j’ai accepté en mars 1970 de devenir
“chargé de mission à l’informatique” au ministère de l’Éducation nationale.
En fait, ces fonctions m’ont donné des responsabilités très larges au sein du
ministère : l’enseignement de l’informatique dans tous les ordres d’enseigne-
ment, l’introduction de l’informatique dans la gestion de l’Éducation natio-
nale, l’utilisation des ordinateurs pour l’enseignement et la recherche, ainsi
que la gestion du parc de matériels informatiques. C’était le deuxième parc
français après celui du ministère des Finances. À moins de trente-six ans,
j’ai eu rang de directeur au ministère. »
Tout est dit dans cette citation puisque la politique du gouvernement était
d’imposer le matériel français qui ne nous convenait pas. W. Mercouroff précise
ses charges ministérielles :
« Il y avait déjà une Commission des équipements informatiques ; elle exa-
minait tous les projets d’équipement. Elle était, pour l’essentiel, interne au
ministère, mais un représentant du délégué à l’informatique y siégeait en
application de sa mission interministérielle : il avait un pouvoir de veto, qu’il
faisait jouer plutôt en faveur de l’industrie nationale que de la cohérence du
projet, mais il ne pouvait pas toujours faire usage de ce droit. »
Dans ces conditions, pour ce qui est des équipements, W. Mercouroff a donné
une grande attention à ses missions au ministère et à l’Enseignement supérieur,
beaucoup plus qu’au CNRS, probablement pour deux raisons. Ses préoccupa-
tions allaient à l’enseignement et à la gestion. Or, au CNRS on faisait dans les
centres de calcul un enseignement très ciblé sur les matériels utilisés ou à venir
et pas du tout de gestion. Il n’est pas venu au CIRCÉ. Et dans son témoignage,
il n’a écrit que trois fois le nom CIRCÉ, une fois pour dire qu’il est sous sa
tutelle, deux fois pour dire qu’on n’y appliquait pas le ticket modérateur, ce qui
est faux. C’est le centre qui l’a appliqué le plus sérieusement quoi qu’il en dise.
Les seuls contacts professionnels que j’aie eus avec lui se situent pendant un
voyage à Moscou en 1979. J’étais invitée en tant que chercheur par G. Zhizine et
Vassili Moroz, de l’Académie des sciences soviétique, pour discuter d’un projet
d’interféromètres à construire et à installer dans un bâtiment neuf, conçu spé-
cialement pour abriter leurs recherches en spectroscopie par transformée de
Fourier. À cette époque, W. Mercouroff, qui avait quitté le CNRS en 1975, y
était revenu comme directeur des relations extérieures, ce qui explique probable-
ment sa participation au voyage. Même pendant ce voyage, nous avons eu deux
programmes complètement séparés.
Les deux actions marquantes de W. Mercouroff au CNRS, écrit-il, ont été
la fermeture de deux laboratoires : liquidation de ce qui restait de l’ancienne
informatique de la rue du Maroc, et fermeture du centre de calcul de Luminy.

103 Wladimir Mercouroff, Témoignage : « L’informatique dans l’enseignement et au CNRS

au début des années 70 », Histoire de la recherche contemporaine, tome IV, n° 2015.


114 De l’IBM 360/75 au superordinateur Jean Zay

À la dissolution de l’Institut Blaise Pascal, Jacquinot avait pris grand soin de


préserver la partie recherche en créant quatre laboratoires associés. Ne restaient
que l’informatique de gestion à laquelle personne n’a touché et le laboratoire
propre de de Possel, créé quatre ans auparavant pour l’abriter lui et son techni-
cien, avec leurs recherches en traduction automatique. On croyait ce problème
définitivement réglé. Mais Mercouroff a dissous ce laboratoire propre. Il a aussi
fermé le centre de calcul de Luminy, âprement défendu par des chimistes de
renom, mais apparemment mal géré, pour le remplacer par un centre universi-
taire installé à Marseille sous la direction de Mme G. Connat. Dans les années
suivantes, elle est devenue représentante de l’Enseignement supérieur dans les
commissions informatiques et autres instances ministérielles auxquelles le CNRS
était soumis.
W. Mercouroff a fait des choses importantes pour les universités qu’il a dotées
de matériel français, pour l’organisation de l’enseignement de l’informatique,
pour l’informatisation dans le secondaire. En particulier, dans les universités,
il a créé les Méthodes Informatiques Appliquées à la Gestion des Entreprises
(MIAGE). Aujourd’hui elles sont devenues des masters.
On comprend comment l’appui de H. Curien a été déterminant pour nous à
cette époque. Imposer du matériel Bull au CIRCÉ, c’était signer sa disparition ;
W. Mercouroff rappelle que, en tant que directeur scientifique de l’informatique,
au CNRS, il avait sous sa tutelle, les centres de Strasbourg, de l’IN2P3 et du
CIRCÉ. En fait les dossiers les plus importants des demandes en équipement
du CNRS étaient remis à J. Curien qui les soumettait ensuite à son directeur
scientifique avec charge de les défendre. Ce qui a fait dire à W. Mercouroff :
« J’ai fait honnêtement appliquer la préférence nationale, résistant aux pres-
sions, y cédant parfois. Ainsi, le remplacement du matériel IBM de l’INAG
(Institut National du CNRS pour l’Astronomie et la Géophysique) a donné
lieu à un psychodrame : Jean Kovalevsky, président de la section d’astro-
nomie et de géophysique du CNRS, a été dépêché pour m’expliquer que si
j’imposais un autre matériel qu’IBM, tout le travail qui avait été fait pour les
calculs astronomiques du Bureau des longitudes était anéanti ; comme j’étais
aussi directeur scientifique au CNRS pour l’astronomie, je me suis incliné. »
Mais il est une autre de ses initiatives qui fut très importante pour nous aussi.
C’est l’instauration du ticket modérateur. Faute de trouver le moyen de contrôler
l’opportunité des travaux soumis au centre de calcul, et pour trouver des crédits
pour financer les centres universitaires, Mercouroff a institué le ticket modéra-
teur, c’est-à-dire le paiement d’une partie du calcul par les utilisateurs sur leurs
crédits de fonctionnement 104 : au début elle ne s’appliquait qu’à l’Enseignement
supérieur. Mais elle a été étendue aux centres du CNRS :
« J’ai pu définir les centres de calcul interuniversitaires, qui regroupaient des
moyens de calcul alors très coûteux, comme centres de services pour l’ensei-
gnement, la gestion et la recherche de plusieurs universités. Ils devaient faire

104 Wladimir Mercouroff, Témoignage : « L’informatique dans l’enseignement et au

CNRS au début des années 70 », Histoire de la recherche contemporaine, tome IV,


n° 2015.
Période 1969-1972 115

payer un “ticket modérateur” 105 en facturant des heures de calcul ; le coût de


l’heure ne dépendait que des frais de maintenance et de fonctionnement, les
investissements étant exclus. Cette règle, laborieuse à faire appliquer, a été
utile pour éviter le gaspillage, et donner quelque aisance aux centres. C’est
au CNRS, dans le Centre Inter-régional de Calcul Électronique (CIRCÉ)
d’Orsay, que j’ai eu le plus de mal à la faire appliquer. Le chargé de mission
à l’informatique que j’étais a écrit dans ce sens une belle lettre au directeur
général du CNRS qui l’a transmise, délicieuse ironie, au directeur scienti-
fique du CNRS que j’étais devenu à ce moment-là… »
H. Curien ne m’a jamais mentionné cette lettre. Il savait que, n’ayant pas
droit à l’erreur, je suivais à la lettre les directives émanant du ministère. Mais il
a beaucoup discuté du ticket modérateur avec moi, car dès 1970 le CIRCÉ avait
plus de 1000 utilisateurs et la comptabilité occupait un ingénieur et une secré-
taire à plein temps. Dans cette déclaration, W. Mercouroff donne une définition
du centre de calcul universitaire à l’opposé de celle d’un centre de service, que
d’ailleurs il ignore. Il n’avait pas pu empêcher la création du CIRCÉ, mais toute
son action future a été de limiter son développement.

5.2.9 Les modalités pour obtenir du temps calcul


Elles sont rappelées dans la plaquette du CIRCÉ de 1970 :
« Le centre de calcul ne peut en aucun cas, attribuer lui-même des heures
de calcul. Il gère les attributions faites par la direction du CNRS qui tient
compte de l’avis des commissions et du montant total d’heures à distribuer.
Il rend compte de sa gestion aux utilisateurs.
Les demandes sont déposées annuellement avec les autres demandes de cré-
dits pour l’année suivante. Une révision peut être faite en cours d’année.
L’autorisation de calcul est accompagnée de l’attribution automatique de
crédits correspondants. »

5.2.10 Fonctionnement du centre


Le centre de calcul fonctionne avec :
− un comité de direction ;
− une assemblée d’utilisateurs qui exposent leurs résultats, leurs réclama-
tions et suggestions sur le fonctionnement du centre, leurs prospectives
sur leurs besoins. Ils choisissent leurs représentants dans les différents
comités et ceux qui participeront à l’élaboration des schémas directeurs
successifs.

105 Document : L’informatique dans l’enseignement et au CNRS : « Comme pour les


soins médicaux, le principe du ticket modérateur consiste à ne faire payer au bénéficiaire
qu’une fraction du coût total d’une prestation ».
116 De l’IBM 360/75 au superordinateur Jean Zay

Le rôle de cette assemblée grandira avec les années. Trois comptes rendus
de réunion de ces comités ont été retrouvés et seront discutés à leur place
chronologique.

5.3 Le système
Les dix ingénieurs système étaient soumis à un régime très dur, car les machines
d’alors tombaient souvent en panne, matériel ou logiciel. Un, ou si nécessaire,
plusieurs ingénieurs de maintenance du constructeur étaient sur place nuit et
jour. Mais les ingénieurs CIRCÉ connaissaient les travaux en attente au moment
de la panne. Ils avaient les éléments pour identifier l’origine de la panne : détec-
tion d’une erreur système imputable au constructeur ou due à des modifications
du constructeur ou du personnel.

Figure 42 – L’équipe système au travail

Les mises en place de modifications du système, de test des améliorations


proposées par le constructeur, de la mise en route des nouvelles versions, avaient
toujours lieu la nuit.
Dès la création du centre de calcul, une équipe d’ingénieurs système prend
en charge le système d’exploitation (OS, pour Operating System) livré par le
constructeur IBM. Son rôle est :
− d’installer les systèmes ;
− d’optimiser les ressources matérielles et logicielles ;
− de sécuriser le fonctionnement des systèmes ;
− d’étudier les nouvelles versions de l’OS.
Face à la pénurie en compétences, le centre de calcul recrute des informati-
ciens débutants 106, ou des jeunes diplômés scientifiques, qui se convertissent –
par institut de formation interposé – aux grands systèmes 107. Par expérience, il

106 MIAGE de l’université de Grenoble (centre de recherche IBM), de Montpellier (pré-


sence Usines IBM), Paris.
107 Le centre de formation d’IBM a permis de former les ingénieurs système pour en faire

de véritables experts des grands systèmes.


Période 1969-1972 117

est constaté qu’en moyenne, une année est nécessaire pour qu’un jeune ingénieur
devienne opérationnel au sein de l’équipe.

Figure 43 – L’ingénieur système Annie Potin

Compte tenu de la complexité de l’OS des grands systèmes IBM, MVT puis
MVS, et de l’ampleur des tâches à accomplir, chaque ingénieur se charge d’un
domaine fonctionnel tel que :
− OS/MVT : performances et mise à niveau des versions successives du
système, dimensionnement des configurations CPU, mémoire et unités de
stockage de données ;
− VM : environnent pour analyse et tests des nouvelles versions ;
− ASP : traitement par lots ;
− Temps partagé : connexion et choix des terminaux.
Pour suivre les innovations technologiques, les ingénieurs système entre-
tiennent des relations régulières avec les constructeurs d’ordinateurs, les édi-
teurs de logiciels et les opérateurs de télécommunication et constructeurs de
terminaux.
En cas d’incidents complexes entraînant l’arrêt des services, l’équipe sys-
tème est sur le pont pour analyser de bout en bout la situation. Elle effectue
les réparations logicielles afin de rétablir le service dans les meilleurs délais.
Il se peut que des correctifs soient attendus du constructeur pour corriger
définitivement l’incident. En attendant, l’ingénieur système développera une
procédure de contournement (Bypass) de l’erreur pour assurer la continuité
des services.
En cas de pannes matérielles, c’est la maintenance du constructeur qui inter-
vient suivant les modalités du contrat.
Chaque année la direction missionne des membres de l’équipe système pour
assister aux réunions des utilisateurs scientifiques de grands systèmes IBM. Ce
sont les associations :
− Share aux États-Unis ;
− SEAS en Europe.
Les réunions sont programmées deux fois par an, sur la côte Est et la côte
Ouest des États-Unis alternativement pour le Share. Elles comportent des
118 De l’IBM 360/75 au superordinateur Jean Zay

programmes de conférences et des forums improvisés sur des thèmes communs


à plusieurs utilisateurs (BOF : Birds of a feather). C’est un lieu de rencontre
unique entre utilisateurs de grands centres de calcul IBM. Elles sont une source
de formation continue et l’opportunité de prendre connaissance des nouveautés
technologiques et du calendrier des nouvelles versions système.

Figure 44 – Article Magazine Ordinateur, Françoise Perriquet, mai 1983

C’est l’occasion de visiter des centres de calculs scientifiques étrangers com-


parables au centre de calcul d’Orsay et échanger avec les équipes techniques
pour améliorer les processus de gestion de grands centres de calcul.
Des visites de centres de recherches IBM, comme le Watson Lab., sont organi-
sées avec l’aide d’IBM France. Ce centre a été fondé en 1945 auprès de l’univer-
sité Columbia sous le nom Watson Scientific Computing Laboratory, situé sur la
côte Est des États-Unis. Ces visites permettaient de s’informer sur les évolutions
de futures versions de systèmes.
Le Thomas Watson Research Center est aussi connu pour le développement
de la série des superordinateurs Blue Gene, au début un superordinateur avec
20 racks de 1024 processeurs, puis des versions de plus en plus élaborées, avec
une performance de 36,00 Téraflops et au-delà au test LINPACK 108 dont des
modèles seront installés en 2008 à l’IDRIS.
Ces associations d’utilisateurs IBM vivent encore à ce jour.

5.4 Service aux utilisateurs


Les vingt-cinq ans d’existence du CIRCÉ ont permis de former de nombreux
chercheurs à l’informatique, que leur recherche relève du calcul haute perfor-
mance ou pas et d’informer sur la vie du centre. Les services d’assistance réu-
nissent des compétences pour aider les utilisateurs à mieux maîtriser l’accès

108Le LINPACK est un test de performance servant à classer les plus puissants superor-
dinateurs du monde dans le TOP500.
Période 1969-1972 119

aux moyens informatiques mis à disposition. Comme pour l’équipe système, le


centre de calcul recrute des informaticiens débutants 109, ou des jeunes diplômés
scientifiques qui vont acquérir une expertise des technologies des systèmes du
constructeur.
Une permanence physique quotidienne est assurée pour :
− répondre aux demandes d’information ;
− aider à corriger des problèmes rencontrés lors de la soumission et/ou
l’exécution des programmes ;
− assurer de la formation, telle que des cours de programmation tant pour
coder que pour utiliser des codes existants.
La rédaction d’un bulletin de liaison dénommé Interface est initialisé. Le
premier numéro est publié en octobre 1972. Il sert à :
− communiquer sur la vie du centre ;
− informer de la disponibilité des machines ;
− expliquer le langage de contrôle (JCL) pour la soumission de travaux ;
− apprendre à gérer des fichiers.
Des services spécifiques :
− l’assistance mathématique ;
− l’assistance traceur (BENSON) de graphiques ;
− l’assistance à la connexion de terminaux lourds et terminaux TSO.
Des questionnaires de satisfaction sont régulièrement soumis aux utilisateurs
du centre de calcul. Les résultats de l’enquête sont communiqués dans la revue
Interface.

Figure 45 – Exemple de calendrier de cours

De plus, des suggestions formulées par les utilisateurs et les réponses données
par les responsables des services du centre sont publiées dans la revue Interface.
Un exemple de sommaire est donné ci-dessous.

109 MIAGE de l’université de Grenoble (centre de recherche IBM), de Montpellier (pré-

sence Usines IBM), Paris.


120 De l’IBM 360/75 au superordinateur Jean Zay

Figure 46 – Exemple de sommaire d’Interface (collection personnelle de S. Fayolle,


cédée au centre).

Les membres de l’équipe d’assistance développent des procédures qui faci-


litent l’utilisation des moyens informatiques, des mémentos didactiques et des
articles dans Interface.
L’équipe a pris en main la mise à disposition de logiciels permettant la ges-
tion des bases de données scientifiques.
Au cours du temps, la bibliothèque des programmes du centre de calcul n’a
cessé de s’enrichir. Les plus connus sont les SSP (Scientific Subroutine Package)
distribués par IBM et les BMD (Biomédical Computer Program). Développés à
l’université de Californie à Los Angeles, ils sont conçus pour l’analyse statistique
de données.
Certains programmes développés par les utilisateurs ou obtenus d’autres
centres français ou étrangers sont mis à disposition et viennent enrichir les biblio-
thèques. À titre d’exemple, voici le sommaire d’un numéro spécial d’Interface
« Bibliothèques ».
Période 1969-1972 121

Figure 47 – Numéro spécial d’Interface sur les bibliothèques (collection personnelle de


S. Fayolle, cédée au centre).

5.5 Rôle des services d’exploitation


Le travail des pupitreurs consiste à assurer le fonctionnement des machines et
répondre aux ordres commandés par le système tels que : montage de bandes
ou de disques, lancement de procédures de copies de fichiers, sauvegardes des
données des utilisateurs, sauvegardes incrémentielles des systèmes :
− le dispatching des résultats imprimés sur papier (listings) des travaux aux
utilisateurs ;
− l’administration et la surveillance des liaisons des terminaux des utilisa-
teurs connectés au système central ;
− les équipes d’opérateurs fonctionnent en 3/8 pour assurer un service
24h/24.
Dans le chapitre suivant nous détaillons ces rubriques année après année.
Chapitre 6
Période 1972-1981

C’est à la suite des années 1969-1972 que le centre s’est affirmé et s’est aguerri
car il a dû lutter pour ne pas dévier de ses objectifs : devenir et rester le centre
de calcul intensif où on fait ce qui ne peut pas se faire ailleurs. Et aussi le lieu
où l’on initie à l’informatique des disciplines qui jusqu’à présent n’étaient pas
utilisatrices. Commença dès la création ce que Pierre Papon appellera plus tard
« la bataille du centre de calcul ». Celle-ci s’est déroulée sur deux fronts : d’un
côté renoncer au meilleur choix technique, faute de crédits et faire face à l’hos-
tilité d’instances qui redoutaient de nous voir devenir « trop gros », de l’autre
maintenir l’enthousiasme des chercheurs et celui du personnel, dont il était pri-
mordial de soutenir la motivation.
Les trois tableaux suivants donnent une idée générale de l’évolution des
matériels et des logiciels d’exploitation dans cette période. Elle sera commentée
année par année. Les problèmes de recrutement et de formation des équipes qui
l’ont servie, seront évoqués. Son étude ne serait pas complète sans un récapitu-
latif non exhaustif des résultats scientifiques qu’elle a permis.
Le synoptique ci-dessous extrait de la figure 29 montre l’évolution des
matériels.

Type équi- Puissance NB Puissance


Date Compléments informations
pement MF MIPS CPU Mflops
Augmentation de la mémoire
1972- IBM 370/165 2,7 1
à 3 MGo en 1973
1974
IBM 370/155 0,47 1 Décembre 1973 : arrêt IBM 370/165
IBM 370/168 3,1 1
1974-
1980 IBM 370/158 Installation IBM 370 158
0,7 1
en remplacement du 370/155

1976- IBM 370/168 3,1 1


1980 IBM 370/168 3,1 1 IBM 158 remplacé par un second 168

1980- Amdahl V7 5,5 Amdahl V7 Remplace le 1er 168


1983 IBM 370/168 3,1 1 Arrêt du 370/168 en 1983

Figure 48 – Évolution du matériel du CIRCÉ


124 De l’IBM 360/75 au superordinateur Jean Zay

PA R C M A C H I N E S C I R C É P É R I O D E 1 9 6 9 - 1 9 8 4
14
11.5
12
10
8
5.5 5.5
6
Puissance Mips

4 2.7 3.1 3.1 3.1 3.1


0.94 0.7 1.5
2 0.3 0.3 0.47
0 IBM 360/50

IBM 370/165

IBM 370/155

IBM 370/168

IBM 370/158

IBM 370/168

IBM 370/168

Amdahl V7

IBM 370/168

Amdahl V7

DPS8/62 M
CDC 3600

NAS 9060 puis 9080


IBM 360/75

1969-1972 1972-1974 1974-1980 1976-1980 1980-1983 1983-1984

Figure 49 – Le parc machines du centre de calcul

Plus précisément :

Figure 50 – Évolution des matériels et systèmes en 1973-1974

6.1 Années 1972-1973


Les faits marquants de cette époque sont :
1. l’installation d’un IBM 370/165, mémoire 2 MB, cycle 25 ns, 2,7 MIPS,
cache 16 K, cycle 80 ns remplace le 360/75 ;
2. l’installation de l’IBM 370/155, 0,47 MIPS qui remplace le 360/50 ;
3. la mise en œuvre du relai hertzien pour le télétraitement ;
4. la connexion des IBM 1130 installés dans certains laboratoires de recherche.
Période 1972-1981 125

Figure 51 – Pupitre IBM 370/165

Figure 52 – Salle machine CDC et IBM/370

Ce parc de machines IBM est exploité sous le système d’exploitation


OS/MVT. Bien que celui-ci inclût de nombreuses facilités, il n’était pas complet,
et des produits additifs ont été développés pour combler les lacunes. Beaucoup
d’utilisateurs ont remplacé la fonctionnalité primitive de spool fournie native-
ment par MVT. Les très grandes installations, comme le centre de calcul ont
utilisé ASP pour gérer non seulement la file d’attente des travaux, le multitrai-
tement mais encore la charge de travail.
Cette même année 1972 voit la mise en œuvre de TSO (Interactif Time-
sharing Option), un sous-système, temps partagé interactif. C’est une option
de l’OS/MVT qui offre la possibilité du travail à distance, de soumettre des
travaux par lots, d’être avisé de leur réalisation et d’afficher les résultats sans
attendre les rapports imprimés. TSO est largement utilisé pour le développe-
ment de programmes parce qu’il inclut un éditeur et intègre des débogueurs
pour certains des langages de programmation utilisés sur système 360.
Une salle équipée de consoles TSO a été mise à la disposition des utilisateurs
dans un espace attenant au dispatching. Un terminal Tektronix affichait l’entrée
d’un travail dans la file d’attente, son exécution et sa sortie, comme on peut
suivre l’arrivée des départs et des avions dans un aéroport.
En mai 1973, la mémoire de l’IBM 370/165 passe de 2 MB à 3 MB.
126 De l’IBM 360/75 au superordinateur Jean Zay

Figure 53 – Salle TSO Figure 54 – L’attente devant l’écran IBM


3270, affichage de l’avancement de la file
d’attente des travaux

6.2 Années 1974-1975


En mai 1974, un 370/158 remplace un 370/155.
Ces années ont été marquées par un premier échec.
L’accroissement du nombre d’utilisateurs et de la charge induite en grande
partie à l’augmentation du calcul intensif, a conduit à envisager le remplacement
de l’IBM 370/165 le plus rapidement possible. L’analyse de la charge, le résultat
des benchmarks a amené au choix du 7600 CDC, qui était en concurrence avec
l’IBM 370/168. C’était à ce moment-là, la meilleure machine pour le calcul
scientifique lourd. Elle aurait permis pleinement de remplir la mission du centre
en faisant ce qu’on ne pouvait pas faire ailleurs. Le CEA et le CIRCÉ prépa-
raient des consultations pour les mêmes machines.
La préparation du dossier a été très poussée. Plusieurs ingénieurs système
y ont travaillé plus d’un an, réglant autant que possible tous les problèmes de
transition d’un environnement IBM à celui de CDC. Ils ont fait plusieurs séjours
aux États-Unis pour passer des trains de travaux dans des centres équipés de
7600, pendant que la direction du centre de calcul discutait âprement les réduc-
tions et engagements possibles consentis par le constructeur. Le jour où je suis
allée avec P. Salzedo déposer le dossier final dans les mains de Gabriel, qui les
avait soutenus dans leur démarche, il nous a annoncé qu’il n’avait pas pu avoir
un arbitrage en leur faveur en comité de direction et que le choix devait aller au
moins cher, c’est-à-dire IBM. Ce fut une terrible déception, mais pas la dernière.
Il nous restait à annoncer la nouvelle aux ingénieurs qui avaient travaillé au
projet, leur expliquer qu’ils n’avaient pas travaillé pour rien. Il fallait les remotiver
pour qu’ils oublient CDC et se remettent en 24 h au travail sur IBM pour en tirer
le maximum. Nous avons appris en lisant l’histoire du CNRS de Guthleben que
le CNRS en général, après des années glorieuses, entrait dans « un trou d’air ».
Ce fut aussi la fin des années glorieuses du CIRCÉ. Comme nous allons le
voir, la dotation directe du CNRS n’a cessé de décroître. Pour non seulement
survivre mais tenter au maximum de continuer à servir, les utilisateurs dont les
besoins augmentaient, il n’a fallu compter que sur la baisse du coût des matériels
Période 1972-1981 127

à puissance constante, ou ce qui revient au même, l’augmentation de puissance


à coût constant, les recettes du ticket modérateur et l’habileté de Salzedo. Il
jonglait avec les compatibilités et les choix avisés, suivant le moment, de l’achat
ou de la location de chaque unité de bandes, de disques ou de terminal.
La première initiative en ce sens a été le remplacement de l’IBM 370/165
par un IBM 370/168 d’architecture identique mais plus puissant et doté de la
mémoire virtuelle. La performance est poussée à 1,6 ns cycle par instruction
pour une puissance de 3,1 MIPS.

6.2.1 La mémoire virtuelle


Première machine (avec le 370/158) de la longue série des IBM 370, le modèle
370/168 est doté d’un système d’exploitation qui met en œuvre la mémoire vir-
tuelle. C’est le système d’exploitation MVS (Multiple Virtual Storage) qui a pris
la relève du système MVT.
Le DAT (Dynamic Address Translation) est le mécanisme qui permet de
convertir les adresses virtuelles en adresses réelles.
Avec les systèmes TSO et VM/CMS, dès le milieu des années 70, la ligne
de terminaux à écran IBM 2260 puis 3270 remplace les terminaux à boule
IBM 2741 peu silencieux. Les terminaux 3270 servent également de pupitre aux
opérateurs pour la conduite de l’exploitation des systèmes.
OS/MVS est certainement le plus élaboré et le plus fouillé des systèmes d’ex-
ploitation IBM, certains disent le plus complexe et le plus lourd.

6.2.2 Le système VM/370


En 1974, IBM généralise la mémoire virtuelle à toute sa gamme 370. Le système
VM/370 est annoncé en même temps. Le système VM/370 110 (Virtual Machine),
combinaison d’un hyperviseur et d’un mini système conversationnel CMS,
permet de simuler plusieurs machines virtuelles sur un seul matériel réel. Il est
possible de faire tourner des systèmes d’exploitation différents, par exemple
pour préparer les migrations d’une version système à l’autre.
Le système VM/370 a facilité les tâches de mises à niveau des versions d’OS
et les divers tests fonctionnels en partageant des ressources disques et fichiers.
Il a aidé considérablement les ingénieurs système du centre de calcul à mener à
bien leurs activités sans commander des arrêts de l’exploitation.

6.2.3 Qualité du service


C’était une gageure d’essayer de faire fonctionner à plein une usine à calcul sans
interruption, avec du matériel de l’époque sujet à des pannes et non redondant.
Actuellement, quand il y a une panne d’un élément, la machine se reconfigure

110 Historiquement, VM/370 dérivait de l’hyperviseur CP-67, mis au point en partie à


l’université de Grenoble.
128 De l’IBM 360/75 au superordinateur Jean Zay

automatiquement et travaille en mode dégradé avec les parties en état de fonc-


tionner. C’était une situation dont je n’avais pas l’expérience. Ce qui m’avait
frappée à l’arrivée au JPL, c’était la régularité du service due en partie aux
étages d’unités centrales, de dérouleurs de bandes magnétiques et de disques,
tous redondants. C’est grâce à ce déploiement de matériel, et probablement à
un système d’exploitation bien rôdé, que l’utilisateur ignorait les pannes qui
devaient arriver comme partout ailleurs avec le matériel de l’époque. Au centre
de calcul, la configuration n’avait rien à voir. Et les exigences étaient incom-
patibles avec l’idée d’un service 24h/24, 7j/7. Le personnel travaillait suivant
ces horaires, mais les temps consacrés à l’exécution des travaux des utilisa-
teurs étaient inférieurs. Il faut ajouter que les ingénieurs, tous jeunes, n’avaient
aucune expérience des gros systèmes, qui n’étaient pas au programme de l’en-
seignement qu’ils avaient reçu. Ils apprenaient sur le tas, d’ailleurs en même
temps que les ingénieurs de maintenance du constructeur. Au tout début, pour
le CIRCÉ, la charge était moins grande et les utilisateurs moins exigeants sur
les temps de restitution des travaux soumis car ils étaient à l’euphorie de la
découverte de la puissance de calcul. Mais après quatre ans, l’état de grâce était
fini et ils attendaient les miracles qui leur permettraient de faire tous les calculs
dont ils avaient découvert le besoin.
Le premier trimestre 1974 a été particulièrement fertile en projets avec :
− le remplacement de l’IBM 370 Modèle 165 par un IBM 370 Modèle 168 ;
− le passage à la version 3 d’ASP, et mise en œuvre d’un nouveau relais
hertzien pour le télétraitement. Les difficultés se sont superposées et
succédées.
On aurait pu espérer que le remplacement du 165 par un 168 aurait été
transparent, étant donnée la compatibilité des deux machines. Rien ne s’est
passé comme prévu (annexe 3). Entre le 3 et le 10 janvier, 14 heures de panne
d’accès aux disques. Puis, quelques jours après, panne de mémoire, puis pannes
successives du tambour de 10 à 40 minutes. En février, il n’y a eu que 9 heures
de pannes de matériel, mais le logiciel a pris le relai, avec les instabilités de la
nouvelle version d’ASP et un temps de connexion quasi nul pour les terminaux
lourds pendant une semaine. L’équipe système avait corrigé nombre de problèmes
sur la nouvelle version avant de l’installer, mais plusieurs dizaines n’étaient pas
apparus pendant la période de tests. L’équipe IBM, renforcée de spécialistes
étrangers, en a corrigé une partie. L’équipe système a corrigé le reste. Sur toutes
les modifications qu’elle avait apportées elle-même au système pour l’adapter à
notre environnement, seules deux d’entre elles leur étaient imputables.
Donc au total sur trois mois, 88,75 heures de panne matérielle, ont réduit de
5,76 % le temps de production attendu. De plus, 121,30 heures soit 7,87 % de ce
même temps ont été perdues par suite d’avaries du système.
À tout cela s’ajoutent des dysfonctionnements pour le télétraitement dus
à la mise en place d’un nouveau relais hertzien. En effet, les PTT ont mis en
service un nouveau central téléphonique à Saclay. Un câble spécial reliait ce cen-
tral au CIRCÉ. Toutes les liaisons de terminaux devaient l’emprunter. Au-delà
de Saclay, pour les terminaux « lourds », la transmission se faisait par ondes
hertziennes entre Saclay et Meudon, d’où elle repartait par des câbles télé-
phoniques. C’est la mise en service du faisceau hertzien qui a été douloureuse.
Période 1972-1981 129

Annoncée pour fin 1973, elle a été différée par les PTT jusqu’au début mars.
Après quelques tâtonnements, les premières liaisons ont bien marché. Mais dès
qu’il y en a eu plusieurs, elles se sont perturbées mutuellement. Les choses n’ont
pas été facilitées par l’intervention nécessaire de plusieurs services PTT qui
s’ignoraient ou s’opposaient.
Et les retards dus aux pannes s’accumulaient sans pouvoir être vite comblés.
Les utilisateurs des terminaux ASP ont ainsi traversé une période où ils ne
savaient plus quoi ne fonctionnait pas du 168, d’ASP, des modems ou de la ligne,
Le résultat étant toujours le même : pas de service.
Ainsi, pendant trois mois, le service fourni par le CIRCÉ a été considérable-
ment perturbé. Cela a été ressenti d’autant plus vivement que le 168 a remplacé
un 165 dont le matériel et le système fonctionnaient bien 24h/24, 7j/7. Étant
à peine plus puissant que le 165 (unité centrale 15 à 25 % plus rapide, unités
périphériques identiques), le 168 a tourné à pleine charge dès les premiers jours :
1540,5 heures de production effective sur un trimestre, soit 514,5 heures par
mois, c’est près de deux fois plus que de nombreux ordinateurs installés depuis
plusieurs années. Dans ces conditions, on rencontre plus rapidement des cas
d’utilisation très particuliers qui mettent en évidence une panne du matériel
ou du système comme c’est le cas lorsqu’on dispose d’une réserve de puis-
sance à l’installation d’un nouveau matériel. Fin avril, les problèmes matériels
étaient progressivement descendus à un niveau normal. L’unité centrale semblait
saine, les unités périphériques fonctionnaient correctement. Bien que les canaux
paraissaient encore le point faible, l’ensemble de la configuration avait atteint
un régime de croisière correct.

6.3 Année 1976


C’est une année charnière dans l’histoire du centre de calcul. Une histoire fac-
tuelle relate dans ce chapitre ce qui a pu être réalisé c’est-à-dire ce que les utilisa-
teurs ont pu voir. Mais il y a eu, cette année-là, bien d’autres travaux importants
qui seront étudiés dans le chapitre 7, en particulier le dépôt d’un rapport sur
l’évolution à long terme. Les renseignements concernant l’histoire factuelle de
1976 sont extraits du rapport du comité de direction de décembre 1976111.

6.3.1 Évolution du matériel


Cette année a été marquée par trois changements d’ordinateurs qui ont eu lieu
pour des raisons différentes :
− le premier en avril 1976 annoncé lors du comité de direction du 25 novembre
1975 : concernait le remplacement du 158 par un second 168. Cette opé-
ration, finalement, a pu être réalisée après de longues discussions entre la
direction du CNRS, le secrétariat d’État aux universités et le ministère
de l’Industrie ;

111 Procès-verbal de la réunion de direction du 17 décembre 1976, Archives de la DIS.


130 De l’IBM 360/75 au superordinateur Jean Zay

− le deuxième en juillet 1976 consista dans le remplacement de l’ancien


168 par un autre 168 ayant les mêmes caractéristiques et remplissant les
mêmes fonctions. Opération purement financière qui se solda par une
économie de 3,1 MF pour le CNRS ;
− le troisième en novembre 1976 n’était pas prévu.
On aurait pu croire qu’après les années de mise en place, la vie du centre
serait plus facile. Il n’en a rien été. D’énormes difficultés non anticipées sont
apparues. On espérait qu’une usine à l’organisation bien huilée, au bout de
trois ans, tournerait sur sa lancée. Pas du tout. Première difficulté et de taille :
les ordinateurs, même de la meilleure réputation en ce temps-là, n’étaient pas
fiables. Les pannes venaient soit de composants défaillants, soit d’erreurs sys-
tème non détectées parce que l’environnement n’avait jamais été exactement le
même pendant les tests, soit parce qu’il fallait ajouter au système des modifi-
cations maison pour l’adapter aux besoins. Il faut bien comprendre que même
si ces gros ordinateurs font partie d’une série, chacun est unique. Dans la salle
de montage des ordinateurs IBM en construction à Poughkeepsie (N.Y.) chaque
machine porte une étiquette avec son nom par exemple : France-Orsay.
L’unité centrale du 168 qui remplaçait le 158 s’est révélée défectueuse ; le
taux de panne a augmenté considérablement. Elle a été remplacée en novembre.
Les trois axes autour desquels s’organisent nos efforts sont : augmentation
de la puissance de calcul, développement des capacités de stockage de données,
développement des réseaux.
La configuration de novembre 1976 est la suivante :
− deux ordinateurs 370/168 avec 4 millions d’octets, et une capacité de
stockage en accès direct de 3400 millions d’octets ;
− à ces deux ordinateurs sont connectés : 49 terminaux lourds et 76 termi-
naux conversationnels.

6.3.2 Rapport du comité de direction du CIRCÉ


de décembre 1976
Le comité de direction comportait 15 membres :

M. Malavard Président du comité de direction


M. Lagasse Directeur scientifique du CNRS
MM. Boucher, Laborde, Membres du comité de direction
Rocherolles
MM. Valensi, Salem Représentants des utilisateurs et du groupe chimie
MM. Bolliet, Verlet, Berthet Directeurs des centres de calcul du SEU de Grenoble,
Paris-Sud Informatique et Paris- Dauphine
Mme Connes Directrice du CIRCÉ
M. Salzedo Sous-directeur du CIRCÉ
MM. Godot, Planchon Représentants des personnels du CIRCÉ
M. Aubert Spécialiste de pétrographie à l’INAG
Période 1972-1981 131

Ce rapport mérite d’être étudié en détail pour une raison fondamentale : il


met en lumière toutes les difficultés que rencontrera l’informatique de service
jusqu’à la création du GENCI. Des plaintes viennent des utilisateurs du calcul
intensif qui demandent que le groupe d’assistance mathématique soit étoffé
et de nouvelles bibliothèques de programmes installées. D’autres, des sciences
humaines, en particulier, s’initient à l’informatique et voudraient plus d’at-
tention. M. Benzécri vient d’inventer l’analyse factorielle des correspondances
permettant de traiter de grandes masses de données afin de visualiser et hiérar-
chiser l’information. Il indique que les plaintes ne viennent pas des chercheurs,
mais des thésards auxquels il vient d’interdire l’accès direct au CIRCÉ car ils se
plaignent autant de l’encadrement chercheur que de l’assistance informatique.
« M. Malavard se fait l’interprète des membres du comité de direction qui
estime qu’il est maintenant reconnu que le CIRCÉ rend d’éminents services
à la communauté scientifique. »
Mais il doit faire face à des problèmes qui dépassent ceux de la gestion d’un
simple centre de calcul. S’en suit une très longue discussion sur l’évolution
du CIRCÉ. Comment sortir du problème d’un centre saturé avec toutes les
contraintes et les problèmes qui en découlent, quand il sait que son budget ne
peut augmenter et que ses passages en commission aboutiront à un refus essen-
tiellement pour des raisons politiques. Le fait que le flux soit régulé par un ticket
modérateur complique encore la situation. On ne commencera à en sortir que
plus de vingt ans plus tard sous des pressions extérieures. Une longue discus-
sion s’engage entre Messieurs Lagasse, Boucher et la direction pour évoquer des
solutions possibles.
M. Lagasse rappelle le concept fondamental : la fonction du CIRCÉ est de
faire ce qu’on ne peut faire ailleurs 112.
M. Lagasse : « La clientèle informatique du CNRS est très variée (des mathé-
matiques aux sciences humaines). Il faudrait arriver à rassembler un certain
nombre de travaux qui seraient caractéristiques de ce qui se fait au CIRCÉ
et ne peut se faire ailleurs. Il faudrait aussi comparer les coûts d’un certain
nombre de travaux qui pourraient passer dans les différents centres. C’est une
étude compliquée, mais la seule qui permettrait de résoudre le problème. »
Pour lui, la seule étude capable de trouver une solution, comporterait deux
étapes. C’est d’abord de faire l’inventaire des travaux qu’on ne peut pas faire
ailleurs. Puis comparer les coûts d’un certain nombre de travaux qui pourraient
passer dans les différents centres. Ceci semble très rationnel. Mais c’était très
difficile à réaliser pour être significatif.
Un examen approfondi des travaux qui utilisent plus de cinq minutes de CPU
montre qu’ils ont évolué. Trois ans avant, ils utilisaient essentiellement du CPU.
En 1976, il n’y en a que 5 % qui n’utilisent pas de fichiers. Ceci rend très diffi-
cile la constitution de trains de travaux représentatifs de la charge et utilisables
sur d’autres machines à des fins de comparaison de performances et de coût.
C’est ce travail qui est fait pour la préparation de benchmarks en prévision d’un

112 Procès-verbal de la réunion de direction du 17 décembre 1976, Archives de la DIS.


132 De l’IBM 360/75 au superordinateur Jean Zay

changement de machines et/ou de constructeurs. C’est un gros travail de conver-


sion. Et le problème supplémentaire dans le paysage informatique de l’époque
est : où trouver un centre susceptible de recevoir un train significatif de travaux
du CIRCÉ, à part chez les constructeurs ? Au CEA avec de la conversion, mais
pas dans les centres universitaires de l’époque. En revanche, j’ai suggéré de
refaire ce qui a déjà été fait. On avait pris un certain nombre de travaux qui
passaient à Marseille et ils ont été passés dans d’autres centres, dont le CIRCÉ.
Ils étaient représentatifs de ce qui était fait à Marseille, absolument pas de ce
qui était fait au CIRCÉ. Pour ces travaux, le prix de revient au SEU s’est avéré
dix fois plus élevé à Marseille qu’au CIRCÉ. Ce facteur 10 s’explique de la façon
suivante.
Pour les travaux sélectionnés par Mme Connat, directrice du centre de calcul
du Pharo à Marseille, le prix facturé au CIRCÉ était divisé par 5 par rapport à
celui facturé à Marseille (au tarif « ticket modérateur »). Or, le taux de couver-
ture du ticket modérateur (c’est-à-dire recettes effectives du ticket modérateur
divisées par coût total du centre) est deux fois plus faible à Marseille qu’au
CIRCÉ, donc les prix de revient d’un calcul au SEU et au CIRCÉ sont dans un
rapport 10.
À ce point de la discussion, on peut résumer ainsi les constatations qui se
sont fait jour 113 :
− il est acquis que l’usine à calcul fonctionne et est utile ;
− elle est saturée de jour par les petits calculs et de nuit par le calcul
intensif. Le rythme de l’augmentation de la charge laisse prévoir son
explosion ;
− le sentiment général des utilisateurs est donné par M. Valenci : « Il me
semble que nous sommes plus satisfaits d’un grand centre que d’un centre
petit ou moyen. C’est dans un grand centre, avec un minimum d’efforts
et le maximum de services que l’on trouve un système d’exploitation de
bonne qualité. » ;
− M. Lagasse poursuivant son idée se demande si l’on ne pourrait pas sou-
lager le CIRCÉ d’une partie des travaux qui y sont effectués et qui pour-
raient être dirigés vers un centre doté de moyens du type IRIS 80, ce qui
retarderait le phénomène de saturation ;
− M. Bolliet (de Grenoble) pose une bonne question : « Qui doit faire des
prévisions ? Il faudrait faire une étude au niveau CNRS-SEU et éventuel-
lement d’autres organismes pour définir une ligne de conduite. » ;
− le constat général approuvé et signé dans le compte rendu de ce comité de
direction du 17 décembre 1976 par Messieurs Lagasse et Malavard a été
formulé par P. Salzedo :
« Accompagner l’accroissement du besoin par un accroissement des moyens
n’est pas un problème technique, ni même, à la rigueur, un problème finan-
cier. On peut penser que de nouveaux matériels seront plus puissants à prix
constant, mais la question est autre : supposons que l’on veuille installer
un troisième ordinateur IBM ou remplacer un 168 par un ordinateur IBM

113 Compte rendu du conseil de direction du 17 décembre 1976, p. 13, Archives de la DIS.
Période 1972-1981 133

plus puissant et que l’on puisse régler les problèmes de financement (par
autofinancement ou par coût constant), tous les problèmes actuels de nature
politique empêcheraient de le faire. »
C’est exactement ce qui s’est passé en 1979, 1981 et 1989.
Tout l’avenir du centre de calcul est contenu dans la conclusion de ce comité
de direction de décembre 1976. Pendant dix-sept ans, le centre de calcul aura à
se battre, jusqu’à ce que, poussé par la pression d’éléments extérieurs, il puisse,
jusqu’à aujourd’hui, poursuivre la mission pour laquelle il a été créé. Arrivé
à ce point de la discussion, j’ai rappelé une proposition faite depuis plusieurs
années : celle de créer en province un CIRCÉ 2 (annexe 9).
« Nous avons soumis, depuis un certain temps, une proposition de création
d’un CIRCÉ 2 qui devrait être équipé de matériel français. »
Mais on prévoit des oppositions, car ce serait augmenter les capacités de
calcul du CNRS.

6.4 Année 1977


Cette année ne voit pas de changement dans
les unités centrales, mais beaucoup dans les
unités périphériques, tant il est vrai que le
traitement et le stockage des données jouent
un rôle aussi prépondérant que la puissance
du CPU. En 1977 :

� Remplacement de l’unité de visualisation


2250 par un Tektronix 4081 plus performant
en mode local. L’unité IBM 2250 Display a été
Figure 55 – Console graphique
annoncée avec la série IBM 360.
IBM 2250
L’unité 2250 offre la possibilité de repré-
senter l’information sous forme de graphiques et de faire progresser certains
utilisateurs du CIRCÉ dans leur recherche 114. Pour recueillir l’information, sur
l’écran l’unité était équipée d’un « light pen » qui transférait les coordonnées x,
y à l’application.
Par exemple, Hélène Charnassé, musicologue, a utilisé l’informatique pour
son travail. Elle a d’abord travaillé sur le CDC 3600 et utilisé la représentation
graphique des portées musicales. L’étude portait sur le répertoire instrumental
des xvie, xviie et xviiie siècles, conservé sous forme de tablature. La transcrip-
tion brute, phase systématique qui a pour but de traduire chaque caractère en
note équivalente sur la portée (hauteur du son, représentation rythmique provi-
soire) ne soulève en général aucune controverse. C’est la prise de conscience de
tels automatismes qui a conduit à confier la phase de « transcription brute » à
un ordinateur. Ce faisant, l’objectif était double : délivrer les musicologues et

114Transcription automatique de la tablature : Bernard Stépien et Hélène Charnassé


Rayonnement du CNRS, n° 61, printemps 2013.
134 De l’IBM 360/75 au superordinateur Jean Zay

interprètes de la part la plus longue et fastidieuse du travail, d’autre part, mettre


à leur disposition un certain nombre de recueils d’un accès difficile du fait de leur
mode de notation, ou rares parce qu’ils s’adressent à des instruments peu usités.

� Ajout d’une imprimante électrostatique gérée par le même logiciel que le


Tektronix, attendue impatiemment pour les mises au point de cartes.
Les sciences humaines se développaient et étaient très demandeuses de capa-
cité de stockage et d’imprimantes performantes. À cette époque elles n’avaient pas
d’autre endroit où s’adresser. Ainsi Monique Le Guen a travaillé avec A. Piatier,
directeur du Centre d’Études des Techniques Économiques Modernes (CETEM)
sur la ruralité, les dotations et les attractions communales. Ses listings étaient
volumineux (annexe 10).

Figure 56 – Listings d’un laboratoire de Sciences humaines

− Installation d’une mémoire de masse. Simultanément suite de l’étude et


de la comparaison d’un système de base de données qui l’utilisera. Cette
étude est commencée depuis un an.
− Passage au système MVS.
− Étude du remplacement de la mémoire centrale IBM par les mémoires
INTEL fournies par TELEX, pour des raisons d’optimisation financière
de l’IBM.

6.5 Années 1978-1979


Au début de la décennie, le remplacement d’un IBM System/370 Modèle 165
par un CDC 7600 avait échoué, bien que ce fût le meilleur choix technique.
Augmenter les services du centre, par des améliorations successives des per-
formances des mêmes unités centrales, a atteint ses limites. Un changement de
matériel s’imposait et en conséquence la préparation d’un nouveau passage en
commission. Le rapport soumis à la commission en 1978, pour faire face à une
augmentation de charge, rappelle que le CIRCÉ, laboratoire propre du CNRS
est ouvert plus largement à tous les chercheurs de l’Enseignement supérieur 115.

115 Annexe 1.
Période 1972-1981 135

Or, dans la pratique, c’est cette appartenance du centre qui pose problème
à l’Enseignement supérieur et fait que dans le labyrinthe des commissions infor-
matiques, il met quelquefois son véto aux projets d’agrandissement du CIRCÉ,
bien que celui-ci ne soit pas sous son autorité. C’est en vue du passage devant
les commissions que le rapport remis à la commission au ministère, pour un
changement de machine, en fin de décennie, est composé de trois parties 116,

6.5.1 Évolution souhaitée


La première expose le projet d’évolution d’un des IBM 168 par un 3033 deux
fois plus puissant, avec une consommation électrique multipliée par 0,7 et une
dissipation calorifique par 0,8. Tous les matériels informatiques connectés au
168 peuvent l’être au 3033 sans adaptation. Aucune modification n’est à prévoir
ni dans l’aménagement du bâtiment ni dans les programmes utilisateurs. De
plus le tableau suivant montre que l’ensemble des opérations permet des éco-
nomies. En résumé on fait des économies en multipliant la puissance par deux.
En tenant compte des opérations présentées, sans préjuger des achats d’unités
périphériques, déjà installées qui pourraient être proposées en 1979, les dépenses
pour 1979/1980 sont détaillées dans les tableaux qui suivent.

6.5.2 Analyse financière


Dépenses prévues

Figure 57 – Dépenses en 1979

Financement
En 1978, la prévision du ticket modérateur, qui s’est révélée juste permettra
au CIRCÉ de contribuer aux dépenses de location et de maintenance (donc,
participation de l’achat déjà réalisé du 168 et à l’achat proposé de ses canaux et

116 Procès-verbal de la réunion du comité de direction du 17 décembre 1976, Archives de


la DIS.
136 De l’IBM 360/75 au superordinateur Jean Zay

de la mémoire Telex exclue) pour un montant d’environ 6,3 MF, conformément


au tableau suivant :

Figure 58 – Financement du remplacement d’un 168 par un 3033

La dotation directe du CNRS pour les ordinateurs du CIRCÉ est passée donc
de 19,1 MF en 1978 à 9,61 MF et 7,63 MF en 1980, cette diminution résultant
de l’achat de la première unité centrale 168, et des opérations de replacement
de périphériques.

Figure 59 – Ventilation des moyens de financement


Période 1972-1981 137

6.5.3 Passage en commission


En mars 1978, bien que ce soit ahurissant, la commission refusa le dossier sur un
projet prévoyant une amélioration de la puissance avec prix en baisse. En termes
choisis, elle émit sa décision : « compte tenu de l’état d’avancement des travaux sur le
schéma directeur des universités, il apparut que quelles que soient les décisions finales
retenues au niveau du ministère, on ne pouvait envisager pour le CIRCÉ une évolu-
tion d’une rapidité telle qu’aucun des deux 168 ne reste en place jusqu’à fin 1979 ».
Le terme « rapidité » appelle un commentaire. On met le doigt sur une des com-
posantes du « mal français », l’ignorance du rythme de l’évolution des possibilités
à l’étranger.

6.5.4 Solution de repli


Le gel total des opérations concernant le CIRCÉ n’était cependant ni possible ni
souhaitable. Il s’imposait de présenter un nouveau dossier aux autorités compé-
tentes. En mai 1978, nous demandions un avenant au marché IBM préexistant et
un marché de fournitures.
Les autorités et commissions compétentes ont donné leur accord pour une pro-
longation de la location d’un des 168 jusqu’au 31 décembre 1978. La configuration
de disques magnétiques et de frontaux de télétraitement, notoirement insuffisante,
pouvait être aménagée mais à dépense constante. Un dossier devait être déposé
le plus tôt possible. Le centre était saturé et le volume de données à traiter et à
sauvegarder explosait.
La figure 60 schématise la configuration en place, fin 1978 qui comporte deux
unités centrales 370/168, leurs consoles (3066) et unités d’alimentation et de refroi-
dissement (3067). Le 168 acheté (168 n° 2) comporte une 3066 et une 3067 ache-
tées, une mémoire d’un million d’octets IBM (achetée), et trois millions d’octets
supplémentaires loués à la société TELEX, entre-temps absorbée par MEMOREX.
Ces unités centrales se partagent en particulier :
− une unité de contrôle et huit dérouleurs de bande magnétique 1600-6000 bpi ;
− deux unités de contrôle et trois disques à têtes fixes (11 Moctets/disque,
débit 1,3 Moctets/seconde) ;
− sept unités de contrôle et 42 unités de disques (100 ou 200 millions d’octets
par disque, capacité totale 5,4 milliards d’octets) ;
− deux calculateurs frontaux de télétraitement (64 portes pour terminaux
asynchrones 1200 à 20 kbauds ou 80 portes pour terminaux asynchrones
110 à 4800 bauds) ;
− six imprimantes (1000 lignes/minutes), trois lecteurs de cartes (1000 cartes/
minute), deux perforateurs de cartes (300 cartes/minute), un lecteur de
ruban perforé (1000 caractères/seconde).
Sont également connectés sur un canal l’IBM S/7 du Laboratoire d’informa-
tique pour les sciences de l’ingénieurie qui gère des expériences en temps réel,
ainsi qu’une imprimante rapide, un lecteur de cartes et une console, installés
dans le même laboratoire.
La deuxième partie du dossier présente l’état actuel du centre, son finance-
ment et fait une analyse de l’utilisation de ses moyens. La troisième est la pré-
sentation de quelques résultats scientifiques.
138 De l’IBM 360/75 au superordinateur Jean Zay

Figure 60 – Schéma des deux 168 et de leurs auxiliaires


Période 1972-1981 139

Les images ci-dessous illustrent l’importance de la place du stockage de don-


nées qui, dès cette époque était une des caractéristiques du centre : puissance de
calcul et volume du stockage de données.

Figure 61 – IBM 3330 – (Avec l’aimable


autorisation de Mme Le Guen)

Figure 62 – IBM 3330 – (Avec l’aimable


autorisation de Mme Le Guen)

Figure 63 – Janine Connes au milieu des bandes magnétiques

Cette photo illustre à elle seule la complexité du travail des opérateurs et la


concentration qu’elle exigeait de leur part.
140 De l’IBM 360/75 au superordinateur Jean Zay

6.5.5 Liste des terminaux connectés


Terminaux lourds
− 6 terminaux IBM 1130 et S3
− 1 terminal IBM 1800 (concentrant 4 terminaux)
− 1 terminal IBM 360/65 (concentrant 8 terminaux)
− 7 terminaux IBM 3780, 5950 et 3775
− 5 terminaux MITRA 15 et 125
− 3 terminaux IRIS 45 et 50
− 3 terminaux T1600
− 1 terminal H.B. 62/40
− 3 terminaux SOLAR
− 2 terminaux H.P. 30
− 17 terminaux ORDO/COORDO – SFENA
− 2 terminaux SFENA
− 1 terminal C.I.I.-H.B. Mini 6
− 1 terminal SOLAR
Soit un total de 65 terminaux « lourds » (y compris INAG).

Terminaux conversationnels
− 17 terminaux DIABLO
− 12 terminaux MEMOREX 1377
− 18 terminaux IBM 2741 - 3277 - 3287 - 5110 72CMC
− 5 terminaux HAZELTINE 1500 - 2000
− 17 terminaux TEKTRONIX 4006 - 4010 - 4012 - 4013 - 4014 - 4051 et
4081
− 10 terminaux I.T.T.
− 2 terminaux IMLAC TITN
− 2 terminaux DIGITAL
− 7 terminaux ANDERSON JACOBSON
− 1 terminal OLIVETTI TE 318
− 3 terminaux TÉLÉTYPE
− 11 terminaux TEXAS
− 1 terminal H.P. 30
− 1 terminal SETELEM
− 1 terminal DIGI-LOG
− 3 terminaux DELTA - WANG
− 1 terminal MODULAR ONE
− 2 terminaux REGENT - ADDS
− 1 terminal TERMINET 300
− 1 terminal DIGIT LA 36
− 1 terminal TEKTRONIX
− 1 terminal TELERAY
− 1 terminal TELETYPE
Soit un total de 119 terminaux conversationnels.
Période 1972-1981 141

Les graphiques ci-après représentent la répartition des terminaux.

Figure 64 – Terminaux parisiens


142 De l’IBM 360/75 au superordinateur Jean Zay

Figure 65 – Terminaux de province


Période 1972-1981 143

6.6 Année 1980


La fin des années 70 voit l’arrivée sur le marché
des ordinateurs IBM dit « compatibles ». À partir
de 1980, le parc machines du centre de calcul
profite des innovations technologiques des com-
pétiteurs tels qu’Amdahl et NAS sans remettre
en question la compatibilité des logiciels et des Figure 66 – Gene Amdahl –
applications. L’architecture IBM 370 est stricte- Source : https://m-cacm.acm.
ment copiée. Pour la première fois on a ce que org/news/194192-in-memo-
dans le jargon, on appelle une machine « incas- riam-gene-amdahl-1922-2015/
sable » sur le matériel d’origine nippone. fulltext?mobile=true
Ces machines compatibles bénéficient de per-
formances en matériel accrues et d’un haut niveau de fiabilité, pour des coûts
inférieurs à ceux d’IBM.
L’Amdahl 470 V7 est le premier ordinateur compatible qui entre dans le
parc machines du centre de calcul. Il remplace le premier IBM 370/168 appor-
tant une puissance de calcul de 5,5 MIPS.

6.7 Personnel et formation


Pendant cette décennie le personnel était en moyenne de 70 personnes sans
compter quelques aides transitoires et des stagiaires. Les figures 67 et 68
illustrent l’organisation.

Figure 67 – Organigramme du personnel


144 De l’IBM 360/75 au superordinateur Jean Zay

Figure 68 – Répartition du personnel dans les groupes de travail

Tout le centre était une ruche de formation à tous les niveaux, formation de
la direction, formation du personnel, formation des utilisateurs, formation des
dirigeants d’autres centres de calcul et de personnel pour ces centres.

6.7.1 Formation permanente pour la direction


Je poursuivais mon travail de recherche à la NASA où j’étais utilisatrice de
centres de calcul intensifs en pleine évolution. Je faisais partie d’une équipe
interdisciplinaire qui travaillait sur un projet spatial de pointe : la prépara-
tion des projets VIKING d’exploration de la planète Mars et continuait ses
travaux de simulation qui allaient en s’affinant. L’enthousiasme de l’équipe à
laquelle j’appartenais aux États-Unis depuis 1963 et de celle que j’avais fondée
en France était intact et ne laissait pas place aux états d’âme. Tous les uti-
lisateurs de calcul intensif étaient très exigeants. Quand il fut compris que
la commission informatique n’autoriserait, à la rigueur, que du matériel IBM
parce que moins cher, Salzedo décida de se former à fond sur le dit matériel.
À 28 ans, il était déjà bien connu chez IBM et en 1968, il avait fait partie d’une
délégation visitant le centre de recherches IBM à La Gaude en compagnie de
Gabriel et Jacquinot (figure 69). Depuis 1965, alors qu’il était encore au CNRS
rue du Maroc, il assistait au congrès Share des utilisateurs de moyens IBM,
Période 1972-1981 145

avec Benssoussan, chercheur en informatique. Il fut détaché pour six mois, du


21 juin au 31 décembre 1974, dans le laboratoire IBM de Yorktown aux États-
Unis. Ceci lui permit, non seulement, de bien connaître le matériel qu’il instal-
lerait au CIRCÉ, mais de voir quelles étaient les orientations du constructeur
pour l’avenir. Il continua par la suite de faire de nombreux voyages à l’étranger
principalement aux États-Unis, en Grande-Bretagne, et au Japon. Et il eut des
relations semblables avec le constructeur CDC quand le centre se préparait à
accueillir une 7600 et ensuite avec Seymour CRAY.

Figure 69 – Réunion à la Gaude en 1968


2e à gauche C. Gabriel directeur financier CNRS, 5e P. Jacquinot directeur général
CNRS, 6e J. Jobert directeur scientifique, 4e à droite P. Salzedo ingénieur CNRS

6.7.2 Formation pour les ingénieurs


Il a déjà été insisté sur la complexité de la formation des ingénieurs. Tout d’abord
parce qu’ils étaient très jeunes et inexpérimentés sur les grands systèmes qu’ils
n’avaient jamais vus dans leurs études. Et aussi parce que dans certains cas, ils
se trouvaient à travailler sur des sujets de pointe qui étaient nouveaux pour les
utilisateurs eux-mêmes. C’était le cas en traitement du signal. Pour rattraper
le retard, si on ne voulait pas réinventer la poudre, il fallait aller voir comment
travaillaient ceux qui avaient fait leurs preuves dans le domaine. C’est ainsi
que, à Pâques 1970, je décidai d’emmener Hervé Delouis et un groupe de jeunes
utilisateurs de calcul intensif du CIRCÉ suivre une semaine de conférences et de
cours organisée sur le sujet, à Aspen, par l’Air Force Systems Command de l’US
Air Force. C’était une sorte de baptême du feu, où j’ai fait quelques cours avec
146 De l’IBM 360/75 au superordinateur Jean Zay

Delouis, mais surtout où tous ont beaucoup appris. L’important était de ne pas
laisser passer un autre train sans monter dedans, le rôle d’un centre de calcul ne
se limitant pas à l’installation de matériel.

Figure 70 – Colloque d’ASPEN en 1970

Plusieurs autres se sont inscrits pour participer à des congrès de différentes


disciplines. Mais la médaille avait un revers. Les nouveaux engagés restaient
rarement plus d’un an et partaient juste au moment où ils étaient opérationnels.
L’un d’eux en donnant sa démission, a avoué qu’à la sortie de l’école plusieurs
d’entre eux avaient été recrutés par une entreprise. On leur versait une prime
pour qu’ils aillent se former un an au CIRCÉ. On peut considérer que c’était
du devoir du centre de former des agents pour le service public, car à cette
époque c’était difficile de trouver un autre site équipé de machines de cette
puissance. Mais les former pour le privé prenait trop des forces vives du centre.
Et puis, certaines situations étaient embarrassantes. Par exemple, le ministère
des Affaires étrangères nous a dépêché un responsable vietnamien accompagné
de deux jeunes hommes. Nous devions les former tous les deux aux fonctions
de chef de centre de calcul, et désigner le meilleur. C’est ce que nous avons été
obligés de faire à la fin de leur première année de stage. À l’annonce de la déci-
sion qui les concernait, faite par leur responsable en notre présence, leurs réac-
tions ont été surprenantes pour nous. Celui qui avait été évincé a simplement
marqué par un signe de tête qu’il prenait note. L’autre prolongeait son stage
d’un an, sans même prendre de courtes vacances pour aller faire connaissance
avec son bébé, né quelques jours après son départ, un an auparavant.
À la fin de la décennie, plusieurs membres du personnel, parmi les meilleurs,
sont partis dans le privé où on leur offrait des salaires plus élevés, ou pour fonder
leur entreprise d’assistance. Leur départ avait plusieurs raisons : une question
de salaire bien sûr, mais ils étaient fatigués de former des jeunes qui don-
naient leur démission aussitôt formés et aussi de voir que l’avenir du centre de
calcul ne présentait pas de perspectives intéressantes. La puissance augmentait
à prix constant, les utilisateurs se multipliaient, mais tous nos dossiers novateurs
étaient rejetés par la commission. Ils étaient conscients de la valeur de leur expé-
rience. Ayant travaillé avec des chercheurs de toute discipline, ils étaient prêts
Période 1972-1981 147

à s’engager dans l’aventure informatique, mais pensaient que ce n’était pas au


CIRCÉ qu’ils le pourraient.

6.8 Résultats obtenus


En 1978, une grande partie des décideurs était toujours hostile à la présence d’un
gros centre. Pour les convaincre eux et une partie des directeurs scientifiques, les
utilisateurs et moi-même avons décidé de réaliser une brochure pompeusement
intitulée : l’informatique, outil de recherche au CNRS 117. Sur 880 chercheurs,
200 ont répondu à mon appel. J’ai classé les 200 réponses en 7 catégories qui
correspondent à peu près aux comités thématiques d’aujourd’hui. Les sujets
fondamentaux de chimie moléculaire, de météorologie, d’écoulement des fluides,
par exemple étaient traités à cette époque en faisant du calcul intensif sur les
machines d’alors. Il sera intéressant de suivre leur évolution pendant 40 ans, en
corrélation avec les puissances disponibles.

Figure 71 – Brochure sur l’informatique outil de recherche au CNRS

117 L’informatique, outil de recherche au CNRS, Centre national de la recherche scienti-


fique, 4e circonscription, Gif-sur-Yvette, ISBN : 2-222-02470.
Chapitre 7
L’histoire parallèle du centre
de 1969 à 1975

Nous avons dans le chapitre 3 donné une vue d’ensemble du développement du


centre pendant cinquante ans depuis sa création jusqu’à 2021. Nous savons donc
qu’il se développera jusqu’à devenir maintenant l’un des trois grands centres
nationaux. À première vue, on conclurait à un certain succès, puisque confor-
mément à la mission qui lui a été assignée en 1969, il fonctionne 24h/24, 7j/7
que le nombre d’utilisateurs comptabilisés est monté à 3500 et qu’il est relié
par des terminaux lourds ou conversationnels à des laboratoires dans toute la
France, l’Europe et le monde C’est aussi un des maillons d’un réseau reliant les
centres. Un survol des matériels installés, des logiciels disponibles, du travail
des groupes exploitation, système, assistance mathématique et informatique aux
utilisateurs, un recensement des travaux des utilisateurs, permet de tracer un
tableau rassurant. C’est celui que la direction voulait, depuis le début, donner à
ses équipes pour maintenir leur enthousiasme et il semble qu’elle y soit partielle-
ment parvenue. On se réfère à un article humoristique écrit en 2004 (annexe 4),
dans une interface de fantaisie, pour le départ à la retraite d’un ingénieur sys-
tème qui travaillait au CIRCÉ depuis sa création. On y parle du « Centre »
qui était pour eux l’objet de tous les soins 118. La seule préoccupation majeure
des utilisateurs devait être de faire les calculs dont ils avaient besoin. Pour cela
ils devaient trouver des « crédits calcul ». C’était difficile et ça leur prenait
beaucoup de temps. Aussi avaient-ils tendance, au début, à nous faire trop
confiance pour que la croissance du centre suive celle de leurs besoins. De plus,
la comparaison de l’organisation du centre avec celles du NCAR et de Livermore
avec lesquels ils continuaient de collaborer les rassurait. Il a fallu très tôt leur
faire comprendre que leur rôle était important dans la gestion du centre. Ils ont
répondu régulièrement à nos enquêtes sur leurs résultats scientifiques, participé
à l’élaboration des schémas directeurs. Ils nous ont fait part régulièrement des
facilités qu’avaient leurs collègues étrangers. L’un d’eux nous a donné à méditer

118 Note de l’auteure : Les membres restants de l’équipe de la première décennie sont
restés tellement soudés par leur aventure, qu’ils continuent de se réunir actuellement, et
même faire des voyages communs, bien que leur travail les ait transportés vers d’autres
horizons.
150 De l’IBM 360/75 au superordinateur Jean Zay

une copie intégrale de sa collaboration avec Kenneth Wilson qui utilisait aux
États-Unis les premiers array processors. Mais précisément à cause des liens
serrés et intimes que nous avions liés avec eux, nous leur avons épargné le récit
de toutes les mesquineries dont le centre était la cible. Ils ont quelquefois eu du
mal à comprendre des décisions absurdes que nous étions contraints de prendre
brusquement et qui contrastaient avec toutes les études que nous avions menées
avec eux. C’était assez que nous perdions notre temps, sans qu’ils perdent aussi
le leur. Nous ne les avons fait intervenir directement dans nos transactions poli-
tiques, qu’en dernier recours, quand c’était vraiment indispensable.
Il suffisait qu’ils comprennent que le personnel avait le même but qu’eux :
faire avancer la recherche. Avant de répondre à un appel d’offres ou d’envisager
une nouvelle application, ils venaient en débattre avec les diverses assistances
et nous-mêmes. C’était pour eux s’assurer que notre organisation du centre de
calcul, leur permettrait de remplir leurs engagements.
Mais il y a une autre réalité moins réjouissante. Comme il a déjà été écrit :
« On aurait pu faire beaucoup mieux et pour beaucoup moins cher, et on
aurait su le faire. Tout était prêt. »
Le constat est sans appel. À sa création en 1969, le CIRCÉ était le centre
d’informatique de service le plus puissant d’Europe. Une décennie après, il est le
seul centre d’Europe à ne pas avoir remplacé son 168 par un 3033 plus puissant
et moins cher. Quand il propose en 1980 d’installer un CRAY 1, il y en a déjà
11 installés dans les universités européennes et il lui sera refusé.
Comment expliquer cette régression ? Une mauvaise direction ? De mauvais
choix ? En France, on est très fort pour ce genre d’introspection qui cherche des
excuses a posteriori. On s’est posé et on se posera toujours les questions :
− Pourquoi l’Institut Blaise Pascal a-t-il été un échec ?
− Pourquoi le plan calcul n’a-t-il pas répondu aux attentes ?
− Pourquoi le CIRCÉ n’a-t-il pas remplacé son 168 existant par un 3033
plus performant et moins cher ?
− Pourquoi, malgré tous ses efforts, n’a-t-il pas installé un CRAY dès la fin
des années 70 comme dans tous les centres homologues en Europe ?
Dans les décennies qui ont suivi celle de la création, quelques directeurs
généraux, des ministres de la Recherche, de l’Industrie, de l’Enseignement supé-
rieur, inquiets du sentiment naissant d’un décalage par rapport à l’étranger, ont
demandé à des chargés de mission, à des groupes de travail, à des personnalités
reconnues, de leur faire un état des lieux et des propositions pour l’informatique
en France, comme si la rumeur d’un problème arrivait jusqu’à eux. Mais l’objet
de la requête a été interprété différemment, suivant le passé, la discipline ou
l’institution à laquelle appartenait celui qui la recevait. Tous ont été très cri-
tiques de l’état existant, mais pour des raisons différentes, et leurs propositions
étaient souvent antagonistes. En général, l’informatique de service ne faisait pas
l’objet de leurs préoccupations majeures et certains dans les ministères l’igno-
raient ou pire l’accusaient de tous les maux. En revanche, tous étaient d’accord
pour mettre en exergue deux des handicaps contre lesquels nous avons eu à nous
battre dès la création : l’inadaptation, pour nous, du matériel français et celle du
ticket modérateur telle qu’elle nous était imposée. Dans le chapitre Comprendre
L’histoire parallèle du centre de 1969 à 1975 151

de son rapport de 1983, J. Yoccoz 119 parle des multiples causes de notre retard
en général et donne son point de vue sans vouloir polémiquer :
« Mais il importe plus de chercher à les expliciter au mieux que de les
démêler pour pointer d’inintéressantes responsabilités. »
Il serait ridicule de vouloir refaire l’histoire ou de discourir sur ce qu’on
aurait dû faire ou d’émettre des jugements. La seule chose utile et rationnelle
est de montrer par l’analyse ce qui s’est effectivement passé pendant cinquante
ans dans un centre de calcul qui se débattait face aux difficultés qu’ont pointées
tous les rapports ultérieurs et à celles que tous ces rapports ne soupçonnaient
même pas. L’analyse aura deux objectifs principaux. Le premier, c’est rendre
sensible la vitesse à laquelle l’équipe technique et les utilisateurs ont intégré à la
fois, ce que leur apportait le calcul scientifique, mais aussi la somme de travail et
l’investissement individuel qui en découlaient pour eux. C’est très important et
nous allons le détailler. Le second est de montrer que le caractère inéluctable du
besoin de calcul intensif n’a pénétré que lentement nos autorités de tutelle. Le
Centre s’est tiré de toutes ses difficultés grâce à l’opiniâtreté de ses directeurs et
de son équipe technique, sans laquelle rien n’aurait pu être fait. Cette aventure
a tellement marqué et soudé les premières équipes que leurs membres restants,
bien que dispersés, ont continué, jusqu’à très récemment, à se réunir annuelle-
ment et même à organiser des voyages en commun (jusqu’au Japon). Car c’est
une histoire qui finit bien. Il a fallu quarante ans pour que l’outil calcul accède
dans les textes officiels au rang de grand instrument et cinquante pour que lui
soit confirmée sa place particulière dans la panoplie d’ensemble d’outils pour la
recherche de pointe en Europe, avant qu’il n’en devienne le fer de lance.
À la fin des années 70, on en était loin. L’installation en 1969 d’une usine à
calcul fonctionnant sans interruptions a créé dans la communauté un sentiment
de stupeur et d’incompréhension qui a mis des décennies à disparaitre. La stu-
peur a encore été plus grande de voir le centre saturé en six mois. Toutes les
précautions avaient pourtant été prises pour rassurer en affirmant que surtout il
ne s’agissait pas de toucher à ce qui existait, marchait bien, et devait continuer
à fonctionner sans changement, tels le centre de calcul de la Physique Nucléaire
(CCPN) de l’IN2P3 ou le centre de calcul de la faculté Paris-Sud (PSI). Les
autorités de tutelle, autres que le directeur, ont été mises devant le fait accompli
et ont mis bien des années à être converties. Ce qui est intéressant à montrer,
c’est comment le centre a lutté mois après mois, année après année, à certaines
époques jour après jour et par quelles étapes il est passé pour remplir la mission
qui lui avait été confiée. Pourquoi est-ce intéressant ? Parce que cette lutte a
laissé des traces, mais que c’est une belle histoire pour le CNRS. Il lui a été
reproché d’avoir raté tous les tournants en informatique, de ne pas avoir tiré
de leçons de ses échecs en la matière. Au moins a-t-il été pionnier, en France,
dans la mise en service d’une usine de calcul intensif pour toutes les disciplines,
à mesure qu’elles en ont découvert l’absolue nécessité. C’est-à-dire connaître
suffisamment bien les besoins des utilisateurs, pour qu’une veille technologique

119 J. Yoccoz, Rapport sur les besoins de la recherche en matière d’équipement


informatique.
152 De l’IBM 360/75 au superordinateur Jean Zay

et la qualité des équipes qui le servaient permettent de leur offrir en continu à


peu près l’outil dont ils ont eu besoin à un instant donné. En 1980, au moment
où après quatre ans de bataille on installe enfin un compatible IBM, après le
refus d’installer un CRAY 1, toutes les difficultés et incompréhensions sont à
leur paroxysme et annoncent d’autres combats.
C’est cette vie parallèle qui fait l’objet des deux chapitres suivants. Ce n’est
pas une idée originale pour aborder une étude historique. Dans l’épilogue de son
histoire du CNRS, Denis Guthleben, dit qu’il faudrait écrire, un jour, un com-
plément à cet ouvrage, L’histoire dans l’histoire du CNRS 120.
Avant d’entreprendre d’écrire L’histoire dans l’histoire du centre de
calcul, je dois expliciter deux concepts généraux que j’ai découverts tout de
suite car ils se sont présentés comme des évidences, mais que j’ai dû intégrer
très vite, sans y avoir été préparée. Je travaillais encore en partie, et dans l’en-
thousiasme, au JPL de la NASA, dans un laboratoire où l’outil principal était
l’ordinateur, et où on se préparait à aller sur Mars. Je voyais tous les jours pro-
gresser le robot qui à une date encore lointaine partirait vers cette destination,
(et à ce stade il me paraissait bien gracile pour ce long voyage) et je croyais que
tout était possible.
Mes plus importantes sources de documentation, sont, outre quelques rapports
de comités de direction ou d’utilisateurs, une abondante correspondance avec
le directeur général, et C. Gabriel. Leurs réponses seront souvent manuscrites.
J’utiliserai aussi mes notes prises pendant les réunions des divers comités 121 et
quelques rapports de ces dits comités, ainsi que les rapports d’activité du CNRS,
et une collection complète d’Interface, journal du centre qui va de 1969 à 2008.
J’avais anticipé certaines difficultés, mais pas toutes. J’étais préparée à des
pannes hardware, à des difficultés d’installation de logiciels, à un niveau insuffi-
sant des ingénieurs pour assister les utilisateurs dans leurs problèmes de pointe,
à un niveau insuffisant en mathématiques. Il a fallu apprendre et vite. Il a
fallu assimiler que l’enthousiasme ne suffisait pas, et que pour convaincre, il
ne suffisait pas d’avoir raison. Et c’était une découverte. Les nouveautés dans
l’approche des problèmes pouvaient susciter la méfiance, la compréhension ne se
faisait pas en un éclair, mais demandait beaucoup de temps. J’ai vite compris
que le développement difficile du centre de calcul n’avait rien d’exceptionnel.
C’est celui classique des débuts de toute entreprise qui se lance hors des chemins
battus. Enfin, il a fallu apprendre que les réponses qui m’étaient faites avaient
parfois des raisons cachées parce qu’elles étaient plus ou moins inavouables et
qu’elles étaient prises dans un cadre beaucoup plus vaste. C’est-à-dire que vous
pouviez démontrer n’importe quoi, la seule raison des refus était l’hostilité, non
pas à votre personne, mais à ce que vous représentiez. Et là, il fallait admettre
qu’on vous était hostile pour des raisons qui dépassaient vos compétences poli-
tiques. La seule solution possible a été d’imaginer les attitudes qui limiteraient
les dégâts, de contourner les difficultés, pour offrir aux utilisateurs à peu près
les outils dont ils avaient besoin. C’était tout un apprentissage, pas spécifique à

120 Denis Guthleben, Histoire du CNRS de 1939 à nos jours, septembre 2013, éditions

Armand Colin, p. 464.


121 Notes manuscrites de J. Connes, Archives de la DIS.
L’histoire parallèle du centre de 1969 à 1975 153

notre entreprise, qu’il aurait fallu faire dans une formation antérieure. Mais là il
n’y avait plus le temps d’apprendre. Plongés dans le problème, il fallait trouver
les solutions immédiatement.
Philippe Salzedo est devenu un maître en la matière. Il a transformé en outil
de gestion le ticket modérateur qui, tel qu’il était conçu dans notre environne-
ment était un désastre. Il s’est ingénié à trouver des matériels compatibles à des
prix tels qu’ils rentraient dans le budget abondé par les recettes. C’était une
acrobatie qui demandait beaucoup de travail de toutes les équipes toujours en
perpétuelle installation pour maintenir la qualité du service. Moyennant quoi, il
n’avait pas besoin pour augmenter la puissance ou les volumes de stockage de
demander des augmentations de crédit dont il savait qu’elles lui seraient refu-
sées. Dès les premiers mois, la direction du centre savait bien qu’il y aurait une
part de travail « administratif ». Mais j’ai dû intégrer, dès l’installation, que
notre tâche serait divisée en deux parties distinctes. La première consistait à
faire fonctionner le centre à la satisfaction des utilisateurs, avec le meilleur choix
possible d’ordinateurs que permettaient les contraintes, et de préparer l’avenir.
En somme, nous disions aux utilisateurs : dites-nous ce que vous voudriez faire
et travaillez. Et ils attendaient du centre des miracles. C’était pour nous la
récréation, ce à quoi notre formation et notre expérience nous avaient préparés.
L’autre partie, de loin la plus dévoreuse de temps et d’énergie, consistait à
se battre contre ce qui à ce stade était appelé l’extérieur, pour arracher aux
instances de tutelle de haut niveau, les avis favorables d’acquisition. C’était la
première étape, pas suffisante, mais indispensable, pour la fourniture du service
souhaité.
Le second objectif qu’il a fallu assimiler très vite, c’est que dans la lutte
pour la croissance du centre, il ne fallait pas se tromper dans l’identification des
obstacles. Il aurait été facile au début d’attribuer nos difficultés à la direction
du CNRS au sens large, parce qu’ils étaient les plus proches. Mais à l’examen,
le CNRS lui-même a fait ce qu’il a pu. Il lui a été plus facile d’être généreux
pendant les Trente Glorieuses 122. Dans un article de presse, en 1948, le directeur
de l’Enseignement supérieur le remercie de l’avoir sauvé 123.
« Ces dernières années, c’est en fait le Centre National de la Recherche
Scientifique 124 (CNRS) qui a suppléé à notre manque de crédits. Il a ainsi
été détourné de sa mission (...) subventionner les grandes créations scien-
tifiques, promouvoir les disciplines nouvelles grâce à sa grande souplesse
administrative. »
Mais cet âge d’or n’a pas duré. Dès le début des années 70, le CNRS est
entré dans son « premier trou d’air » d’après D. Guthleben et n’a plus jamais eu
les moyens de toutes ses ambitions. Régulièrement depuis cette époque, jusqu’à

122 C’est la période de forte croissance économique qui a commencé en 1946.


123 Histoire du CNRS, Guthleben, p. 120.
124 « Il faudrait cinq milliards pendant cinq ans pour loger convenablement nos univer-

sités », Le Monde, 31 octobre 1948.


154 De l’IBM 360/75 au superordinateur Jean Zay

aujourd’hui cette situation est pointée par des personnalités. Encore actuellement,
le 9 janvier 2021, Antoine Petit, actuel directeur général du CNRS, écrit125 :
« La recherche française a besoin d’argent et de simplifications,
La situation budgétaire n’est plus tenable. »
Cela dépasse de beaucoup la question du centre de calcul. Quand il s’agit
d’administrer la pénurie, chacun a tendance à protéger son secteur. C’est la
règle générale. Il ne reste plus qu’à descendre dans l’arène, pour, au minimum,
contribuer à l’information générale, en faisant connaître ce que l’on fait. C’est
un problème que le CEA ne semble pas avoir eu, ni la société TOTAL, ni EDF,
toujours en mesure de commander, pour leurs besoins propres, la machine la
plus puissante commercialisée à un moment donné.
P. Jacquinot m’a très précisément mise en garde contre les difficultés que
j’allais rencontrer avec l’Enseignement supérieur. Mais je n’y ai pas prêté une
attention suffisante, faute de compréhension. Pourtant il a été très explicite et
m’a tenu très exactement à cette époque les propos qu’il reprendra lors de son
interview de 1984.

7.1 Avertissement de P. Jacquinot


Il se trouve qu’on connaît bien les opinions de P. Jacquinot sur l’informatique
et la place du CNRS dans le paysage de l’époque grâce au compte rendu de la
visite en 1965 de Charles de Gaulle à son laboratoire et à une longue interview
qu’il a donné en 1984, transcrite dans les archives orales du CNRS. Il y parle
longuement des années où il a été directeur général à la fin des années 60. Nul
ne connaissait la maison mieux que lui, depuis sa préhistoire. En effet, Aimé
Cotton, professeur à la Sorbonne, lui avait obtenu en 1933 une bourse de la
Caisse Nationale des Sciences, ancêtre du CNRS pour venir travailler avec lui au
laboratoire de l’électro-aimant de Meudon-Bellevue. C’était, dès cette époque, le
cas type de ce qu’on appellerait aujourd’hui un enseignant-chercheur qui trouve
une place à son élève, dans un cadre où il pourra se consacrer à plein temps
à la recherche. Il n’a quitté sa fonction de chercheur que pour devenir trente-
et-un ans plus tard, en 1964, directeur général du CNRS. Son rôle en 1969 a été
prépondérant pour la diffusion de l’informatique de service en France, mais rien
dans son passé scientifique ne l’y disposait :
« Je suis totalement incompétent. Ça ne veut pas dire que j’y étais opposé,
mais disons que ce n’était pas dans ma philosophie. »
Mais il s’est trouvé qu’en 1957, le problème scientifique qui l’intéressait
nécessitait, sans qu’il en ait l’intuition, du calcul intensif sur un ordinateur plus
puissant que ceux disponibles. C’est exactement, et ça le sera toujours, le cas
éternel des problèmes de pointe. Pendant les années qui ont suivi à la direction
générale du CNRS, il a découvert des sujets ayant les mêmes exigences. En
même temps, il a compris à travers mes recherches et mon travail dans un centre

125 Antoine Petit, https://www.cnrs.fr/fr/cnrsinfo.


L’histoire parallèle du centre de 1969 à 1975 155

de calcul de la NASA ce qu’était un centre de calcul intensif. C’est cette moti-


vation suivant laquelle, pour certains problèmes, c’était l’ordinateur ou rien,
que n’ont pas eue d’autres directeurs. J’ai tout de suite compris qu’une telle
occasion ne se reproduirait pas et qu’il fallait en profiter. Il m’en a donné les
moyens en matériel et personnel. On pourrait dire a posteriori que cette création
aurait pu être préparée plus doucement, dans la concertation. Mais étant donnée
l’atmosphère à l’époque, des discussions de cet ordre étaient impensables en
France. Et il y avait urgence, vu le retard qu’on avait accumulé. Et puis on ne
partait pas de rien. Au point de vue international, ce n’était pas une nouveauté.
De tels centres fonctionnaient à l’étranger et j’avais réussi à redresser le centre
de calcul de l’INAG, qui, à cette époque, était un centre dédié aux astronomes
et aux géophysiciens.
Mais il y a un autre domaine dans lequel l’expérience de P. Jacquinot a été
primordiale. C’est la mise en garde qu’il m’a faite contre les difficultés de coha-
bitation du CNRS et des universités. Elle tient à l’organisation de la recherche
publique en France, partagée entre le CNRS et l’Enseignement supérieur. Il
avait tout fait pour y remédier en créant les laboratoires associés. Mais des
difficultés subsistaient. Au début, ses propos me sont restés étrangers, mais au
bout de six mois je les ai parfaitement intégrés. L’existence du CNRS, spécificité
française, est une chance pour les chercheurs que nous envient les étrangers :
quel luxe de pouvoir faire de la recherche à plein temps ! Mais leur coexistence
demande de la diplomatie. À la création du CNRS, Jean Perrin a bien expliqué
que le CNRS était une nécessité parce que la recherche à l’université n’était pas
à un niveau suffisant, qu’on n’y travaillait pas assez, et ça passait très mal chez
les universitaires. Plus tard, P. Jacquinot remarque :
« Qu’il y ait une sorte de “relation amoureuse” entre le CNRS et l’université
avec tout ce que cela implique de contradictions. Dans une certaine mesure le
CNRS se méfie de l’université. Les universitaires ont un certain nombre de
caractéristiques qui ne doivent pas déteindre sur le CNRS. »
Il regrette aussi :
« Que certains ministres “universitaires” semblent avoir eu une politique
anti-CNRS affirmée. »
Ce n’était pas pour faciliter la tâche d’un centre au service de chercheurs de
toute appartenance.
Pendant toutes les années où il a été directeur général du CNRS, P. Jacquinot
avait eu à défendre le CNRS contre les autorités de tutelle et l’Enseignement
supérieur pour lui garder son indépendance. Dans l’interview déjà citée, il ana-
lyse avec finesse la complexité de la place du CNRS dans les divers ministères
qui le concernent :
« Pendant très longtemps, le CNRS dépendait de l’Éducation nationale, alors
qu’il existait simultanément un ministère de la Recherche. Situation para-
doxale que nos visiteurs étrangers ne pouvaient pas comprendre et qu’il était
d’ailleurs difficile de leur expliquer. Gaston Palewski 126, par exemple, n’avait

126 Membre du Conseil constitutionnel.


156 De l’IBM 360/75 au superordinateur Jean Zay

pas de droit de regard sur le CNRS. Il était responsable de ce qu’on appelait


l’enveloppe recherche. C’était l’organisation de l’époque, le budget était établi
avec le comité des sages, dont le secrétaire général était la Direction générale
de la Recherche Scientifique et Technique (DGRST). L’articulation était
un peu complexe. C’est le ministre de l’Éducation nationale qui nommait le
directeur du CNRS. »
Il confesse :
« Il y a deux choses que je suis fier d’avoir faites. L’une c’est la création
des laboratoires associés et la deuxième plus contingente, d’avoir obtenu que
le CNRS soit exclu de la loi d’orientation de 1968 127. Je me suis donné un
mal fou aidé par Claude Lasry, directeur administratif et financier du CNRS,
pour obtenir qu’un certain article 37, devenu par la suite 42, stipule que
les dispositions de la présente loi ne s’appliquent pas au CNRS. D’ailleurs,
d’autres établissements, dont le Collège de France, ont obtenu de figurer aussi
dans cet article 42… Quand nous avons vu ce qui se préparait, nous avons
compris que c’était la mort du CNRS. »
Et très intéressant pour notre propos, quand on lui demande comment il y
est parvenu, il répond :
« À force d’insistance, de persévérance, et, peut-être, de persuasion. »
La direction du centre de calcul a insisté, persévéré. Sans doute n’a-t-elle pas
su persuader. Et on regrettera toujours le temps perdu. Mais peut-être dans ce
qu’on appelle le contexte français, n’était-il pas possible d’aller plus vite. Et on
peut se consoler avec le fait que le centre de calcul a contribué à montrer par
l’exemple que le calcul intensif était un outil d’avenir pour la science du futur.
Grâce à lui, quand l’opinion a été enfin prête, elle a trouvé une structure et sur-
tout une équipe prête à affronter les grands défis. Son rôle n’était pas terminé.
Il partait pour de nouvelles aventures dans un autre environnement, mais avec
les mêmes objectifs. On ne dirait plus :
« Faire ce qu’on ne pouvait pas faire ailleurs. Mais faire une partie de ce
qu’on ne pouvait faire ailleurs. »
D’autres centres semblables font maintenant les autres parties. Et c’est là
l’essentiel.
Il a déjà été fait allusion à plusieurs reprises au fait que l’histoire du centre
de calcul suivait étroitement celle du CNRS. Pas plus que le CNRS, le centre
de calcul n’a disparu malgré les embûches. Au contraire, l’un et l’autre ont su
démontrer leur utilité et ont su s’adapter. Mais quand le centre de calcul allait
mal, souvent c’était parce que le CNRS avait aussi à se battre pour sa survie.
Dans la suite nous verrons les armes employées par la direction du CIRCÉ pour
survivre lui aussi.

127 La loi du 12 novembre 1968 d’orientation de l’Enseignement supérieur dite « Loi


Faure » réforme administrativement l’université. Elle crée le « conseil universitaire » et
intègre des activités d’enseignement et de chercheurs, via le statut d’enseignant-chercheur.
L’histoire parallèle du centre de 1969 à 1975 157

7.2 Vue d’ensemble sur la vie parallèle du centre


pendant la première décennie
Par son exemple et ses réalisations, il a amené la conscience collective des auto-
rités de tutelle à reconnaître la nécessité, pour la recherche en général, du besoin
de calcul intensif.

7.2.1 Comparaison entre nos propositions et nos réalisations


La mise en place d’une usine à production de calcul avait été une surprise.
Ce qui a été aussi inattendu, c’est la prise de conscience instantanée par
l’équipe technique de la tâche qui était la sienne et du fait qu’elle a été prête
à s’investir immédiatement, d’où le succès de sa professionnalisation. Et il
faut se rappeler qu’on sortait tout juste de Mai 68. Bien sûr, dès le début
avec C. Gabriel, j’ai travaillé à faire reconnaître leurs compétences. Mais ce
ne sont pas les maigres compensations obtenues qui ont motivé les ingénieurs.
Pour eux, il fallait accepter de préparer, dans la journée, les travaux qu’ils
passeraient eux-mêmes pendant leurs heures réservées, la nuit et le week-end.
Parallèlement on a assisté à une évolution des utilisateurs. Un grand nombre
sont devenus experts et utilisaient le système dans toutes ses extensions. C’est
en tenant compte de ces considérations qu’a été menée l’étude de la machine
du VIe Plan.
En fait, pour bien comprendre cette période, il faudrait un tableau à quatre
dimensions. Les deux premières périodes sont illustrées par le tableau chro-
nologique ci-dessous. Il est à comparer à celui de la figure 72. Il reprend les
24 premières années du centre, vues à la figure 28 du chapitre 4 en intégrant
ce qui aurait pu être si les diverses instances de décision avaient approuvé les
projets présentés par la direction. En fait, la liste entre les refus, que dans la
suite nous appellerons au choix les échecs ou les solutions manquées, n’est pas
la meilleure qui soit. C’est la moins mauvaise, compte tenu des circonstances.
Ce tableau est l’illustration parfaite de l’écart qui existait entre la volonté
des équipes du centre qui visaient un centre de pointe et les instances de
décision. Les premières préparaient des dossiers pour acquérir des ordinateurs
spécialisés pour travail scientifique de pointe, CDC 7600 et CRAY, 3033 IBM,
les mieux adaptés au calcul intensif, ce qui était sa vocation première. Les
secondes mettaient leur véto et les premières essayaient d’offrir la meilleure
qualité possible de calcul intensif avec des ordinateurs qui avaient une image
moins connotée.
Il manque deux autres dimensions. La première mesurerait l’évolution de
la prise de conscience généralisée de l’importance du calcul intensif. La der-
nière serait la mesure de la diversité et de la complexité croissante des tâches
demandées à l’équipe technique du centre. Elle avait anticipé et il fallait que
le moment venu, elle soit prête. Elle continuera l’aventure dans les meilleures
conditions possibles avec le matériel adéquat enfin accessible.
158 De l’IBM 360/75 au superordinateur Jean Zay

Type Puis-
Puissance NB
Date équipement sance Compléments informations
MIPS CPU
MF Mflops
Déménagé depuis la rue du
CDC 3600 0,30 1
Maroc à Orsay
1969-1972
IBM 360/75 0,94 1 Installé à Orsay en 1969
IBM 360/50 0,30 1 Installé à Orsay
08/05/1970 Projet de CDC 7600
24/09/1971 CDC 7600 REFUSÉ
1972 Proposition de création de CIRCÉ 2
Augmentation de la mémoire
IBM/370/165 2,70 1
1972 à 3 MGo en 1973
1973 Décembre 1973 arrêt IBM
IBM 370/155 0,47 1
370/165
IBM 370/168 3,10 1 Installation IBM 370 158 en
1974-1976
IBM 370/158 0,70 1 remplacement du 370 155

Dossier Remplacement du 370/158 par


1975-1976 REFUSÉ
IBM 3033
Début 76 Document de prospective pour le long terme. Sans effet
IBM 370/168 3,10 1 Avril 76 : un second IBM
1976-1979 370 168 remplace l IBM
IBM 370/168 3,10 1 370 158
1979-1980 Dépôt de demande CRAY REFUSÉ
Amdahl V7 remplace le pre-
Amdahl V7 5,50 1
1980-1983 mier 168
IBM 370/168 3,10 1 Arrêt du 370 168 en 1983
Amdahl V7 5,50 1 Arrêt du V7 en 1986
NAS 9080 Frontal du CRAY
NAS 9060
11,50 2 1 déménagé dans le centre de
1983-1984 puis 9080
l’École polytechnique
Installation du Bull DPS 8 le
DPS8/62 M 1,50 2
4/10/1984
1984 CRAY Installation au CCVR
IBM 3090 200 32,00 2 216 IBM 3090 200 + 2 VF
Frontal du CRAY 1 CCVR
NAS 9080 21,50 2
créé en 1984
1984-1986 Installation du VP200 sept.
VP200 533
1986
Bull DPS /62 Multics
DPS8/62 M 1,50 2
opérationnel
L’histoire parallèle du centre de 1969 à 1975 159

Type Puis-
Puissance NB
Date équipement sance Compléments informations
MIPS CPU
MF Mflops
IBM
89,00 6 696 IBM 3090 600 E + 6 VF
3090 600E
Frontal du CRAY 2 CCVR
NAS 9080 21,50 2
1986-1990 en 1987
VP200 1 533 Calculateur Vectoriel
Arrêt du Bull DPS 8 en 1990
DPS8/62 M 1,50 2
et du NAS 9080
IBM 3090 600
100,00 6 800 IBM 3090 600 S + 6 VF
S VF
Frontal du CRAY 2 CCVR
NAS 9080 21,50
1990-1993 jusqu’en 1993
Noté au TOP500 06/1993.
VP200 1 533 Rang 476 Pic Théorique 533
Mflops
CRAY Y-MP Création IDRIS. Arrêt IBM
Juin 1993 1 8000
C90/8 3090

Figure 72 – Tableau chronologique des installations réalisées et de celles souhaitées et


préparées

Et pendant ce temps, le CIRCÉ travaillait ! Tous les documents auxquels on


se réfère, dans la suite, n’ont pas trait à la marche normale du centre avec ses
problèmes administratifs normaux : demandes de crédits, rapports d’activité,
prospectives etc. Ils sont spécifiques aux luttes qu’il a fallu mener pour la survie
du centre. Ils sont indispensables pour comprendre les empreintes qu’elles ont
laissées à travers les années. Les luttes ont été de plus en plus dures, jusqu’au
dépôt de notre lettre de démission. Elles se divisent en plusieurs étapes. Pour les
comprendre, il faut s’appuyer sur les données fournies par un service de comp-
tabilité dont il a été jugé nécessaire de donner les grandes lignes.

7.2.2 Caractéristiques de la charge et comptabilité adaptée


Il est apparu dès le début que la direction devrait convaincre et persuader.
Convaincre les utilisateurs toujours avides de plus de facilités qu’on essayait de
faire le mieux possible avec ce que nous avions, persuader les décideurs de la néces-
sité de notre existence. C’était facile avec les utilisateurs car nous vivions avec
eux, et leurs réactions étaient immédiates. Ils nous adressaient directement et dans
l’instant leurs critiques. Nous n’avions pas les mêmes armes avec les décideurs. Eux
seuls pouvaient savoir si les résultats scientifiques obtenus étaient intéressants. Une
discussion sur la pertinence des résultats obtenus grâce au calcul intensif, c’est ce
que nous avons demandé pendant vingt ans. Faute d’être qualifiés pour en décider,
au moins pouvions-nous fournir à ceux dont c’était la fonction, des éléments pour
160 De l’IBM 360/75 au superordinateur Jean Zay

étayer leur décision. L’un d’entre eux a été la mise en service d’une comptabilité
complète et sophistiquée, digne d’une entreprise de notre taille. Il fallait, à la fois,
être capable de sortir facilement, à la demande, des documents permettant aux
directeurs scientifiques ou de laboratoires de suivre leurs chercheurs, et de répondre
aux critiques dont nous étions l’objet sur notre coût et nos capacités de gestion-
naire. Pour justifier nos projets, il était indispensable de présenter des comptes non
seulement complets, mais clairs. D’où, dès l’ouverture, l’implantation d’un service
qui a occupé un ingénieur à plein temps, et une secrétaire, puis un agent supplé-
mentaire à l’instauration du ticket modérateur en juin 1972.
La saturation d’une configuration complexe qui sert à la fois à la mise au
point, à l’exploitation, au télétraitement et à la promotion de techniques nou-
velles, est une notion complexe ; elle ne peut se mesurer ni par le nombre de
travaux effectués journellement (l’exécution de 1800 travaux courts d’étudiants
ne prend que quelques heures), ni par le temps sous tension, mais par une étude
critique de ces deux facteurs et des conditions d’exploitation 128.
Il faut introduire les notions de :
Heures ouvertes, pendant lesquelles le CIRCÉ peut employer et rémunérer le
personnel du lundi 7 heures au dimanche 7 heures soit 6843 h 25 de mai 1970 à
mai 1971. C’est le temps horloge.
Heures sous tension, pendant lesquelles les ordinateurs sont effectivement
utilisés. Leur total peut être inférieur au précédent, si à la fin de la semaine, il
ne reste que des travaux trop longs pour le temps d’ouverture restant et qu’on
ne peut donc commencer.
Temps d’exploitation, c’est le temps sous tension diminué de celui de la main-
tenance préventive, des pannes hardware et software imputables au constructeur,
des arrêts de climatisation ou une mauvaise alimentation électrique il est de
­90,56 % du temps horloge.
Le tableau suivant (figure 73) récapitule les divers temps mesurés. On voit
que dans notre cas de mai 1970 à mai 1971, sur 12 mois, le taux d’utilisation est
de 98,76 % du temps horloge. Il est de 100 % pendant 5 mois, dont le mois de
décembre. C’est difficile de faire mieux.
Pour faire une comptabilité correcte avec un système travaillant en mul-
tiprogrammation, il a fallu introduire les notions de temps CPU et de temps
pondéré TPO.
Nous distinguons le temps CPU (C) qui est le temps total de fonctionnement
de l’unité centrale. Dans l’exploitation du centre, il varie de 90 % du temps
sous-tension, pendant les mises au point de la journée à 95 % pendant les tra-
vaux de nuit. Ce sont des taux qu’il semble difficile de dépasser. Il comprend à
la fois le temps de calcul pour des « programmes utilisateurs » CPU (P) et celui
absorbé par l’ensemble des tâches système, opérations d’entrées-sorties, gestion
des terminaux. Le temps CPU (P) est en moyenne de 54,16 % du temps sous
tension. La chaîne de comptabilité donne encore, pour chaque travail, beaucoup
d’autres renseignements, le nombre de cartes lues, le nombre de cartes perforées,
le nombre de lignes imprimées, le nombre de montages de volume de stockage
individuels, bandes ou disques.

128 Rapport au comité de direction du CIRCÉ du 16 juin 1971, p. 5.


L’histoire parallèle du centre de 1969 à 1975 161

Figure 73 – Temps mesurés de mai 70 à mai 71

Ce qui est facturé aux utilisateurs, c’est encore autre chose, c’est le temps
pondéré TPO obtenue par une formule complexe. Elle tient compte à la fois de
CPU (P), de la taille mémoire, du volume des entrées-sorties, de la différence
entre la priorité demandée, pd, et celle calculée, pc, par le système pour sa ges-
tion optimum. La formule que nous utilisions à l’époque est :

Elle sera modifiée à chaque changement de matériel.


162 De l’IBM 360/75 au superordinateur Jean Zay

Il peut sembler que le choix des paramètres soit arbitraire. En fait de nom-
breuses études théoriques sur ce sujet ont été faites dans des centres de recherche
universitaires et ont donné des résultats semblables aux nôtres. La formule
employée est réaliste : le temps pondéré est très voisin du temps d’exploitation.

Figure 74 – Récapitulation mensuelle des temps pondérés par discipline de mai 1970 à
mai 1971
L’histoire parallèle du centre de 1969 à 1975 163

Des graphiques de temps pondéré par discipline et par mois (figure 74)
devaient permettre aux directeurs scientifiques de suivre la pénétration de l’in-
formatique dans leur secteur. À cette époque, les plus gros utilisateurs étaient
la physique, la chimie et les mathématiques. Un même graphique aujourd’hui
montrerait un facteur de plus de 1000 sur les échelles et la prédominance de la
biologie et des sciences humaines.

7.3 Histoire parallèle du centre d’avril 1969


au 25 mars 1970
Elle mérite d’être étudiée spécialement car c’est pendant cette très courte période
que la plupart des problèmes clés se sont présentés. Il a fallu, en un temps record,
mettre en place une organisation qui évoluera, mais subsiste dans ses grandes
lignes jusqu’à aujourd’hui. P. Jacquinot avait fait un pari risqué en créant un
centre, copie de celui du JPL. Il n’y avait rien de semblable en France, ni à ce
moment-là en Europe, même s’il sera dépassé en Angleterre peu après. C’était
aventureux car au début lui seul dans la direction en voyait la nécessité. Mais le
pari n’était pas gagné. Il fallait faire ses preuves très vite et sans accrocs et mon-
trer que la clientèle, était là, prête à répondre, qu’on avait compris ses besoins.
Aucun statut n’était prévu pour un personnel ayant les contraintes que nous
imposions. Il fallait concrétiser l’effet de surprise et comme m’avait dit H. Curien,
nous n’avions pas droit à l’erreur. Sur le terrain, il fallait tout inventer.
Au départ, la situation est idyllique. Le centre est un laboratoire propre
du CNRS, avec un budget assuré. Les heures de calcul sont distribuées par le
comité national, avec contrôle a priori et a posteriori. Chaque année, dans leur
demande de moyens, les utilisateurs justifiaient l’emploi des heures utilisées
l’année précédente et donnaient des arguments pour justifier la demande pour
l’année suivante. Pour la gestion du centre, pendant cette courte période, à la
demande de H. Curien, je n’ai eu de contact qu’avec lui, C. Gabriel, le comité
national, les utilisateurs et les différents comités de direction et d’utilisateurs.
Mais cette organisation, efficace à la création n’a pas été pérenne. L’euphorie
n’a duré que quelques mois. Les difficultés sont apparues beaucoup plus tôt qu’il
n’avait été anticipé. Un phénomène inattendu a surgi. Il nous a surpris, mais
une connaissance plus approfondie de l’état de la science dans les différentes
disciplines au niveau mondial nous aurait permis de l’anticiper.
Dès la fin de 1969 la saturation est apparue.
Comment cela se manifeste-t-il ? Plus d’une heure d’attente au dispatching,
et pour les travaux lourds de la nuit, un surplus de plusieurs heures d’exécution
qui restent pour la nuit suivante. Les files d’attente grossissent de jour en jour.
En quelques mois, on a démontré la nécessité d’un moyen de calcul intensif. Le
comité de direction prend acte de la saturation le 25 mai 1970.
C’est une date marquante dans l’histoire du centre de calcul. C’est, un an
après la création, celle du premier comité de direction qui constate la saturation et
en fait l’unique objet de sa délibération. Son président M. Malavard, s’en inquiète.
Il connaissait bien les questions calcul, depuis la création ancienne de son labora-
toire de calcul analogique auquel il s’était consacré avant de passer au numérique.
164 De l’IBM 360/75 au superordinateur Jean Zay

En 1972, il créera le Laboratoire d’Informatique pour la Mécanique et les Sciences


de l’Ingénieur (LIMSI). Pour la première fois est nettement posée la question :
Comment arrêter le processus, comment arrêter la saturation ?
Aucune étude n’était envisagée pour apprécier les résultats obtenus, ni dis-
cuter, chiffres en main la gestion du centre, l’idée sous-jacente étant pour cer-
tains que les chercheurs s’amusaient, inconscients du prix de leur jouet.
S’engage alors une discussion pour savoir comment on peut l’éviter. Il faut
bien remarquer que dans cette réunion de travail, il n’est pas question d’un
examen approfondi des résultats obtenus dans chaque discipline, ce qui évidem-
ment aurait été la seule réaction vraiment constructive.
Force est de constater que si, pour tenter de rattraper le retard abyssal de la
France en matière de service, de production informatique de pointe, un centre
avait été imposé, aucune politique à long terme n’avait été définie. Il était
peut-être difficile, vu le niveau de notre culture en la matière, de prévoir les
besoins exacts en France, le problème étant appréhendé très diversement dans
les différentes disciplines, et aussi de prévoir l’évolution des techniques. On peut
imposer la création d’un centre de calcul. On ne peut pas vous imposer l’idée
qu’il est indispensable pour vous. Il faudra le découvrir petit à petit. Aussi
l’évolution du CIRCÉ et de ses modes de financement s’est-elle faite d’une façon
pragmatique sous la pression des évènements. Quelles sont les solutions pos-
sibles pour éviter la saturation ?
C’est à ce comité qu’apparaissent pour la première fois, les questions sui-
vantes qui deviendront récurrentes.
− Calculs nécessaires ou non ? Quels experts pour en juger ?
− Est-ce la façon la plus économique de les réaliser ?
− Le CIRCÉ est-il saturé parce que c’est gratuit ?
− Le CIRCÉ a-t-il une maturation suffisante pour une gestion saine ?
Ces questions semblent tout à fait normales et justifiées. Ce qui est spéci-
fique à la France, c’est qu’on les entendra, sous la même forme, pendant des
décennies, quelles que soient les réponses qui y seront données, les tableaux et
rapports de tous ordres fournis 129.
La mise en place d’un ticket modérateur est aussi présentée, émise par Leduc
pour obliger les utilisateurs à plus d’attention. Mais ils doivent déjà faire atten-
tion ! Pour les travaux plus longs, en fin de semaine, il y a déjà des files d’attente
de plusieurs heures.
Autre problème évoqué pour la première fois, le calcul du prix de revient de
l’heure qui montre que le gros centre, pour un calcul donné, est le système le
plus économique.

129 Une des causes, mais pas la seule, de l’inefficacité de mes réponses aux questions
récurrentes, m’a peut-être été donnée vingt-cinq ans plus tard. F. Kourilsky m’avait
demandé un rapport sur une plainte déposée par des chercheurs attaquant le CNRS pour
une sombre histoire de fichiers scientifiques perdus. Je concluais, sans ambigüité, qu’ils
étaient responsables et ils ont retiré leur plainte. F. Kourilsky l’a annoncé au comité de
direction du CNRS et a fait circuler le rapport. Peu de temps après l’un des membres qui
avait été directeur scientifique m’a félicitée pour mon enquête, ajoutant : « Si j’avais su
que vous étiez capable d’écrire ça, j’aurais lu vos rapports ».
L’histoire parallèle du centre de 1969 à 1975 165

7.4 Histoire parallèle du CIRCÉ du 25 mars 1970


au 4 avril 1972
La saturation va en s’aggravant. Elle se traduit, pour les petits travaux de jour,
par plus d’une heure d’attente au dispatching, et pour les travaux lourds de la
nuit, un surplus de plusieurs heures qu’on ne peut exécuter. Le retard ne peut
être résorbé, au mieux, que pendant le week-end. En fin de semaine, il est fré-
quent que nous ayons plusieurs dizaines d’heures de retard d’exploitation. Quand
le retard dépasse 50 heures, le centre fonctionne le samedi et dans la nuit de
samedi au dimanche « à guichets fermés », c’est-à-dire qu’on n’accepte plus de
travaux nouveaux, ni au self, ni au dispatching, ni par les terminaux. Il n’y a pas
de période creuse pendant les vacances universitaires. Quand le nombre de mises
au point diminue, le temps d’exploitation libéré est immédiatement absorbé par
les travaux longs en attente. Commence alors ce que le comité de direction du
25 mai considère comme la période la plus sombre de l’histoire du centre. Il y
en aura d’autres ! Et ce n’est que le début de ce que P. Papon appellera plus
tard « la bataille du centre » qui durera des décennies. Malgré le soutien actif
de quatre des directeurs généraux, du directeur administratif J. Creyssel, du
directeur du personnel, C. Gabriel, d’un directeur scientifique et de deux de leurs
chargés de mission, le Centre, à partir de cette date, sera saturé sauf pendant les
deux ou trois mois suivant l’installation des nouveaux matériels qu’on aura pu
arracher aux diverses instances et commissions.
Des précautions avaient été prises pour prévenir les critiques. J’avais fait
nommer au comité de direction, des représentants de l’Enseignement supérieur
dont Loup Verlet, le directeur du centre universitaire PSI à Orsay, Bolliet, res-
ponsable de celui de Grenoble, Berthet qui sera directeur du centre de calcul de
l’université Paris-Dauphine, des représentants des ministères au gré des chan-
gements de ministère de tutelle. J’avais essayé qu’y soient présentes toutes les
composantes des diverses tendances. Il y avait aussi un représentant du CEA qui
longtemps fut A. Amouyal. Le centre de calcul fournissait tous les graphiques et
les témoignages qu’il croyait convaincants et essayait de tenir compte de toutes
les critiques et suggestions. Les comptes rendus de ses séances répondaient aux
questions par des chiffres et étaient approuvés à l’unanimité. Mais rien n’y faisait.
Je n’ai pas su persuader, comme P. Jacquinot l’avait fait des années plus tôt pour
sauver le CNRS de la disparition. Les oppositions avaient des raisons multiples qui
se retrouvaient dans l’interrogation : que vient faire cette usine qui coûte cher ?
L’attitude la plus paradoxale, est celle de Loup Verlet. C’était un brillant phy-
sicien et un écrivain philosophe. Agrégé de l’ENS à vingt-deux ans, il fut le pion-
nier de la simulation par ordinateur des modèles moléculaires dynamiques. Il reste
célèbre parce que, deux ans avant la présentation de notre première consultation
pour l’accroissement de puissance du CIRCÉ, il avait déjà publié ce qui s’appelle
l’intégration de Verlet, méthode d’intégration numérique pour les équations du
mouvement130. C’est dire qu’il ne croyait pas, comme bon nombre de dirigeants de

130 Loup Verlet, « Computer Experiments on Classical Fluids. I. Thermodynamical


Properties of Lennard-Jones Molecules », Physical Review, vol. 159, no 1, juillet 1967,
p. 98-103 (DOI 10.1103/Physe. 159.98).
166 De l’IBM 360/75 au superordinateur Jean Zay

l’époque au CNRS, à l’Enseignement supérieur et au ministère, que l’informatique


était un gadget. L’Enseignement supérieur s’est servi de ses réticences personnelles
pour justifier sa propre position, mais les préoccupations de L. Verlet étaient plus
locales. Il avait fondé à la faculté un centre de calcul universitaire très convivial,
échappé au plan calcul, et s’était équipé de matériel étranger UNIVAC. La nuit il
travaillait plus en service bureau avec l’aide de quelques étudiants et ça convenait
à nombre de ses utilisateurs. Il voyait dans le CIRCÉ sur le même campus que
lui, non pas une adjonction qui pouvait être utile à certains chercheurs, mais un
concurrent, ce qu’il n’était pas. Que tous les utilisateurs satisfaits des services
de PSI continuent d’y aller sans se soucier de notre présence, et que viennent au
CIRCÉ simplement ceux qui avaient besoin de ses services spécifiques. Tout s’est
parfaitement déroulé. Les utilisateurs ne se souciaient pas de leur appartenance
administrative et étaient étrangers à ces querelles qu’ils ne soupçonnaient même
pas. Ils sont venus au CIRCÉ quand ils ont eu besoin de ses facilités.
On visait un 7600 CDC ou en second choix 2×165 IBM et on s’est retrouvé, après
vingt-deux mois de négociations, avec un 165. Les détails de cette transaction sont
donnés pour montrer comment le CIRCÉ, dès sa création, a gagné sa place dans la
cour des grands chez les constructeurs, et est devenu pour eux un client redoutable
dont ils voulaient tous se servir comme d’une vitrine. Mais ce n’a pas suffi.
Cette première consultation était un travail considérable. On ne cherchait
pas le meilleur rapport qualité/prix dans l’absolu, mais celui correspondant à
nos besoins. Depuis l’installation du 360/75, nous procédions en permanence, à
l’enregistrement, au dépouillement et à l’étude de très nombreuses informations
qualitatives et quantitatives sur l’emploi de nos ordinateurs.
Les mesures faites sur une base périodique (quotidienne, hebdomadaire, etc.)
ou par évènement, grâce à des dispositifs hardware ou software spécialisés que
nous avions développés, nous permettaient d’améliorer notre productivité et la
qualité du service rendu. Ils nous ont aussi permis de définir avec précision
les besoins du centre pour le 6e plan, et de constituer un programme d’essais
permettant d’évaluer les performances des ordinateurs proposés, dans notre envi-
ronnement. Après cette longue étude au plus près du travail des utilisateurs, nous
sommes arrivés à la conclusion qu’il faudrait dès le début 1972 doubler la puis-
sance, la quadrupler en 1973 et la quintupler en 1974. Il paraissait raisonnable de
demander aux constructeurs une machine six fois plus puissante que l’actuelle.
En fait, les solutions proposées ne représenteront qu’à peine plus de cinq fois celle
du matériel actuellement installé.
Nous avons présenté notre projet à H. Curien. Dès cette époque, nous avons
eu un soutien sans faille de C. Gabriel, chef du personnel, puis directeur de
Programmes et Moyens, et de P. Creyssel131, directeur administratif et financier.
Ils ont cru au bienfondé de notre entreprise, nous ont écouté, et nous ont soutenu
en toutes circonstances. Ils ont été nos ambassadeurs auprès des hautes autorités
des Finances et de l’Industrie où nous n’avions aucune entrée. La suite du compte

131Introduction au rapport d’activité du CNRS de 1969 (openedition.org).


Pierre Creyssel était étranger à l’institution. Il venait du Conseil d’État. Il s’est rapi-
dement imposé, comme le double, et non l’ombre de H. Curien. Les réformes réalisées à
partir de 1970 portent leur double empreinte.
L’histoire parallèle du centre de 1969 à 1975 167

rendu de notre lutte des deux prochaines années montre leur implication person-
nelle et constante qui pour le centre a été primordiale.

7.4.1 Histoire de la première occasion manquée


Le récapitulatif des évènements de la vie parallèle du centre entre les années 70 et 72,
relate les nombreuses interventions qui ont abouti à l’obtention d’un IBM 360/165,
après deux années de saturation. C’est la première d’une longue série de batailles.
Son étude détaillée fait prévoir qu’elle se répétera à l’identique à chaque demande
de changement du matériel pour cause de saturation du matériel en place et de
nouveaux progrès technologiques que les chercheurs ne trouveraient pas en France.

7.4.1.1. Calendrier de l’opération manquée

8 août 1970 Consultation remise aux constructeurs.


28 septembre 1970 Premier rapport remis à M. Curien sur le dépouillement des
appels d’offres.
30 octobre 1970 Envoi du 2e rapport qui tient compte de leurs remarques
2 février 1971 Envoi d’un rapport à H. Curien : questions à se poser devant la
saturation.
16 février Après trois mois de délibération, le choix se porte sur le 7600 CDC.
5 mars 1971 Intervention d’IBM directement auprès de W. Mercouroff pour
protester contre le choix.
18 mars Discussions au sujet de cette intervention à la direction du CNRS
28 avril H. Curien m’en informe.
28 avril 1971 Lettre à H. Curien rappelant l’urgence du choix.
7 juin 1971 Appel au secours à M. Gabriel.
13 juillet N. Aucagne 132 donne un avis favorable pour un 7600 CDC.
21 septembre Visite à H. Curien qui fait part de ses inquiétudes pour le
financement
24 septembre 1971 Aucun argent disponible. Reconduction des crédits 1970.
29 décembre 1971 240 000 francs pris sur crédits équipements.
3 février 1972 Passage en commission CSMI. Résultat 1×165 IBM.
Fin de l’épisode Dépôt d’un marché à la commission des marchés pour 1×165.
11 février 1972

Figure 75 – Calendrier du changement de matériel

132 Noël Aucagne : secrétaire technique du groupe spécialisé pour les marchés des maté-
riels de bureau électromécaniques et électroniques, rattaché au ministère des Finances,
représente à partir de 1970 le président de la commission à l’informatique du ministère de
l’Économie et des Finances au sein de la commission interministérielle à l’informatique,
section « collectivités locales », commission à l’informatique du ministère de l’Intérieur,
29/10/1970 ([CAC]-930178/art. 5/chemise 206.
168 De l’IBM 360/75 au superordinateur Jean Zay

7.4.1.2. Consultation pour renouvellement de matériel


Nous avons déposé la consultation pour un nouveau matériel deux mois et
demi après que le comité de direction a acté la saturation. Ceci se terminera le
12 juillet 1972, par l’autorisation pour un matériel autre que celui commandé.
L’opération va être détaillée pour plusieurs raisons. La plus importante c’est
qu’il fallait que nous montrions notre professionnalisme, à la fois à notre direc-
tion qui nous faisait confiance et aux constructeurs qui devaient prendre au
sérieux nos arguments techniques. Pour nous, c’était comme un examen de
passage. C’était un des éléments de réponse aux critiques qui nous étaient faites
sur nos capacités techniques et de management. Le texte intégral du cahier des
charges rédigé le 5 août 1970 est donné dans l’annexe 5. La puissance demandée
n’est qu’un des aspects de la consultation. En 1970, les tests LINPACK n’exis-
taient pas. Il fallait donc bien choisir les programmes. Pour 90 % ce sont des
travaux d’utilisateurs dont 57 sont répartis en 4 catégories :
− lot travaux de production caractéristiques des programmes actuellement
exploités, ce n’est pas un échantillon ;
− échantillon de travaux courts, certains vérifient des points précis ;
− utilitaires et facilités opératoires ;
− travaux destinés à vérifier des points précis du fonctionnement hardware
ou software.
Le texte d’accompagnement détaillait les conditions d’organisation des pas-
sages, la façon dont les conversions éventuelles devraient être effectuées, les
éléments de mesure à fournir, les documents, listings, qui devraient être remis,
certaines conditions propres à chaque constructeur (différentes configurations à
tester). Il détaillait chacun des travaux de test et ses conditions de passage. Les
tests devaient pouvoir être effectués à partir du 18 novembre 1970, ceci afin
d’éviter des propositions sur du matériel qui ne serait pas encore opérationnel, et
ne viendrait peut-être jamais. Outre les conditions financières, les constructeurs
devraient tester les conditions de travail particulières au site : chaque jour, plu-
sieurs centaines de travaux de 0 à 60 secondes de CPU et d’autres de 1 à 6 heures.
Des travaux seront interrompus avec check point au bout de quelques heures pour
reprise ultérieure. Tous les périphériques devaient être repris, ainsi que le télétrai-
tement. La maintenance préventive et les modifications devaient se faire de nuit.

7.4.1.3. Comparaison technique des offres


La consultation a été envoyée à 11 constructeurs : Bull-Ce, Burroughs, CDC,
CII, Honeywell : IBM, ECI, NCR, Philips, Siemens, UNIVAC. Elle a été jugée
redoutable. Six d’entre eux ont répondu par lettre, dans les jours qui suivaient
qu’ils ne pouvaient faire de proposition. Burroughs a répondu de même après
visite au CIRCÉ ; UNIVAC, après plusieurs lettres de rappel a répondu qu’il
n’aurait pas de machine pouvant convenir avant juin 1971. La CII, au terme de
huit mois d’une action commerciale irresponsable et fort arrogante, n’a fourni
que très peu d’éléments techniques. En avril 1971, à la sortie de l’IRIS 80, la
compagnie a reconnu ne pouvoir répondre à l’appel d’offres avec le matériel
existant. En effet, sur quelques essais possibles en mars 1971, l’IRIS 80 proposé
était 2,33 fois moins puissant que le 360/75 en service.
L’histoire parallèle du centre de 1969 à 1975 169

La liste des principaux critères de jugement a été établie le 19 octobre, après


de multiples études avec tous les acteurs, ainsi que celle des pondérations qui
devraient leur être affectées le 18 décembre. Il a été établi, qu’un sujet étant
noté sur k points, la solution la meilleure dans l’absolu aurait la note k. Les
solutions pour chaque constructeur seront notées sur k.

Figure 76 – Barème de notation des


configurations proposées

Figure 77 – Classement des trois configurations


retenues

7.4.1.4. Comparaison financière

Mensualité TTC

2 × 165 195 7600 2 × IRIS80

Matériel avant entretien 5j/7,


1 590 000 1 595 000 1 565 000 1 624 000
24h/24

Prestations diverses
(minimum, la 2e année de 79 250 66 750 12 500 ×
fonctionnement)
170 De l’IBM 360/75 au superordinateur Jean Zay

7.4.1.5. Dépouillement et choix


IBM et CDC ont fait d’énormes efforts l’un et l’autre pour obtenir le marché.
Tous deux appréciaient l’organisation du centre, la qualité des équipes et vou-
laient qu’il devienne leur vitrine. Il existait des parcs IBM beaucoup plus impor-
tants que le nôtre (Crédit lyonnais, EDF, etc.), mais seul le CEA avait à cet
instant une machine plus puissante pour le calcul scientifique. Pour CDC, il
s’agissait d’évincer IBM du grand centre « Éducation nationale ».
Le choix s’est vite limité à trois solutions :

IBM 195 grandes qualités hardwares, mais vulnérable : une seule unité centrale. Le
28 septembre nous envoyons un rapport à H. Curien dans lequel le choix se
fera entre le 195 IBM et le 7600 CDC ;
IBM 2×165 grande fiabilité puisque 2 unités centrales, mais pour les gros travaux deux
unités centrales ne s’acquittent pas aussi bien de la tâche qu’un ordinateur
de puissance double ;
CDC 7600 la configuration présente une partie des avantages des deux premières.
D’autre part, alors que les livraisons de l’un et l’autre ne sont prévues que
pour mai 1972, CDC offre l’installation immédiate d’une 6600 pour remé-
dier à la saturation.

Le 28 septembre 1970, un rapport à H. Curien présente l’alternative :


195 IBM, 7600 CDC.
À ces problèmes de choix de machines, se superposent ceux déjà signalés avec
l’Enseignement supérieur et les différents ministères dont celui de l’Industrie
qui veut imposer du matériel français Bull. Et apparaît au premier plan, celui
du recrutement de personnel. On a créé en six mois un centre de calcul intensif
déjà saturé, mais aussi se sont accumulés tous les problèmes inhérents à une
entreprise nouvelle dans l’institution.
Le 16 février 1971, un rapport interne remis à H. Curien, l’informe que les
demandes d’heures pour 1971 correspondent au double de celles disponibles. Il
sera discuté dans une entrevue où sont abordées les quatre questions suivantes
qui reviennent toujours et évitent de s’attaquer au problème de fond : nécessité
pour les directeurs scientifiques ou des experts, de déterminer la pertinence des
résultats scientifiques : tous les calculs effectués ou prévus sont-ils nécessaires ?
Tous les programmeurs sont-ils efficaces ? Comment trier les calculs justifiés
ou non ? A-t-on une motivation pour obtenir une gestion saine du CIRCÉ ?
Analyse des raisons pour lesquelles le prix de revient d’un calcul est plus faible
au CIRCÉ que dans le privé. Difficultés d’interprétation de l’application d’un
ticket modérateur.
Les mois suivants ont été riches en rapports, réunions qui ont abouti au
choix définitif du 7600 CDC.
16 juin 1971 : au comité de direction du CIRCÉ, W. Mercouroff insiste sur
les difficultés financières du CNRS et pense personnellement que le CIRCÉ ne
doit pas grossir.
13 juillet 1971 : N. Aucagne donne son autorisation pour le 7600.
Mais c’est de l’intérieur du CNRS que viennent les retards et difficultés.
L’année suivante, la question ticket modérateur occupe entièrement les réunions
L’histoire parallèle du centre de 1969 à 1975 171

des divers comités. Malgré tous leurs efforts, H. Curien et C. Gabriel ne par-
viennent pas à obtenir des arbitrages budgétaires au sein du comité de direction
les sommes qu’ils avaient demandées, et la mort dans l’âme, nous ont annoncé
qu’on ne pourrait avoir le budget promis au départ.
24 septembre 1971 : nous apprenons que notre budget 1972 serait identique
à celui de 1971. En même temps, on nous demandait d’arrêter le 3600 CDC,
importé de Blaise Pascal, deux ans auparavant. La saturation était telle que le
service se dégradait. Il fallait agir vite, oublier en un jour le travail sur CDC
accompli depuis deux ans, la préparation du 195, tous les stages effectués, et
trouver la solution de sauvetage immédiate ou c’était la disparition. Mais cette
longue étude nous avait formés. Nous et les ingénieurs avions une connaissance
aigüe du marché.
Aussi dès le lendemain 25 septembre, les équipes, encore sous le choc de la
déception, après avoir travaillé pendant des mois à la préparation de matériel
CDC, se sont mises à préparer pour la direction du CNRS un projet d’installa-
tion d’un IBM 370/165 à Pâques 1972. Cette solution présentait les avantages
suivants :
− puissance de calcul doublée à budget constant ;
− possibilité de mise en place progressive rendant l’opération transparente
aux utilisateurs ;
− reprise intégrale de toutes les facilités mises en place pendant le fonction-
nement du 75 ;
− possibilités d’extensions futures ;
− mise en place dans un délai court.
Pour la présentation du projet, nous avons repris des éléments de celui
soumis à la direction le 8 août 1970, c’est-à-dire 20 mois auparavant, mais avec
des différences fondamentales.
− La preuve est faite que les chercheurs ont besoin de calcul intensif.
− La nécessité de travailler à budget constant, fait qu’on ne cherche plus
la machine qui absorbera la charge jusqu’à la fin du 4e plan, mais celle
qui absorbera la saturation pendant quelques mois et on sera revenu à la
situation précédente.
La saturation est telle que le service se dégrade et les utilisateurs ont ten-
dance à en rejeter la responsabilité sur le centre qui ne peut plus leur rendre
le service attendu, auquel ils peuvent prétendre. Les ennuis inhérents à une
machine trop chargée sont exacerbés.
− Très grande sensibilité des utilisateurs au moindre incident hardware ou
software perturbant la production 10 à 20 minutes.
− Délai de restitution des petits travaux passé à 4 ou 5 heures.
− Difficulté permanente pour disposer de l’ordinateur pour des tests néces-
sitant le système (connexion d’un terminal, tests système particuliers…).
− Sensibilité de la production à l’indisponibilité provisoire d’unités périphé-
riques (imprimantes, disques……).
Le projet ayant été accepté par la direction du CNRS, nous l’avons soumis à
l’approbation des divers comités.
172 De l’IBM 360/75 au superordinateur Jean Zay

7.4.2 Installation d’un 165 IBM

16 novembre 1971 Le comité des équipements informatique accepte le projet. Je trans-


mets à H. Curien l’avis favorable de N. Aucagne.
17 février 1972 La Commission Spécialisée des Marchés Informatiques (CSMI),
donne son accord de principe, sous réserve de quelques modifica-
tions au texte du marché.
24 février 1972 Le président du groupe spécialisé donne son visa après examen du
nouveau texte de marché.

Il restait un mois pour organiser le transfert du visa au CNRS, le faire


signer par le contrôleur financier puis faire parvenir le marché signé et visa au
constructeur. Puis il fallait réceptionner la machine. Tout était prêt pour la
semaine de Pâques. Les grandes lignes de l’installation ont été les suivantes :
mise hors service du 360/50 pour libérer un espace suffisant en salle machine.
Installation à sa place de l’unité centrale du 165, de ses canaux, et de quelques
unités périphériques, pendant que la production se poursuivait sur le 75. Mise
hors service du 75 quand les tests sur le 165 ont été satisfaisants. Connexion au
165 de toutes les unités périphériques antérieurement rattachées au 75. Reprise
de l’exploitation sur 165.
La semaine de Pâques a été choisie pour l’arrêt du 75 comme étant celle
qui, dans les premiers mois de 1972, gênerait le moins les utilisateurs (vacances
scolaires et universitaires, jours fériés…). À l’inverse, le personnel du CIRCÉ a
dû respecter un calendrier de vacances permettant par exemple, de disposer de
tout le personnel d’exploitation la semaine précédente (pour suivre des cours),
de tout le groupe système pendant la semaine et le week-end de Pâques, de tout
le personnel d’assistance informatique, dès le début de production du 165.
L’installation de la climatisation a dû être modifiée puisque l’unité centrale
du 165 est refroidie par eau.
L’alimentation électrique de l’unité centrale 400/450 périodes a demandé
l’installation d’un groupe convertisseur Westinghouse, le passage de câbles d’ali-
mentation entre le sous-sol et la salle machine et divers autres aménagements.
Ces travaux ont nécessité l’interruption de la production pendant quelques
heures, de nuit ou le dimanche.
Parallèlement, la réalisation d’une installation permettant d’absorber toutes
les coupures d’alimentation électriques par le secteur a été entreprise, mais le
système n’est entré en service que plusieurs semaines après le début de produc-
tion sur le 165.
4 avril 1972 : mise à disposition du 165 d’IBM. La fiabilité du 165 s’est
révélée meilleure que celle du 75. Elle a encore été améliorée grâce à la qualité
de l’alimentation électrique.
Cette première « opération manquée (installer un 165 au lieu d’un 7600) »
a été très formatrice. J’ai compris que pendant un temps indéterminé, mais
que je supposais long, il faudrait travailler à budget constant. Mais pendant ce
temps, les besoins allaient croitre de plus en plus vite. La seule solution pour
faire face à la demande croissante reposait sur le fait qu’à puissance égale, le
coût des ordinateurs diminuait. On était donc condamnés à travailler souvent,
L’histoire parallèle du centre de 1969 à 1975 173

sinon toujours, près de la saturation. On pouvait espérer aussi des ordinateurs


compatibles, moins chers que les originaux. Mais quelle sera leur qualité ? Les
équipes seront, face à une demande croissante, en perpétuelle adaptation, avec
l’impératif de garder, et même d’augmenter la qualité du service.

7.5 Histoire parallèle du centre d’avril à décembre 1972


Les préoccupations majeures étaient la saturation du centre et les passages
en commission. Cependant la plus grande partie des comités de direction du
CIRCÉ, des réunions des utilisateurs, des réunions de responsables de labo-
ratoires était consacrée au ticket modérateur (TM). À toutes les réunions,
W. Mercouroff, quand il était présent, avait un leitmotiv inchangé : « Le CIRCÉ
ne doit pas grossir ». Le 3 février, je lui ai fait parvenir une note lui posant neuf
questions sur le ticket modérateur. Il n’y a pas eu de réponse. En juillet 1972, le
ticket modérateur est installé officiellement. Nous avions anticipé cette annonce
en mettant en place notre comptabilité sophistiquée et nous l’avons appliqué
scrupuleusement. Au comité de direction du 20 octobre 1972, auquel étaient
présents : M. Amouyal et L. Verlet, L. Malavard recadre le débat en tant que
président. Il insiste sur le rôle particulier du comité de direction : « Le CIRCÉ
est un service. Qui détermine sa politique ? Son comité de direction ou la direc-
tion du CNRS ? Le comité est là pour juger de la qualité du service, des besoins
qu’il satisfait et qui se manifestent, de la qualité de sa gestion, mais ce n’est pas
le lieu où le censurer. » M. Amouyal, au nom du CEA, atteste que le 370/165
est saturé, et qu’il est bien géré. Il préconise son remplacement immédiat par un
IBM 370/168 et l’adjonction d’un IBM 370/145. W. Mercouroff annonce que le
budget 1972 sera celui de 1971. Donc il faut faire des plans à budget constant.
Constatant la croissance des besoins, l’évolution des utilisateurs et la maî-
trise qu’ils ont acquise du traitement numérique, pour la première fois, j’évoque
la possibilité d’un autre centre de service dans la région Sud. Ce serait une
réponse à l’augmentation de taille du CIRCÉ et à la concentration de moyens
dans la région parisienne.

7.6 Histoire parallèle de 1973 à 1975


Le System/370 Model 165 a été saturé dès décembre 1972, malgré le ticket
modérateur. Pour faire face à la situation, un projet d’évolution du matériel
en 1973-1974 a été présenté aux différents comités internes et à la direction du
CNRS en février 1973, comme conclusion aux différentes réunions de concerta-
tion 133. Deux des sujets qu’il traite sont l’augmentation de puissance nécessaire
et l’explosion du télétraitement.

133 Projet d’évolution du matériel informatique du CIRCÉ en 1973 et 1974, Archives de


la DIS.
174 De l’IBM 360/75 au superordinateur Jean Zay

7.6.1 Évolution matérielle et financière


Elle est prévue en trois étapes : augmentation de 106 octets en mémoire centrale
du 370/165 pendant le week-end de Pâques, remplacement du 370/165 par un
370/168 en décembre 1973, et l’adjonction d’un 370/158 en avril 1974.
La justification donnée dans ce rapport qui prépare la constitution des dos-
siers pour passage en commission est la suivante.
« Nous avions proposé en son temps le choix d’un IBM 165 comme la moins
mauvaise solution à notre problème. À l’usage et compte tenu de l’évolution
en 1972 des matériels (et surtout des prix) IBM, alors que rien de nouveau
n’est apparu chez les autres constructeurs, le projet de remplacement de la
configuration 165, par un 168, puis l’adjonction d’un 158 nous apparaît avec
certitude comme la meilleure solution d’avenir. »
Cette multiplication de puissance prévue de l’ordre de 3,6 au moins se faisait
avec une augmentation du prix de revient total du centre (y compris personnel
et amortissement des locaux) de seulement 15,6 %. Cette augmentation a été
absorbée par une partie des recettes du ticket modérateur.

1971 1972 1973 1974


Dépense Dépense Prévisions Approximation

Crédits, sauf location 3 982 200 3 626 500 3 267 700 3 758 000
et entretien ordinateurs

Location entretien 11 535 000 10 790 000 10 915 500 13 612 200
ordinateurs

Personnel toutes primes 3 150 000 3 500 000 3 850 000 4 235 000
et charges patronales
comprises

Amortissement 188 000 188 000 188 000 188 000


des locaux

TOTAL 18 855 200 18 104 500 18 220 500 21 793 200

Figure 78 – Prix de revient du centre de 1971 à 1974

Les opérations semblaient bien préparées. Mais rien ne s’est passé comme
prévu, ainsi qu’il a déjà été expliqué, à cause de pannes, matériel et logiciel. Les
indemnités versées par le constructeur seront pour la moitié récupérées par les
utilisateurs.
Au comité de direction d’octobre 1974, il est fait l’historique des crédits
calcul, budgets alloués aux utilisateurs pour payer leurs calculs :
− en 1972 : crédits « calcul » attribués spécialement ;
− en 1973 : crédits « calcul » avec transformation possible, moyennant un
abattement de 20 % ;
L’histoire parallèle du centre de 1969 à 1975 175

− en 1974 : les commissions avaient une distinction « matériel » et « calcul »,


mais les laboratoires n’avaient qu’une enveloppe globale ;
− en 1975 : les commissions ne pourront plus faire de distinction entre
matériel et calcul ;
− à ce même comité, M. Salem demande si, en cas d’excédent de recettes,
on ne pourrait pas le transformer en crédits calcul. M. Rocherolles pense
que le CIRCÉ devrait calquer la présentation de son budget sur celle d’un
budget d’entreprise, dont il donne un modèle.
Les deux questions qui reviennent sans cesse et occupent tous les débats
sont : peut-on encore augmenter la puissance du CIRCÉ ? Est-il nécessaire
pour le CNRS, de créer un autre centre de calcul dans la région parisienne ou
en province ?

7.6.1.1. Opposition entre les positions de W. Mercouroff et du comité


de direction du CIRCÉ
Une discussion sur ces questions de fond oppose W. Mercouroff et L. Malavard.
Le premier explique qu’il est malheureusement difficile d’avoir une opinion
objective, car il est difficile de juger du bienfondé des travaux soumis par les
utilisateurs, D’autre part, il fait remarquer que le budget du CIRCÉ doit être
plaidé dans le cadre général du CNRS et que c’est difficile.
L. Malavard, soutenu par M. Valensi, représentant des utilisateurs rappelle
que le rôle du comité de direction est de faire des propositions au CNRS. Il
explique que, connaissant bien le CIRCÉ, le comité est capable d’apprécier les
services qu’il rend et qu’il est d’accord pour un accroissement de sa puissance.
Il demande que le budget du CIRCÉ croisse comme celui du CNRS.
Or, de 1971 à 1974, le budget du CIRCÉ a été multiplié par 1,2 à francs
constants, et celui du CNRS par 1,9.
En 1975, il est démontré par les utilisateurs que le ticket modérateur n’a pas
ralenti la demande. Pour la satisfaire, le CIRCÉ explique au comité de direction
de novembre 1975 qu’il rencontre des difficultés d’ordre financier auprès de la
direction du CNRS, auprès du Secrétariat d’État aux Universités (SEU) qui
affirme qu’il se développerait au détriment des centres universitaires, et auprès
de la Mission Interministérielle pour la Promotion de l’Informatique (MIPI)
mise en place pour la défense des moyens de calcul français.
Le Secrétariat d’État aux Universités espère mettre en place une position
commune entre les centres de calcul, ce qui est en effet le but à atteindre. Mais,
il trouve d’autres arguments pour défendre sa position vis-à-vis du CIRCÉ. Il
adopte alors pour la première fois une attitude qui sera la sienne et celle des
différents ministères. Il est devenu indéniable que c’est sous la pression des
utilisateurs que le CIRCÉ demande une augmentation de ses moyens, alors que
c’est par une ponction sur ses recettes que l’Enseignement supérieur finance en
partie ses centres de calcul universitaires. Ce n’est évidemment pas la bonne
solution pour arriver à la vérité des coûts. Toute croissance du CIRCÉ est
176 De l’IBM 360/75 au superordinateur Jean Zay

ressentie comme une atteinte à son égard. M. Chabbert 134 est venu du minis-
tère, nous expliquer que les centres de province percevraient un impôt sur le
CIRCÉ pour chaque travail passé par un utilisateur non parisien. À l’époque,
ils représentaient 30 % de la charge. On ne nous accusait plus d’être de mauvais
gestionnaire, mais, personne n’attachait la moindre attention à nos analyses des
causes de la différence des coûts entre gros centres et petits centres. Personne
n’émit jamais l’idée que les centres universitaires devraient peut-être améliorer
leur gestion. Par exemple, ils ne travaillaient que cinq jours par semaine et en
général, seulement 12 heures par jour, au grand maximum, avec répercussion
immédiate sur le prix de revient d’une heure d’exploitation.
W. Mercouroff et L. Malavard clarifient nettement leurs positions opposées
sur les missions du comité de direction du CIRCÉ. Le premier indique que
l’idée générale est une mise en commun et une gestion globale de l’ensemble des
moyens du SEU, CNRS compris.
« Personnellement, et sans engager le CNRS, je considère qu’il n’est plus
possible pour le CIRCÉ d’envisager une extension dit-il. Pour L. Malavard, il
ne faut pas obliger la direction du CIRCÉ à agir dans une direction ou une
autre, mais plutôt l’inciter à informer la direction du CNRS de ce qu’elle
croit être une évolution souhaitable. »
On mesure le chemin qui restait à parcourir pour faire admettre qu’en France,
on avait besoin d’outils déjà courants à l’étranger. Il aurait été urgent de faire
une analyse critique de toutes les analyses financières présentées par le CIRCÉ,
et si on n’était pas d’accord d’en faire une autre. Mais on les ignorait ou on
faisait semblant de les ignorer.

7.6.2 Évolution du télétraitement


À mesure que les demandes explosent, le développement du télétraitement est
indispensable à trois titres :
− la répartition des utilisateurs sur toute la France ;
− l’organisation de la production. La manipulation d’un très grand nombre
de paquets de cartes et de listings, quelles que soient les précautions
prises, comporte des risques d’erreurs ;
− l’efficacité du travail des utilisateurs. Dans la région parisienne, les temps
de transport du laboratoire au CIRCÉ sont rarement inférieurs à une
heure. Donc quand on vient au CIRCÉ c’est souvent pour la journée. Et
on attend au dispaching entre deux passages de travaux.

134 Conseiller technique pour l’informatique à l’Éducation nationale. M. Chabbert, la


représente au CIGREF (Club Informatique des Grandes Entreprises Françaises). Dans
le compte rendu du 26 juin 1975, il affirme que l’Éducation nationale est prête à par-
ticiper à hauteur de 50 MF dans l’action menée par le CIGREF pour la formation des
informaticiens. Cet enseignement ne donnerait pas lieu à l’attribution d’un diplôme. Ce
système ressemble à celui que venait de mettre en place le CNRS. Pour financer son plan,
M. Chabbert doit trouver des crédits, d’où l’idée de faire payer un impôt au CNRS par
l’intermédiaire du CIRCÉ.
L’histoire parallèle du centre de 1969 à 1975 177

Mais la réalisation du réseau pose des problèmes de planification. Les dispo-


sitifs à installer sur le ou les adaptateurs de télétraitement à mettre au CIRCÉ
et permettant le rattachement des terminaux varient considérablement suivant
le nombre de lignes, leur débit, leur mode de fonctionnement (réseau commuté,
loué, télex). Cet adaptateur est un matériel qui doit faire l’objet d’un marché.
Même si on emploie la procédure accélérée, la démarche est très lourde et para-
lysante. Or, il est impossible de prévoir à l’avance l’évolution du réseau car
la connexion d’un terminal donné dépend de trop de facteurs ; évolution des
besoins d’un groupe d’utilisateurs, entente entre eux, choix du terminal, accep-
tation des autorités de tutelle, obtention des crédits, délais des fournisseurs,
délais de réalisation de la ligne par les PTT. La solution suivante est proposée
aux commissions : le matériel de télétraitement installé au CIRCÉ sera distingué
du reste de matériel du marché. Ce marché distinct pour le télétraitement,
quand il sera soumis aux commissions, portera sur une enveloppe globale à ne
pas dépasser. Et à l’intérieur de cette enveloppe, on pourra procéder par bon de
commande, nécessitant seulement l’approbation de la direction et du contrôleur
financier du CNRS. L’incidence financière prévue est donnée par le tableau
suivant :

1972 1973 1974


(dépenses faites)

759 909,53 F TTC 732 000 F TTC 835 200 F

Figure 79 – Dépenses maximales à prévoir

soit une augmentation de 10 % environ entre 1972 et 1974.


Chapitre 8
Histoire parallèle de 1976 à 1980

Cette période est particulièrement intéressante dans l’histoire du centre parce


que c’est une époque charnière. Nous n’étions plus des débutants. Il était main-
tenant démontré, même si ce n’était pas encore admis partout, que l’informa-
tique était un outil nécessaire, et que la croissance des besoins continuerait.
L’expérience de sept ans de travail en symbiose avec les utilisateurs, la pour-
suite de nos connexions avec l’étranger, nous avaient mûris. Nos batailles pour
nous imposer dans le paysage informatique de la communauté scientifique, notre
confrontation avec les ministères et les commissions informatiques nous avaient
fait découvrir le rôle de la politique dans les choix. Enfin, une nouvelle place avait
été trouvée pour l’informatique de service dans l’organigramme du CNRS et un
changement radical s’était produit dans nos relations avec notre hiérarchie. De
plus, nous avions de bonnes relations avec de grands centres étrangers. Toutes
ces expériences nous avaient aguerris et nous avaient conduits à formuler des pro-
positions possibles pour l’avenir à court, moyen et long terme sur l’informatique
au CNRS, en somme à faire le schéma directeur de l’informatique au CNRS, et
nous dépassions le CNRS, pour nous occuper de l’ensemble des chercheurs. Notre
enthousiasme était intact !
Une étape importante pour nous a été la création du département Sciences
pour l’Ingénieur (SPI). Elle a amené une nette amélioration dans nos rapports avec
les instances du CNRS. Jean Lagasse le signale, plus nettement que je ne l’aurais
fait, dans une interview qu’il a accordé au CNRS. Parlant de ses fonctions en tant
que premier directeur de SPI, il dit de la place de l’informatique au CNRS135 :
« Lors de mes discussions avec Chabbal, je lui avais dit : “je ne comprends pas
pourquoi l’informatique n’est pas liée à l’ensemble qu’on est en train de bâtir.
Pour moi, l’informatique, c’est aussi une science pour l’ingénieur. Si nous ne
la sortons pas du milieu des mathématiques, jamais on ne pourra la développer
au CNRS”. Mais l’affaire n’a pu se faire immédiatement. Le département
“Terre-Océan-Atmosphère-Espace” (TOAE) était dirigé par un mathématicien,
Wladimir Mercouroff, qui ne voulait pas se dessaisir de l’informatique parce
cela aurait déséquilibré la direction scientifique dont il avait la charge ! Les
mathématiques et puis, tout aussi aberrant que cela soit, tout ce qui concernait

135 Jean Lagasse, Archives orales du CNRS.


180 De l’IBM 360/75 au superordinateur Jean Zay

l’Atmosphère-Océan-Espace. Bref, lorsque Jean Delhaye a pris sa succession en


1976, les SPI ont pu récupérer l’informatique ainsi que les moyens de calcul. »
Pour la première fois, alors que précédemment on ne savait où nous placer
dans l’organigramme du CNRS, nous dépendions d’une direction scientifique qui
s’intéressait à nous, et de plus, faisait la distinction entre informatique et moyens
de calcul.
Le souci que nous avions toujours présent à l’esprit était d’amener la com-
munauté scientifique en France au niveau de ce qu’elle était à l’étranger dans le
domaine de l’utilisation de l’informatique, et aussi de mettre en place les instru-
ments pour qu’elle ne décroche plus : noble ambition, non plus pour le CIRCÉ en
particulier, mais pour l’ensemble de la communauté scientifique académique. Nos
efforts pour lui ouvrir les yeux et l’obliger à mesurer son retard avaient jusque-là été
vains. Nous sentions bien que c’était au-dessus de nos capacités, mais le sentiment
de notre impuissance n’était pas assez fort pour nous empêcher d’essayer. C’est
pourquoi, au début de janvier 1976, nous avons diffusé un volumineux rapport136 :
Rapport sur l’informatique en tant que service dans l’Enseignement supérieur et le
CNRS. J’étais toujours pour mon activité de chercheur en collaboration étroite avec
le JPL de la NASA à Pasadena, et avec les universités CALTECH de Pasadena et
UCLA, de Los Angeles, où des collègues faisaient les interprétations de nos résul-
tats. J’avais donc une expérience pratique de grands centres travaillant en réseau137.

8.1 Le schéma directeur de 1976 pour l’ensemble


CNRS-Enseignement supérieur
C’est un plan novateur, ambitieux et optimiste. Évidemment, conscients de
notre insignifiance, nous l’appelons maintenant schéma directeur, mais nous ne
lui avions pas donné ce nom à l’origine. Il y est écrit dès le début que, contrai-
rement à notre habitude, nous ne présentons pas, un remède « circéen », mais
« humblement », quelques suggestions aux autorités.
Au cours de notre réflexion, avec les commentaires et les critiques et avec
les changements de technologie, il a évolué. Nous avons fait des rapports pério-
diques envoyés à R. Chabbal, directeur général, C. Gabriel, J. Sevin, directeur
de la stratégie et des moyens, et bien sûr à J. Lagasse qui nous a suivis et
avec qui nous avons eu de nombreuses discussions. Nous avons aussi profité de
conversations avec Hubert Curien et Paul Caseau 138. Tous ces documents sont
rassemblés dans un ensemble intitulé Ensemble des documents transmis, pour

136 J. Connes et P. Salzedo, Rapport sur l’informatique en tant que service dans l’Ensei-
gnement supérieur et le CNRS, Archives de la DIS, janvier 1976.
137 Note de l’auteure : Il subsistait bien quelques difficultés, non pas pour des questions

de moyens de calcul, mais de sécurité. Le JPL pendant la guerre avait été un point
extrêmement stratégique. On y faisait maintenant en bonne partie de la recherche acadé-
mique. Mais si les transferts de données vers l’extérieur fonctionnaient bien, par réseaux,
il subsistait quelques règles anciennes pour les documents qu’on était censé sortir. Et
faute d’avoir mis à jour mes diverses autorisations, il m’est arrivé, à cette époque, de
passer le poste de garde avec des listings sous le siège de ma voiture.
138 Paul Caseau, directeur des études et recherches d’Électricité de France.
Histoire parallèle de 1976 à 1980 181

étude, par le CIRCÉ, à la direction générale du CNRS, entre le 20 janvier 1976


et le 16 avril 1977 139, comprenant la nombreuse correspondance avec les quatre
personnes de la direction du CNRS citées plus haut, et les autorités de tutelle. Il
sera suivi de deux autres qui couvriront les périodes, 15 avril 1977à 8 décembre
1978 et 16 décembre 1978 à 15 juillet 1980.
Ces ensembles reprennent toutes les variations que nous lui avons apportées
à mesure que les années passaient, dues à l’apparition des compatibles IBM et
de la reconnaissance par la CII des insuffisances du matériel français pour cer-
taines de nos applications.

8.1.1 Les considérations de base


Pourquoi s’être lancée, à l’époque, dans une telle prospective ? En premier lieu
et raison suffisante, parce que personne d’autre ne le faisait et que la crainte de
voir la France encore reculer dans les classements mondiaux dans le domaine
était grande. Une autre raison aussi importante, était l’espoir qui s’est révélé
vain, mais sans doute par maladresse de ma part, d’élever le débat. En France,
on avait un challenge : donner aux chercheurs les moyens de travailler, mais ça
coûtait cher. Alors pourquoi dépenser notre énergie à des discussions stériles
sur des sujets dépassés qui nous ridiculisaient aux yeux de nos collègues étran-
gers ? J’espérais répondre, en changeant d’approche, à toutes les critiques dont
le CIRCÉ était l’objet. Des critiques, il y en avait à faire, ô combien. Mais pas
celle de grossir par orgueil, aux dépens des centres universitaires plus petits
qu’on étoufferait, et qui était répété comme une litanie. On avait de vrais défis
à relever : la contrainte imposée par la politique nationale de subvenir aux
besoins avec du matériel français, trouver des solutions pour que la politique du
ticket modérateur soit moins pénalisante pour les usagers, se tenir au courant de
l’avancement de leurs recherches pour anticiper leurs besoins et chercher pour
eux les meilleures solutions. Là était le seul vrai problème : le meilleur service à
un moindre coût. J’ai senti le besoin, non pas de taper sur la table, mais de dire,
comme on le dirait à des gosses dans la cour de récréation : ça suffit, arrêtons.
Il ne s’agissait plus seulement de convaincre les responsables trop nombreux
qui pensaient encore, que l’accroissement rapide de la demande tenait à un
engouement, une mode dans une population d’utilisateurs néophytes, encou-
ragés par des informaticiens intéressés. Il fallait être lucides, comprendre que
nous n’étions pas seuls au monde et que tout bougeait autour de nous.
Quatre idées dominent le rapport :
− dans les centres de calcul, un bon matériel c’est bien. Un bon personnel
et une mission clairement définie, c’est vital ;
− dans la plupart des disciplines, on a dépassé le stade informa-
tique = mode. On en est à informatique = besoin important. Dans deux
à cinq ans, ce sera informatique = outil indispensable ;
− le prix de revient de l’informatique ne baissera pas considérablement
avant 1980 au moins. Les besoins grandissants, l’optimisation économique

139Ensemble des documents transmis, pour étude, par le CIRCÉ à la direction générale
du CNRS, entre le 20 janvier 1976 et le 16 avril 1977, Archives de la DIS.
182 De l’IBM 360/75 au superordinateur Jean Zay

sera d’ici là primordiale si le CNRS ne veut pas être saigné à blanc par
les dépenses de calcul ;
− dans les choix informatiques, négliger l’utilisateur équivaudrait à ignorer
l’usager dans les questions de transport en commun.
Pour la réalisation, il faudra :
− des unités centrales puissantes ;
− une implantation bien suivie de moyens de traitements locaux (dévelop-
pement de la mini et micro-informatique nécessaire) ;
− un développement du stockage de données et de la gestion de masse des
données qui croissent très vite ;
− et pour que tout fonctionne un réseau maillé efficace.
On trouve aussi dans le rapport un état des lieux sans concessions du sys-
tème alors en service, une analyse très fine des coûts, l’étude de plusieurs hypo-
thèses de réalisations avec leurs avantages et inconvénients, et aussi, bien sûr,
une analyse des besoins des utilisateurs, des logiciels et des algorithmes qu’ils
emploient, ce qui reste notre souci majeur pour les guider.
Le but est de trouver des solutions à une situation préoccupante qui tient à
plusieurs facteurs : l’un est le fait qu’il n’y a dans les décisions qui sont prises
jusqu’alors aucun plan d’ensemble, aucune anticipation de plus d’un an, un
autre que les centres de calcul de la Direction de l’Enseignement supérieur et de
la Recherche (DESUR) et du CNRS, s’affrontent dans une pseudo-concurrence
économique assez violente pour rendre difficile tout projet commun.

8.1.2 État des lieux


Il faut commencer par un état des lieux, voir d’où l’on partait et mettre des
chiffres sur des réalités, au lieu de répéter : la France a un retard par rapport
à l’étranger, mais on va le rattraper. On devait faire l’exercice, même si les
résultats des mesures sont cruels.
En comparaison avec l’étranger, les mesures faites début 1976, montrent
que la somme des travaux effectués dans l’ensemble DESUR + CNRS conso-
lidé équivaut à ce qui est traité dans un seul des principaux centres univer-
sitaires de Californie, moins que dans les universités canadiennes, moins que
dans une grande banque française. Nous dépensons plus, mais consommons
moins.
En France, en interne, compte tenu des moyens en place et de la produc-
tivité des centres, la somme des travaux universitaires effectués à Besançon,
Bordeaux, Clermont-Ferrand, Grenoble, Le Havre, Lille, Lyon, Montpellier,
Nancy, Nantes, Nice, Poitiers, Reims, Rennes et Toulouse, doit représenter, à
peine, environ, les trois quarts de ce qui est fait au CIRCÉ et le CIRCÉ lui-
même pourrait être considérablement amélioré.
Un effort considérable doit être fait pour aboutir à :
− des configurations équilibrées. Exemple : étendre la mémoire de l’IRIS 80
du centre X, pour permettre une réelle multiprogrammation ;
− un environnement en personnel suffisant en nombre et niveau. Exemple :
donner deux postes d’opérateur au centre Y pour travailler 24h/24 au lieu
d’étendre une configuration qui n’est pas saturée ;
Histoire parallèle de 1976 à 1980 183

− une analyse et un contrôle de chaque centre : prix de revient tout com-


pris, des règles d’organisation et gestion à établir avec des techniques de
financement plus souples et astucieuses ;
− une meilleure productivité, un meilleur service, un moindre coût.
Bref, il y a beaucoup à faire.

8.1.3 Proposition de participation du CIRCÉ


Le CIRCÉ est prêt à :
− exposer à tous les responsables politiques et techniques la façon dont le
CIRCÉ est organisé, géré, ses budgets, ses coûts, ses recettes ;
− accueillir des stagiaires venant d’autres centres ;
− participer à tous les groupes d’études, sur tous les sujets. Ces études
doivent commencer très vite, avec trois personnes au plus et communica-
tion aux centres ;
− entreprendre des négociations avec les fournisseurs à l’échelon de l’admi-
nistration entière.

8.1.4 Les grandes lignes du rapport de prospective


Les points principaux sont :
− la création d’un CIRCÉ 2 dans le Sud de la France ;
− l’accroissement des matériels utilisés en mini et maxi informatiques avec
soutien à 3 ou 4 centres locaux plus importants ;
− développer le stockage et l’exploitation des données ;
− relier le tout par un réseau maillé.
Bien que sa principale caractéristique soit de concerner l’ensemble
DESUR+CNRS, je ne pouvais dicter à l’Enseignement supérieur son schéma
directeur. En revanche, je pouvais parler au nom du CNRS, quitte à ce que sa
position soit affinée. C’est pourquoi j’ai appelé le centre à créer en province
CIRCÉ 2. C’était une image pour dire : de la taille de CIRCÉ 1, et surtout fonc-
tionnant avec les mêmes règles que lui. Peu importe l’organisme de tutelle. Ces
querelles devaient être dépassées. L’objectif à viser, c’était deux centres, l’un à
Orsay, l’autre en province, répondant à la demande croissante de calcul intensif
et préparant les chercheurs ou bien à utiliser leurs services, ou bien à s’équiper
en matériel local pour tout ce qui pouvait être fait en local, le tout étant relié
par un réseau maillé. D’ailleurs dans ses premiers rapports l’Enseignement supé-
rieur a appelé le deuxième centre CIRCÉ bis.
La création d’un autre centre dans le Sud n’était pas une idée nouvelle. Je
l’avais évoquée dès 1972, l’avais soumise pour discussion à un comité de direction
en 1974. En 1976, elle s’est structurée. Ce nouveau schéma pour l’informatique
a été soumis à toutes les autorités. Il a été officiellement discuté au comité des
utilisateurs de décembre 1976. Il est écrit dans le compte rendu de cette réunion :
« Projet d’implantation d’un CIRCÉ bis qui, normalement, si les projets en
cours aboutissent, devrait se faire dans les 4-5 ans qui viennent. Si c’est un centre
CNRS, il faut trouver l’argent pour le terrain à acheter, peut-être Valbonne. »
184 De l’IBM 360/75 au superordinateur Jean Zay

L’avenir montrera que ce deuxième centre s’installera à Montpellier et ce sera


un centre de l’Enseignement supérieur. Il faut comparer cette organisation avec
celle du GENCI mise en place vingt-sept ans plus tard.

Propositions 1976 Organisation du GENCI en 2007


2 centres centraux 3 centres nationaux
CIRCÉ 1 à Orsay IDRIS ancien CIRCÉ 1 à Orsay
CIRCÉ 2 à Valbonne ou Montpellier CINES ancien CNUSC à Montpellier
TGCC au CEA à Bruyères-le-Châtel
Développer l’informatique répartie Mésocentres
Déjà commencée
Augmentation du stockage de données Explosion du stockage de données
Réseau maillé entre centres Réseau maillé RENATER et PRACE
Essai immédiat d’un réseau triangulaire
CIRCÉ 1, CIRCÉ 2, Grenoble

8.1.4.1. Organisation générale des ordinaires centraux


Le graphique suivant (figure 80) illustre les trois possibilités de relations entre
les deux centres nationaux quelle que soit leur appartenance.

Figure 80 – Éventail des solutions envisagées pour les relations CIRCÉ 1 et CIRCÉ 2
Histoire parallèle de 1976 à 1980 185

8.1.4.2. Propositions générales pour un vaste réseau


Nous étions incapables de dire abruptement si oui ou non le réseau expérimental
Cyclades, de l’IRIA, était LA solution d’avenir. Nous avons donc proposé une
approche basée sur quelques remarques préliminaires et un mini-dialogue.

Réseau Cyclades
6
Réseau NPL Londres

Vers réseau ESRO


7
8 5

PARIS
9 1
2
10 RENNES
10b
11

16
3 4
17
GRENOBLE

18
14 15
12
TOULOUSE 13
Ligne existante
Ligne projetée
Noeud CIGALE disponible pour raccordement clients
Concentrateur de Terminaux (CT)
Centre Participant (CP) offrant des services (TS, RB) dès à présent
Centre Participant en phase d’expérimentation
Réseaux locaux ou nationaux

Figure 81 – Armoire des projets pilotes, dossier Cyclades, 1975

En 1977-1978, un effort a été entrepris pour relier les ordinateurs du CIRCÉ


au réseau Cyclades. Ce devait être le banc d’essai de TRANSPAC. La réalisation
devait être opérationnelle en décembre 1977. Un contrat IRIA-SFENA devait
fournir le logiciel, moyennant l’achat d’un convertisseur d’interface SFENA, le
CO500. Des premiers essais infructueux ont eu lieu avec l’IRIA, puis par un
MITRA 15 avec l’université de Nancy. Ils furent interrompus parce qu’il ne pou-
vait y avoir émission et réception simultanées. Le rapport final du 14 décembre
1978 conclut : « l’expérience acquise pour la préparation TRANSPAC est nulle
d’où un retard pour le CIRCÉ de 12 mois. »
186 De l’IBM 360/75 au superordinateur Jean Zay

8.1.4.3. Proposition à court terme pour le réseau


Pour bien montrer que notre « schéma directeur » n’était pas une utopie, qu’il
fallait aller vite, qu’il fallait commencer tout de suite, et qu’il y avait beau-
coup de travail, nous avons proposé au secrétariat d’État des universités dont
nous dépendions, un plan de mise en œuvre rapide d’un projet. C’était la pre-
mière étape de réalisation du réseau maillé que nous préconisions. Nous vou-
lions démontrer par des actes et non par les mêmes discours généraux répétés à
satiété, qu’on pouvait avancer. Un projet qui incluait la province, une collabo-
ration CNRS-université, qui visait l’ouverture, quoi de mieux pour nous rappro-
cher d’une solution, qui dès cette époque, apparaissait inéluctable ?
Le CNRS voulait participer à partir de la rentrée 1976 à l’étude et la réali-
sation d’un réseau triangulaire, base expérimentale du réseau maillé interuniver-
sitaire que souhaitait théoriquement réaliser le SEU 140. Il devait relier CIRCÉ 1,
CIRCÉ 2 et le centre de calcul universitaire de Grenoble, le CICG. Pourquoi
Grenoble ? Parce que c’était un centre qui marchait bien, que nous connais-
sions bien Louis Bolliet qui en serait le responsable puisqu’il faisait partie de
notre comité de direction. Il connaissait le protocole Cyclades, ayant une liaison
INRIA-CICG. Nous avons eu plusieurs réunions de travail et préparé le dossier
complet à présenter aux instances ministérielles et à la commission des marchés.
Nous l’avons transmis à J. Lagasse, qui l’approuvait 141. Mais le projet n’a pas
eu de suite. On pourrait dire : notre troisième échec.

8.1.5 Multiplication des installations locales


En six ans, la charge du CIRCÉ venant des terminaux répartis sur tout le ter-
ritoire est passée de 10 à 65 % de la charge totale. La puissance utilisée ayant
plus que quadruplé dans le même temps, on voit que le poids des installations
terminales a été multiplié par 26. Considérer leur évolution comme primordiale
n’est donc pas une clause de style.

8.1.5.1. Évolution dans la répartition des effectifs


L’intérêt des usagers est que le groupe qui les aide directement soit le plus
important, et que celui qui sert les ordinateurs réduit au minimum. À ce
moment précis, dans 15 centres universitaires pour lesquels les chiffres sont

140 Si le CIRCÉ était créé suivant notre proposition, la réalisation d’un réseau en serait
facilité.
Réalisation entre CIRCÉ 1 et CIRCÉ 2 d’une connexion à grand débit.
Autour de CIRCÉ 2, réalisation d’un réseau Sud-Méditerranéen, qui accéderait égale-
ment à CIRCÉ 1, et auquel accéderaient tous les terminaux connectés à CIRCÉ 1.
Raccordement à une « épine dorsale » des autres centres intéressés tous les terminaux
connectés à CIRCÉ 1.
Raccordement à une « épine dorsale » des autres centres intéressés.
141 Projet de liaison triangulaire, dossier déposé à J. Lagasse, 21 juillet 1976, Archives de

la DIS.
Histoire parallèle de 1976 à 1980 187

disponibles, sur un total de 327 agents, 226 sont consacrés à l’exploitation, 37


à l’assistance et il en reste 64 que nous n’avons pu classer. Les ordinateurs sont
manifestement bien plus servis que les usagers. Ceci parce qu’un usager arrive
à se « débrouiller » sans assistance, alors qu’un ordinateur ne se débrouille pas
sans opérateur ni système. Comme il y a pénurie de postes, on sert d’abord les
ordinateurs. La situation est la même partout, CIRCÉ compris. Mais l’évolution
commencée au CIRCÉ en 1976, va s’amplifier très vite au début des années 80
et ne s’arrêtera plus.
Il est inutile de se faire des illusions. Qui aura lu ce rapport ? Que sortira-t-il
de toutes ces élucubrations ? De l’intérêt de la part de nos fidèles à la direction
du CNRS, de L. Malavard, de H. Curien, et de P. Caseau de l’EDF. Mais il était
inutile de se faire de faux espoirs. Les relations avec l’Enseignement supérieur
allaient se détériorer jusqu’en 1980. Ce rapport fait partie de l’histoire parallèle
du CIRCÉ. Mais nous n’avions pas oublié nos utilisateurs pour rêver. Nous
continuions à faire vivre le CIRCÉ 1, avec les mêmes difficultés et en plus une
opposition grandissante et surtout plus organisée de l’Enseignement supérieur.

8.2 Nouvelle organisation du contrôle des achats


informatiques
La période 1976 à 1979 est très compliquée pour nous. Elle l’est aussi pour le
CNRS et ses relations avec l’Enseignement supérieur, comme il est raconté dans
le livre de D. Guthleben souvent cité. Je vais simplement dire ici comment elles
sont apparues à la direction du CIRCÉ et comme il a fallu tenir pour résister à
ce qui, sans dire son nom, était un étouffement programmé du centre de calcul.

8.2.1 Nouvelles règles d’examen des dossiers


En 1969, j’avais choisi de créer un centre dédié aux chercheurs de pointe, et tant
que cela serait nécessaire à la formation de ceux qui découvraient l’informa-
tique dont ils auraient besoin. Or, voilà que la direction du CIRCÉ se trouvait
coincée dans une organisation où on parlait surtout d’enseignement, de gestion,
et où en quatre ans tous les dossiers qu’elle a présentés n’ont pas été examinés.
Pendant toute cette période, il a fallu tenir pour subsister et en même temps
maintenir le moral du personnel, dont plusieurs membres parmi les meilleurs
ont démissionné, pour trouver un travail plus excitant que celui que nous pou-
vions leur offrir. Encore aujourd’hui, ceux qui restent me disent l’impression
de fin d’aventure qu’ils avaient. Ils partaient, pour échapper à une catastrophe
naturelle à laquelle on ne voyait pas d’issue. Et ils voulaient vivre. C’est aussi
l’époque où tous les constructeurs voulaient s’attacher les services de P. Salzedo,
car ils souhaitaient nous aider, mais ne voyaient pas comment nous allions nous
en sortir. Sans se perdre dans le dédale des créations officieuses, officielles, non
pas contradictoires, mais différentes, des non-dits, voici ce qu’a vu de ce passage
de quatre années une direction de centre de calcul du CNRS, qui, soutenue par
les chercheurs ayant besoin de ses services, essayait de faire pénétrer l’idée que,
188 De l’IBM 360/75 au superordinateur Jean Zay

dans le futur, le calcul intensif allait jouer un rôle d’outil de plus en plus vital
pour la recherche, dans toutes les disciplines. Quand, plus tard, m’est parvenu
l’épais dossier des archives de l’Enseignement supérieur, sur les convocations et
rapports de séances des divers comités mis en place pendant cette période pour
l’informatique 142, j’ai mieux compris d’où étaient venus nos problèmes et nous
avons tremblé rétrospectivement en voyant ce à quoi nous avions échappé.
1976 a été une année de remous pour les ministères de l’Éducation nationale,
de la Recherche, de l’Université etc. En ce qui concerne l’informatique :
Le 21 octobre 1976, l’article 4 d’un arrêté fixe les fonctions d’une commis-
sion à l’informatique et de ses comités. Il y avait déjà une commission inter-
ministérielle qui, avec le ministère de l’Industrie (MI) avait pour mission la
promotion du matériel français. Nous en serons avisés officiellement le 30 mars
1977. Le ministère des Universités (c’est ainsi qu’il apparaît dans tous les rap-
ports) a créé un sous-ensemble DESUR-CNRS avec une mission à la recherche
présidée par J.-F. Denisse. De lui dépendait une commission à l’Informatique. Il
en a confié la responsabilité à Mme Connat, directrice du centre de calcul uni-
versitaire du Pharo à Marseille et le secrétariat à M. Maillaux. Pour nous, c’était
la redoutée Commission des Moyens Informatiques (COMI). Elle s’est fait aider
par des commissions pour l’enseignement, la gestion, les spécialités, l’informa-
tique polyvalente etc. À ces commissions, se sont associés les services de comités
techniques à effectif pléthorique, mais peu techniques. Celui qui était censé s’oc-
cuper de nos dossiers était le Comité Technique de l’Informatique polyvalente
(CTIP) avec son rapporteur permanent, M. Johannin président directeur tech-
nique du centre de calcul universitaire Paris-Sud Informatique (PSI). Je dis bien
« censé » parce que, en fait, de fin 1976 à janvier 1980, nos dossiers importants
ne lui sont jamais parvenus.
« Le mercredi 30 mars 1977, sont réunis à 9 h, au secrétariat d’État aux
universités, les membres du Comité Technique d’Informatique Polyvalente
afin de procéder à la mise en place de ce comité créé par l’arrêté du 21 octobre
1977 (JORF du 31 octobre 1976) 143. »
À cette première réunion du CTIP, son président M. Hirel nous informe du
rôle du secrétariat de la commission de l’informatique : « il joue un rôle de
conseil et veut voir TOUS les projets d’équipement quelle que soit l’origine du
financement ou de la nature des crédits. Pour les examens importants il y aura
séance plénière. »
Le rapporteur transmettra les avis du comité technique à la commission
informatique qui tranchera. Il n’est plus question pour le CNRS de faire un
plan pour son informatique. C’est la commission qui s’en occupe exclusivement
et en fixe la politique. Jusqu’au 21 décembre 1979 M. Hirel et Y. Maillaux ne
cesseront de le répéter dans toutes les séances (il y en a une environ tous les
deux mois).

142 Ensemble des rapports des comités de gestion et d’informatique polyvalente de l’ES
conservés dans les Archives de la DIS.
143 Extrait du procès-verbal de la réunion du 30 mars du CTIP.
Histoire parallèle de 1976 à 1980 189

À côté de cette organisation est apparu un groupe pilote sous la responsa-


bilité de Mme Connat assistée d’un groupe d’ingénieurs censé faire un schéma
directeur pour l’ensemble DESUR-CNRS et mettre en œuvre les décisions des
différents comités.

Figure 82 – Cheminement d’un dossier dans les diverses commissions


190 De l’IBM 360/75 au superordinateur Jean Zay

Le directeur général du CNRS était un membre nommé du CTIP. Inutile de


dire qu’il n’y est jamais venu. Mais il s’est fait remplacer par C. Gabriel qui,
lui, a assisté assidument à toutes les séances. Il n’était pas technicien mais il
ne fallait pas laisser vide la chaise du CNRS. En trois ans, il n’a pris la parole
que deux fois, une pour présenter le budget informatique du CNRS, l’autre pour
dire que l’organisation lui paraissait opaque et compliquée et allait entraîner des
retards préjudiciables, lui semblait-il. Beaucoup d’autres protestations, beau-
coup plus vives, ont vu le jour de la part des directeurs des centres de calcul
universitaires dont celles de M. Delobel du Centre Informatique de Calcul de
Grenoble (CICG). Il disait douter de la compétence technique des membres
choisis. Suivent de nombreuses questions. En réponse, M. Hirel rappelle que le
ministère des Universités veut avoir une vue d’ensemble pour la cohérence.
Finie la discussion. On passe à l’examen du cas de Grenoble. Mais M. Hirel
demande aux participants de mettre leurs remarques par écrit. À une autre
séance, le 27 janvier 1970, M. Hirel insiste sur le caractère de haute confidentialité
des documents élaborés par l’équipe projet, ceux-ci n’étant qu’un outil de travail,
éléments d’une analyse qui se poursuit.
Le cheminement d’un dossier entre les différents comités, commissions, était
si compliqué que le schéma suivant nous fut distribué en séance à notre demande.

8.2.2 Conséquences pour le CIRCÉ


La situation était paradoxale. En apparence, tout était pour le mieux dans le
meilleur des mondes. Enfin la grande réunion Enseignement supérieur-CNRS
était faite dans un domaine restreint, de multiples comités techniques et autres
étaient constitués, un grand schéma directeur était en perspective. Qu’est-ce que
le peuple peut demander de plus ? Pourquoi ça ne fonctionnera pas tout de suite
et que la situation va encore se détériorer ? Tout ceci est parfaitement expliqué
dans la note interne que P. Salzedo a envoyé le 15 décembre 1979 à J. Ducuing144
qui prenait ses fonctions de directeur général du CNRS. La note présentait un
des dossiers épineux qui l’attendaient. Une partie de cette note est reproduite
dans l’annexe 12. Plusieurs facteurs perturbateurs insidieux enlèvent tout sens
aux discussions dès que le mot CIRCÉ est prononcé. On peut citer une fausse
appréciation de la place de la France dans son développement de l’informatique
par rapport à l’étranger. Elle ne cesse de reculer, mais la commission ne s’en aper-
çoit pas. Le mot calcul intensif n’est pas prononcé une seule fois en quatre ans au
CTIP. Ce n’est pas le lieu où en parler ! Mais c’est ce qui nous intéresse ! Ne pas
l’anticiper, c’est se condamner à mort. Un autre facteur est toujours le sentiment
que le CIRCÉ’ est la source de tous les maux des centres de calcul universitaires.
Alors il faut le stopper dans son développement, le noyer dans la masse. Il y a
une technique imparable et à première vue irréprochable : le gérer administrati-
vement comme un centre universitaire de plus. Il sera jugé sur les mêmes critères,
même si ses fonctions sont différentes. La demande de moyens qu’il doit remplir
stipule qu’il doit signaler si dans ses fonctions, il travaille éventuellement pour la

144 Rapports sur les problèmes d’évolution des matériels informatiques installés au centre
interrégional de calcul électronique.
Histoire parallèle de 1976 à 1980 191

recherche (annexe 26). Il attendra son tour. Il n’y a qu’à le bloquer jusqu’à ce
qu’on juge qu’il n’est plus gênant. Les utilisateurs de calcul intensif qui se déses-
pèrent ? On ne les connaît même pas. Qu’ils attendent ou aillent ailleurs. Tant
que ce sentiment persistera, il empêchera la discussion sur les questions de fond.
Le problème était ce qu’en théorie de l’information, on appelle un problème
mal posé. Il suffira de le poser autrement. Ça prendra du temps, mais ça viendra.
Il suffit de tenir, et tout le monde s’en sortira grandi.

8.3 Schéma directeur de l’informatique


de l’Enseignement supérieur
Madame Connat, agent du CNRS, directrice d’un centre de calcul universitaire,
avait à gérer les besoins en informatique de 900 000 personnes, comme c’est reporté
dans un rapport consultatif de la cellule informatique145. Ils se répartissent entre :
35 000 administratifs
22 000 chercheurs
42 000 enseignants
820 000 étudiants
Ils étaient clients de 4 centres CNRS et de 22 centres de calcul universitaires
(CU) répartis sur le territoire national comme le montre la figure 83.

Figure 83 – Ensemble des villes reliées et installations des centres de calcul recensés

145 Points d’accès et réseaux, 17 décembre 1979, p. 3, Archives de la DIS.


192 De l’IBM 360/75 au superordinateur Jean Zay

Les responsables de l’informatique à l’Enseignement supérieur avaient en charge


la gestion des universités, l’enseignement et une certaine catégorie de chercheurs.
On conçoit facilement que l’Enseignement supérieur avait de bonnes excuses pour
ne pas s’occuper du CIRCÉ qui restait pour tous, sauf les chercheurs, le centre
source de tous leurs maux et qu’il fallait contrôler pour pouvoir vivre.
Cette élaboration qui nous intéressait particulièrement puisqu’il s’agissait de
notre avenir, s’est faite de façon ambigüe, mais nous avons pu « sauver les meubles ».
Il y avait d’un côté les groupes techniques où on ne parlait jamais du CIRCÉ,
occupés qu’ils étaient par les problèmes immédiats des centres universitaires. D’un
autre côté, il y avait les exposés que Mme Connat faisait de temps en temps au CTIP
pour exposer les progrès du groupe pilote, mais sans discussion de fond. Et enfin,
d’un troisième côté, des déclarations du secrétariat de la COMI, qui montrent bien
qu’on s’oriente, sans le dire, mais non plus sans le cacher, vers le schéma directeur
que nous avions proposé en 1976. Un des exemples frappants est le procès-verbal de
la 6e réunion du CTIP du 23 mai 1978. À la page 1, il est écrit que M. Hirel nous
informe que la commission avait choisi comme base de travail du groupe pilote :
− deux centres nationaux de grande puissance, l’un étant le CIRCÉ,
l’autre devant se situer dans le Sud ;
− quatre centres nationaux de forte puissance ;
− le maintien de quelques centres spécialisés ;
− l’orientation des autres centres en centres de prestation.
En revanche, à la page 2, Mme Connat commence son exposé avec quatre
scénarios entre lesquels rien n’est décidé, dont l’un avec 3 ou 4 gros centres. Dans
son premier transparent, elle en a mis seulement trois qui seront choisis parmi les
26 pointés dans la figure 84.

Figure 84 – Une des options du schéma directeur du 23 mai 1978 (exposé de Mme Connat)
Histoire parallèle de 1976 à 1980 193

Le même jour circulait une note manuscrite d’Y. Maillaux avec ce qui sera le
schéma définitif (figure 85).

Figure 85 – Note manuscrite d’Y. Maillaux du secrétaire de la COMI (collection de


l’auteur)

Il a été reconnu qu’un travail donné revenait moins cher dans un gros centre,
mais on ne vise plus l’uniformité des tarifs. Mme Connat avait, comme justifica-
tion, exposé que les centres universitaires avaient des contraintes « humaines et
environnementales » que n’avait pas le CIRCÉ. Les personnels universitaires ont
des horaires plus souples, des vacances plus longues qu’au CNRS. Ils ont à subir
des grèves. Donc, il est impossible pour un centre universitaire de couvrir autant
d’heures d’ouverture que le voudrait la rentabilisation du centre de calcul.
194 De l’IBM 360/75 au superordinateur Jean Zay

8.4 Vie pratique de CIRCÉ 1 pendant cette période


On pouvait rêver, mais les utilisateurs attendaient, même si personne ne parlait
jamais d’eux. Il fallait absorber la charge grandissante, dont il n’était JAMAIS
question dans les hautes sphères, sauf parfois comme quelque chose de théorique
qu’on verrait un jour, quand le schéma directeur serait fini.
Nous sommes en 1976 et les contrats de location des deux IBM 370/168
arrivent à échéance fin décembre 1977. La direction du CNRS nous a demandé
de proposer des solutions. Le projet élaboré devait permettre :
− d’apporter un meilleur service aux utilisateurs ;
− de diminuer le prix de revient d’un calcul donné ;
− d’améliorer la productivité du centre.
Tout en ne retenant que des solutions à court terme (moins de deux ans)
pour ne pas préjuger de l’évolution de l’informatique au sein du SEU.
De toute façon, j’avais bien compris qu’il y aurait toujours de bonnes raisons
pour refuser nos demandes et qu’au moins nous devions travailler à budget
constant, une gageure. Nous avons présenté aux autorités, le plus discrètement
possible, une demande de remplacement d’un des IBM 168 dont le contrat de
location finissait en 1977, par une unité IBM 3033 146. Il s’agissait d’une subs-
titution d’unité centrale, qui pourrait même se faire par un avenant au marché
d’un des 168. Aucune dépense supplémentaire n’était à prévoir. Toutes les ins-
tallations de climatisation, et la fourniture électrique en place étaient directe-
ment utilisables, le 3033, ayant environ 0,7 fois la consommation électrique du
168 et 0,8 fois sa dissipation calorifique. Toutes les connexions des matériels
restaient inchangées et le matériel serait servi par les mêmes équipes.
Et tout ceci pour une augmentation de puissance de 20 % et une économie
de 3,4 MF en année pleine, la location annuelle passant de 9,22 MF à 5,82 MF.
La réaction de la commission fut immédiate et se voulait sans appel. La
lettre du 16 décembre 1977 m’en informant venait de la Division Recherche du
secrétariat d’État aux universités, donc directement de la COMI, notre propre
autorité de tutelle. Elle disait :
« Ce projet présenté au ministre de l’Industrie (Mission à l’informatique)
s’est vu signifier une opposition totale ; parallèlement, le secrétariat
d’État aux Universités ne souhaite pas une croissance forte du
CIRCÉ, présentement, (le schéma directeur des moyens informatiques étant
en pleine élaboration). »
Le jugement du SEU n’est pas recevable puisqu’on avait pris la précaution
de limiter le projet à deux ans pour ne pas préjuger de ce qu’il déciderait quand,
enfin, son schéma directeur pour l’informatique serait prêt. Le ministère de l’In-
dustrie avait une excuse : nous faire acheter du matériel français. Mais quelle
était celle du SEU hors sa hantise de ne pas nous voir nous développer ? Ce qui
était vraiment désolant, c’était de voir l’Enseignement supérieur toujours aussi
aveugle sur ce qui se passait en dehors de nos frontières. En 1969, nous avons été

146 Rapport d’évolution pour les matériels informatiques du centre de calcul inter-
régional de calcul électronique.
Histoire parallèle de 1976 à 1980 195

pendant un temps très court, le premier centre de service en Europe. En 1977,


la France bat, sans aucune excuse, un triste record. Nous sommes le SEUL pays
d’Europe à ne pas avoir changé son 168 par un 3033. On ne comprendra jamais :
totalement compatible, plus puissant, moins cher, que demander de plus ? Nos
collègues étrangers étaient ébahis et se demandaient si je devenais folle. Au
même moment, Mme Connat écrivait que nous étions en bonne position par
rapport à l’étranger. Qui était ce « nous » ?
Que pouvions-nous faire ? Rien, puisque les décisions venaient de notre
propre ministère, dans lequel l’Enseignement supérieur et ses propres commis-
sions avaient beaucoup plus de poids que le CNRS, et avec un budget commun
pour l’informatique. Rien, sinon encaisser et recommencer inlassablement. Nous
avons continué, sans succès, pendant deux ans à essayer de persuader comme
P. Jacquinot l’avait fait en son temps.
Deux recueils de 258 et 274 pages 147 retracent les moments de cette lutte. Ils
contiennent respectivement des copies de 49 et 38 lettres et rapports échangés
entre la direction du CIRCÉ, la direction du CNRS, les multiples commissions à
l’informatique, les différents ministères, l’Enseignement supérieur, la Direction
des Industries Électroniques et de l’Informatique 148 (DIELI) etc. Le calendrier
des éléments de cette récapitulation est donné en annexe 11. Nous avons été sou-
tenus sans faille par les directeurs généraux, H. Curien, B. Gregory, J. Ducuing,
J.-J. Payan et par le directeur du SPI, J. Lagasse. Celui-ci s’est dépensé sans
compter pour promouvoir l’informatique de service dont il avait parfaitement
intégré la spécificité. Tous avaient à répondre aux attaques de l’Enseignement
supérieur et des ministères dans les réunions des hautes autorités auxquelles
nous n’assistions pas. Ils me demandaient de leur préparer les réponses qu’ils
devaient faire aux questions et ordres qu’ils recevaient, et pour actualiser les
arguments qu’ils devaient déployer dans leurs réunions au sommet. Comme ces
arguments étaient toujours les mêmes, j’ai réuni les réponses numérotées dans
un opuscule et je pouvais leur dire : à la question x, réponse n°x.
P. Salzedo a fait pour J. Ducuing, à sa prise de fonction de directeur général,
un tableau succinct de la vie du CIRCÉ et des problèmes qui l’attendaient
(annexe 12).

8.4.1 Aggravation de la situation


L. Malavard, président du comité de direction du CIRCÉ, était aussi désespéré
que nous. Nous nous sentions complètement impuissants, devant une situation
totalement incompréhensible. Il a envoyé, le 6 décembre 1978, en son nom et
en celui du président du comité des utilisateurs, une lettre à R. Chabbal, alors

147 Notes B du 18 avril 1977 au 8 décembre 78 et notes C du 6 décembre 1978 au 15 jan-


vier 1980, donnant le calendrier des discussions avec les autorités de tutelle, Archives de
la DIS.
148 Créée en juillet 1975, pour permettre d’intégrer la politique industrielle en informa-

tique dans l’ensemble de la politique industrielle du gouvernement menée au sein de la


toute nouvelle direction générale de l’Industrie.
196 De l’IBM 360/75 au superordinateur Jean Zay

directeur général du CNRS, lui demandant d’intervenir auprès de notre minis-


tère pour qu’il accepte l’installation du 3033 à la place du 168, retardée depuis
un an, le 7 décembre 1977. Il soulignait que depuis cette date, le CNRS payait
une rente à IBM. Je n’ai aucun signe que R. Chabbal l’ait fait. De toute façon
il n’y a eu aucun effet.
Le 17 septembre 1979, je recevais une lettre circulaire de J.-F. Denisse 149, chef
de la mission à la recherche agissant par délégation du ministre des Universités
(annexe 13). Elle était adressée à tous les responsables informatiques de tous
niveaux, depuis les recteurs, le directeur du CNRS, jusqu’aux directeurs de
centre de calcul. Elle nous informait que tous les dossiers devaient passer par la
cellule informatique du ministère des Universités, où la responsable de la cellule
informatique, Mme Connat les prenait en charge. C’était seulement officialiser
son rôle une fois de plus.
Pendant l’année 1979, la situation s’est encore opacifiée, et nous avons
continué de faire ce que nous avons cru devoir faire : ne pas renoncer et redé-
poser un énième projet identique à celui présenté deux ans auparavant, à savoir
le remplacement de l’unité centrale d’un 168 par celle d’un 3033. Mais pendant
ces deux années de paralysie, la saturation avait empiré au CIRCÉ et le monde
avait continué de tourner. Un compatible japonais du 3033 IBM, le V7 de
Siemens-Fujitsu, avait fait son apparition et était encore moins cher. Le schéma
directeur de l’Enseignement supérieur était rendu public.
En effet, il était un sous-ensemble de notre proposition du schéma directeur
de 1976, avec essentiellement deux centres nationaux dont l’un en province, mais
sans qu’on ait défini officiellement son appartenance, CNRS ou Enseignement
supérieur. On continuait de l’appeler CIRCÉ 2. La commission à l’informatique
de notre ministère commun a décidé qu’il serait équipé d’un 3033 d’après l’étude
faite par le CIRCÉ pour son centre d’Orsay. En conséquence, le ministère aurait
à demander 2×3033 en même temps, ce qui était impossible. Donc Mme Connat
a décidé que la première commande serait pour le nouveau centre, on ne savait
encore officiellement où il serait placé, mais tout le monde savait que ce serait à
Montpellier. Le CIRCÉ d’Orsay attendrait les années suivantes.
Le 14 septembre 1979, nous avons redéposé à Mme Connat un rapport 150 de
65 pages, plus annexes, pour non plus un 3033, mais un compatible V7 Amdahl
apparu entre temps, parce que pendant nos tergiversations, le monde évoluait.
Le dossier reprenait la forme traditionnelle en trois parties, exposition du centre,
analyse très fine de l’état de sa charge, son historique, son état actuel, le point
d’évolution technique, appuyant sur le fait que l’on attendait pour rien depuis
plusieurs années, dépensant chaque année 3,4 MF inutilement et que nous vou-
lions installer le nouveau matériel en janvier 1980, c’est-à-dire dans quatre mois
au plus, la saturation étant intenable. Mais rien ne bougeait.
Le 9 octobre, lors d’une conversation avec J.-F. Denisse, je me suis aperçue
qu’il n’avait pas eu connaissance de notre dossier. Je lui en ai remis un. Dès
le 10 octobre, il m’informe personnellement, qu’il souhaite que CIRCÉ 2 soit

149 Instruction précisant la nature des équipements relevant de la commission à l’infor-


matique. J.-F. Denisse, 12 novembre 1979, Archives de la DIS.
150 Remplacement d’une unité centrale 370/168 IBM, note C, p. 155, Archives de la DIS.
Histoire parallèle de 1976 à 1980 197

CNRS et le ministre aussi. Mais il me fait des mises en garde : il m’affirme


être en désaccord avec R. Chabbal qui craint de voir l’université l’accuser de
vouloir monopoliser les gros moyens. Il ne faut pas que le CNRS apparaisse
comme demandeur. Il faut d’après lui associer une université, comme l’a fait
le Laboratoire pour l’Utilisation du Rayonnement Électromagnétique (LURE),
mais ne pas s’associer à un bon laboratoire sans l’accord du président d’uni-
versité. Il dit aussi qu’il faut mener les opérations CIRCÉ 2 et V7 en parallèle
et non en séquence. Ce sont des conseils constructifs. Mais rien ne se passe.
De désespoir, j’ai appelé à l’aide pour conseil, J. Lagasse qui nous avait tant
aidé autrefois et qui était maintenant à la direction des affaires scientifiques et
techniques de la Régie Renault. Il assistera à une réunion au sommet où seront
présents Mme Connat et M. Pelissolo. Il en profitera pour le sonder sur ses
intentions pour le CIRCÉ.
La situation était devenue tellement ubuesque, que P. Salzedo et moi, avons
estimé que nous ne pouvions plus la cautionner. Nous en avons avisé M. Ducuing
notre directeur général, en lui disant que si le dossier du V7 n’était pas réglé dans
les deux mois, nous lui enverrions notre lettre de démission dont une copie était
jointe. Nous y demandions d’être démis de nos fonctions de direction du centre
d’Orsay et de celui du centre de gestion du CNRS, rue du Maroc (annexe 15).
Cette fois, le dossier s’est débloqué par miracle, et le V7 a été installé en
avril 1980. Le CNRS avait perdu inutilement 9,27 MF, et les utilisateurs avaient
souffert pendant deux ans de tous les effets de la saturation.

8.5 Mise en place des rémunérations du personnel


Une autre bataille était menée simultanément à celle du renouvellement de
matériel. Pour offrir un bon service, il faut un matériel puissant, mais aussi
qu’il soit servi par un personnel compétent qui accepte de sévères contraintes.
Le personnel, on l’a trouvé. Il a suivi une formation poussée. Il a accepté des
conditions de travail toutes nouvelles. Mais le statut du CNRS ne connaissait
qu’une sorte de travailleurs de nuit, les techniciens de coupole dans les observa-
toires. Qu’est-ce que c’était que ce labo où on voulait faire les 3/8, dimanche et
jour fériés compris. Quelle était donc la spécificité des personnels du CIRCÉ ?
La puissance des ordinateurs, et la diversité des applications à traiter, et par là
des softwares et des techniques à mettre en œuvre, n’avaient pas d’équivalent
dans les autres centres de calcul de la recherche, puisque c’était la machine
de pointe et qu’elle avait un objectif de production. De plus, parallèlement,
le personnel avait des contacts avec les spécialistes informatiques du secteur
privé qui se sont multipliés, par exemple, avec les ingénieurs appartenant aux
compagnies IBM ou CDC, et autres fournisseurs. Nos propres ingénieurs ont
été à même de fournir à des centres étrangers (surtout anglais et allemands),
des modules de système qu’ils avaient développés. Ils ont été souvent appelés
en consultation. Donc, ils avaient tous les éléments pour comparer l’intérêt du
travail et la rémunération.
La situation du personnel du centre est devenue paradoxale. Sa qualifi-
cation, sa spécialisation et ses conditions de travail sont devenues celles du
198 De l’IBM 360/75 au superordinateur Jean Zay

secteur privé, tandis qu’au CNRS leurs diplômes n’étaient pas reconnus. Dans
tous les autres centres, qui pourtant avaient des contraintes bien moindres, des
compensations avaient pu être trouvées. C’était impossible au CIRCÉ, labora-
toire propre qui n’avait qu’une source de crédits. Il était urgent de se pencher
sur le problème dès les premiers mois de mise en service si on voulait garder
les effectifs.

8.5.1 Les actions pour le statut du personnel du 11 mars


au 31 décembre 1970
Comme toujours, lorsque le problème devenait urgent et que je l’avais bien
cerné, je l’ai exposé à H. Curien avec qui j’ai eu des réunions de travail sur ce
sujet, les 11 mars 1970, et 25 juin 1970. Je lui ai alors présenté les résultats
de mon enquête suivant laquelle, à l’époque, pour 26 membres du personnel,
les traitements étaient inférieurs de 1400/4500 francs/mois à ceux de « l’ex-
térieur ». Sur ce point précis, j’animais un cercle de réflexion qui se réduisait
à deux personnes, C. Gabriel et H. Curien. Lui-même a demandé à Pierre
Creyssel, le directeur administratif et financier de nous aider. À mesure qu’ils
m’en donnaient l’autorisation, je communiquais les résultats de leurs efforts
aux membres du personnel. Eux-mêmes nous ont très vite fait confiance pour
mener les négociations. C’est en accord avec le personnel et avec leur aide que
nous avons rédigé les programmes d’examens internes prévus. Nous étions tous
les quatre convaincus que le calcul intensif était un outil fondamental pour la
recherche et, en un an, l’équipe avait réussi à leur prouver qu’on pouvait nous
faire confiance. Dès lors, P. Creyssel nous a soutenus sans réserve et a même
pris la direction des opérations. Lui seul pouvait discuter avec les ministères où
nous n’avions aucune entrée et c’est lui qui a pris les initiatives. Le calendrier
de son action décisive et constante, certains jours, heure par heure, est présenté
dans l’annexe 6. La direction du CIRCÉ, elle, fournissait tableaux et rapports.
Elle rappelait l’urgence du problème quand il lui semblait que rien n’avançait.
Elle organisait des réunions avec le personnel pour le tenir au courant des
transactions, lui faire ajourner ses projets d’une grève qui aurait consisté à ne
travailler que pendant les heures légales, ce qui aurait provoqué l’effondrement
de l’entreprise. La première idée que P. Creyssel a amenée dans la discussion, et
qui a servi de fondamentaux aux négociations est la suivante : pour établir une
vraie grille des salaires informatiques à l’intérieur du CIRCÉ, il fallait qu’elle
soit basée sur des examens qui pourraient être internes, mais auraient la caution
d’une grande école, de l’Institut de programmation (peu probable) ou d’une
université. Nous avons établi une proposition complète portant, à la fois, sur
les fonctions concernées, les programmes des épreuves pour chacune d’elles les
modalités de passage, les conditions d’avancement.
Il a été prévu :
− une attestation de pupitreur sur un ordinateur de 3e génération ;
− un concours de chef opérateur ;
− un concours de chef d’exploitation ;
− la création d’attestations d’ingénieur informaticien de 1er, 2e, et 3e niveau.
Histoire parallèle de 1976 à 1980 199

Après de multiples concertations avec les personnes concernées, nous avons


remis la proposition à G. Poitou, doyen de la faculté d’Orsay. Il a donné son accord,
mais a pensé qu’il ne pouvait prendre une décision de cette importance sans ren-
contrer W. Mercouroff, non pas en tant que directeur scientifique au CNRS, mais
de chef de mission à l’informatique au ministère. Trois jours après, le 3 décembre,
nous nous réunissions, W. Mercouroff, G. Poitou. L. Verlet et moi-même.
y W. Mercouroff nous apprit que ce projet allait dans le sens d’un statut
d’élaboration pour la fonction publique qui autoriserait des primes pour
certaines fonctions.
y L. Verlet émit deux réserves :
− la proposition s’adaptait mal à PSI qui n’avait pas besoin de personnel
aussi spécialisé pour fonctionner ;
− il craignait que les ingénieurs du CIRCÉ ne fassent trop de travail
théorique et que le CIRCÉ ne redevienne un autre Blaise Pascal. Cette
attitude est l’illustration de l’incompréhension totale qui régnait à
cette époque sur l’initiative du CNRS voulant créer un centre de calcul
intensif servi par une équipe performante spécialisée dans le fonction-
nement de machines de pointe. En avril, L. Verlet avait été foncière-
ment hostile à l’installation d’un centre de service sur le terrain de la
faculté, qui se différenciait des centres universitaires puisqu’il ne ferait
ni gestion ni enseignement théorique. Mais en décembre il craignait
qu’il ne se mette à faire de la recherche en informatique.
y G. Poitou conclut que le CNRS devait lui présenter une demande d’auto-
risation d’examen et de constitution de jurys pour des examens internes
au CNRS. Il quittait son poste à la fin de l’année et voulait voir cette
question réglée.
y Au cours d’une réunion le 10 décembre avec C. Gabriel, P. Creyssel et
moi avons rédigé le projet de lettre demandée. Elle arrivera finalement à
G. Poitou le 24 décembre, quelques jours avant son départ et il a donné
son accord in extremis. C’était une avancée décisive.

8.5.2 Les actions pour le statut du personnel du 7 janvier


au 2 juin 1971
C’est P. Creyssel qui a été en première ligne durant cette période. Son nom
apparaît alors 55 fois dans le calendrier des interventions auprès des diverses
tutelles dans tous les ministères. L’annexe 6 les récapitule. L’annexe 8 précise
les programmes et les modalités d’examen pour les pupitreurs, le concours de
chef opérateur, la création d’attestations d’ingénieur-informaticien, de 1er, 2e
et 3e niveaux et les modalités pour y prétendre. Le problème s’est encore com-
pliqué par le fait que tous les examens étaient prévus portant sur des ordina-
teurs de 3e génération, mais l’INRIA, et l’INSERM qui n’en avaient pas, avaient
le même contrôleur financier que le CNRS, M. Mayol, et ils voulaient profiter
des avancées, bien que leurs contraintes ne soient pas les mêmes. Le contrôleur
financier leur a accordé des possibilités, mais non au personnel du CIRCÉ qu’il
ne connaissait pas.
200 De l’IBM 360/75 au superordinateur Jean Zay

Toutes ces négociations se passaient dans la sérénité. Les personnels faisaient


une totale confiance à P. Creyssel. Et dans une lettre collective, ils l’informent
de la possibilité de faire une démonstration de ce que serait le service s’ils ne tra-
vaillaient que pendant les heures normales, mais ceci pour l’aider dans ses trac-
tations (annexe 7). Il leur a demandé un délai de deux mois pour poursuivre son
action. En dernier ressort, P. Creyssel, dans l’impossibilité de faire comprendre
à M. Mayol, la différence entre les contraintes des personnels du CIRCÉ, et ceux
de l’INRIA, et de l’INSERM, m’a demandé de porter, directement à ce dernier,
le relevé des travaux qui n’avaient pu être exécutés pendant le week-end, pour
lui faire prendre conscience de ce qu’était le calcul intensif et des pressions que
subissaient les équipes.
Ce que nous avons obtenu :
− des embauches après examen interne, à condition d’avoir des postes libres
dont le niveau correspondait à la grille ;
− pour le personnel en place, avancement par dérogation possible, après
réussite aux examens. La suite montrera que le nombre de dérogations
accordé au service sera toujours très faible ;
− affectation de primes au mérite, distribuées au coup par coup, à notre
demande par l’administration déléguée de Gif qui les prenait sur un fond
plus général qu’elle gérait.
Ainsi, du 1er juin 1971 au 30 septembre 1972, pour les changements de caté-
gorie, 3 sur 3 à l’ancienneté ont été refusées et sur 7 en dérogation, une seule a
été acceptée, celle de P. Salzedo, qui est passé de 2A en 1A. On lui proposait
des salaires doubles dans le privé. Mais c’était une reconnaissance de son travail.
Le nouveau statut était une amélioration, mais ne résolvait pas tout. Après la
réussite à l’examen interne, encore fallait-il qu’une dérogation ait été affectée au
centre de calcul dans la distribution à l’ensemble du CNRS.
Un premier ingénieur a donné sa démission en août. D’autres suivront.
Chapitre 9
Période 1981-1989

À la fin de la première décennie, le CIRCÉ a réussi à démontrer que ce qu’on


appelle en France « un gros centre » était une nécessité. Si la direction générale
du CNRS, l’administration déléguée, lui font confiance, si ses utilisateurs l’ont
aidé à rédiger un compte rendu des résultats scientifiques qu’il a permis d’ob-
tenir, il est toujours regardé avec méfiance par l’Enseignement supérieur et une
grande partie des directions scientifiques qui sont bien obligées de l’accepter
mais le regrettent. La direction du centre a réussi une partie de la mission qui
lui avait été confiée dix ans plus tôt : faire fonctionner un centre de calcul de
production qui permet aux chercheurs qui en ont besoin pour se maintenir au
niveau international, d’effectuer au moins une partie de leur travail en France.
Mais il n’a pas réussi à faire pénétrer dans l’ensemble des classes dirigeantes
de la communauté scientifique l’idée que le calcul intensif, qui, à ce moment-là,
était possible seulement dans un gros centre, était un outil indispensable dans
certains cas. Les idées de ce qu’il fallait faire, la direction du CIRCÉ les avait,
d’ailleurs sans aucun mérite : il suffisait d’ouvrir les yeux sur ce qui se passait
à l’étranger, de faire une veille technologique et d’être suffisamment près des
chercheurs pour connaître leurs travaux et anticiper avec eux leurs besoins
futurs.
Pourquoi les directeurs du centre de calcul ont-ils fait ce travail d’analyse et
d’anticipation ? La réponse est simple. Parce que personne d’autre ne le faisait.
P. Jacquinot s’était résolu en fin de mandat, après mûres réflexions, à me confier
cette mission et j’ai déjà dit que, après lui, la première consigne que m’a donnée
H. Curien était de ne rapporter qu’à lui. Il y avait là un paradoxe : les direc-
teurs scientifiques, quand ils se sont rendu compte que l’informatique avait son
importance, se sont plaints d’être tenus à l’écart. Mais s’ils ont toujours reçu une
copie des rapports que j’envoyais aux directeurs généraux, ils ne les lisaient pas,
comme ils me l’ont avoué par la suite. Pendant la décennie qui a suivi, les direc-
teurs généraux ont porté le calcul intensif sur leurs épaules. Les calendriers de
nos réunions de travail en font foi, ainsi que les imposants dossiers de lettres et
notes échangés entre nous, quelques-unes portant la mention personnelle manus-
crite ou Confidentiel avec le tampon rouge officiel.
On va voir dans le détail par la suite que c’est grâce à leur compréhension
des enjeux et à leur investissement personnel que pendant la décennie le bateau
a maintenu une bonne vitesse de croisière. C’est la seule période pendant les
202 De l’IBM 360/75 au superordinateur Jean Zay

cinq étudiées où le « coefficient de croissance » du centre est supérieur à celui


du TOP500 et est supérieur à celui prédit par la loi de Moore.

Figure 86 – Machines installées de 1980 à 1989

Le graphique suivant appellerait à un certain optimisme pour l’avenir du


centre.

Figure 87 – Courbes des régressions des puissances de 1981 à 1989


Période 1981-1989 203

Coefficient a Facteur multiplicatif


Période
centre de calcul TOP centre de calcul TOP

1980 – 1989 0,424 0,386 1,528 1,471

Les puissances en un an ont été en moyenne multipliées par 1,528 pour le


centre de calcul et 1,47 pour le TOP, soit pour la loi de Moore un coefficient
d’augmentation de 2,33 pour le centre et 2,16 pour le TOP en deux ans.
Mais on aurait pu faire beaucoup mieux. Et avant de donner le détail des
installations qui ont conduit à ces chiffres, il faut parler de notre troisième tenta-
tive manquée, relatée à sa place dans le tableau factuel général des installations
des machines de calcul (figure 72). Il s’agit de la proposition d’installation d’un
CRAY 1 au CIRCÉ en 1980.
La décennie qui commence a vu quelques éléments marquants :
− la création du centre de calcul dans le Sud demandée depuis 1972 ;
− l’arrivée du calcul vectoriel en 1984, demandé depuis 1980, avec la créa-
tion officielle du Centre de Calcul Vectoriel pour la Recherche (CCVR) ;
− la création de la Division Informatique Scientifique (DIS) ;
− le développement du centre polyvalent CIRCÉ qui, après le veto minis-
tériel pour l’installation d’un CRAY, a développé des capacités de calcul
vectoriel complémentaires de celles du CCVR.

9.1 Création du centre de calcul universitaire


Paris-Sud
L’année 1981, c’est l’année de la création du second centre serveur national
équipé de matériel IBM. Elle résulte des décisions du Plan Informatique du
ministère de l’Éducation nationale, élaboré en collaboration avec le ministère de
la Recherche et de la Technologie.
Le Centre National Universitaire Sud de Calcul (CNUSC) est implanté à
Montpellier. Il est chargé d’héberger des applications scientifiques pour la com-
munauté des chercheurs, mais aussi des applications en bibliothéconomie.

Figure 88 – Le fronton du CNUSC


204 De l’IBM 360/75 au superordinateur Jean Zay

Le CNUSC est équipé d’un système central composé de :


− une unité centrale IBM 3033 modèle US (57 nanosecondes de cycle de
base), avec 8 millions d’octets (8 Mo) de mémoire centrale, dont l’accès est
amélioré par une antémémoire de 64 ko. Sont accessibles au programmeur
16 registres généraux de 32 bits, et 4 registres virgule flottante de 64 bits ;
− une configuration d’unités de disques 3350 IBM et 3 compatibles
13 unités, conduisant à une capacité totale en ligne de près de 9 milliards
d’octets (1200 ko/seconde).
Un réseau de télétraitement : le réseau des terminaux du CNUSC est essen-
tiellement organisé autour de deux contrôleurs de télétraitement. Une liaison
haute vitesse sera établie pour accéder au CRAY 1 puis au CRAY 2 du CCVR
(Centre de Calcul Vectoriel pour la Recherche). À sa création, il était équipé
d’un 3033 IBM qui sera remplacé par un 3081 IBM deux ans plus tard.

9.2 Création de la Division Informatique Scientifique


(DIS)
Le 21 décembre 1982, Yves Rocher, conseiller pour les affaires régionales auprès
du directeur général du CNRS P. Papon, lui présente l’historique de la lutte
qui a permis le remplacement du 370/168 et lui fait un compte rendu de la réu-
nion qu’ils ont eue, lui et M. Combarnoux, directeur du département SPI avec
Messieurs Chevillot, Lorenzi et Hirel sur les moyens informatiques du CNRS.
J.-C. Hirel 151, inspecteur des finances, en particulier a été très dur :
− refus des 11 VAX demandés ;
− pour le CIRCÉ, choix IBM confirmé et imposé. Tant pis pour les perfor-
mances supérieures et le prix moindre du NAS ;
− exigence d’un schéma directeur où figure une évaluation du marché offert
aux constructeurs nationaux.
Une commission informatique serait en cours de création avec M. Cea pour
président.
C’est la future terrible Commission des Moyens Informatiques (COMI). Dans
le même compte rendu, Yves Rocher fait une liste des problèmes à résoudre et
suggère à M. Papon d’annoncer, au comité de direction du lendemain, ma nomi-
nation en tant que conseiller pour les moyens de calcul, ce qui fut fait.
Le 28 décembre, M. Papon écrivait au ministre M. Chevènement lui décri-
vant la misère informatique des laboratoires et demandant pour eux des mesures
d’urgence. Il lui explique que le ministère a imposé au CIRCÉ une machine IBM
au lieu du NAS demandé, mais que rien ne s’est concrétisé. Il conclut par :
« Je tenais, Monsieur le ministre, à vous faire part de cette grave préoccupa-
tion que constitue pour le CNRS les moyens informatiques pour la recherche,
et j’espère que vous pourrez m’apporter votre appui pour résoudre très rapi-
dement ces problèmes. »

151 Jean-Claude Hirel, inspecteur des finances, premier président de la mission informa-
tique ministère de l’Industrie statuant sur les autorisations d’acquisitions du ministère
de l’Enseignement supérieur et de la Recherche.
Période 1981-1989 205

Le soutien de P. Papon ne s’est jamais démenti.


La Division de l’Informatique Scientifique (DIS) est créée le 23 juillet 1984,
par décision de P. Papon.
ARTICLE 1 : Il est créé, sous l’autorité du Directeur Général, une Division
de l’Informatique Scientifique. Elle est placée sous l’autorité d’un directeur.
ARTICLE 2 : Les unités de service constituées par les centres de calcul
propres au CNRS dépendent, sur le plan technique et administratif, de cette
Division qui assume également la responsabilité des participations du CNRS
dans les autres centres de calcul.
− À cette fin, elle a la charge des propositions budgétaires, de notifier les
crédits attribués dans le cadre du budget, d’affecter les postes et de gérer
les postes d’ITA, la gestion du dossier administratif des agents et des ITA
restant de la compétence des Administrateurs Délégués.
− Le Directeur de la division ou son représentant est membre de droit des
comités de direction ou des conseils scientifiques des centres de calcul
propres au CNRS.
− La division a enfin la charge de coordonner le choix des équipements et
des règles de fonctionnement. Elle prépare les décisions fixant les tarifs à
la signature du Directeur Général.
ARTICLE 3 : Le Directeur de cette division, qui assure en outre la fonction
de Conseiller de Directeur Général pour l’informatique scientifique, dispose
des moyens de la division pour assurer les relations qu’il a au nom du CNRS
avec l’autorité de tutelle et les autres instances pour la mise en place des
moyens informatiques scientifiques dans le cadre du schéma-directeur ainsi
que de préparer celui-ci.
− La division contribue à la constitution et à la mise à jour du fichier des
acquisitions, à la préparation des dossiers soumis à la Commission spécia-
lisée des marchés informatiques, à la transmission des dossiers au secré-
tariat des différents comités techniques et à leur présentation. Elle assiste
les laboratoires dans le choix des matériels et des logiciels. 152
Le Comité Scientifique Consultatif de la Division de l’Informatique
Scientifique (CSCDIS) est créé le 22 janvier 1985, par décision de Pierre Papon.
Il est composé des directeurs scientifiques des départements, du directeur de
l’informatique scientifique et technique, de six personnalités extérieures, du pré-
sident de la section 08 du comité national, de trois membres représentant le
personnel, de trois membres représentant les comités des utilisateurs des trois
centres de calculs nationaux, des directeurs des trois centres ainsi que du direc-
teur de la DIS, qui a une voix consultative.
J’ai accepté ce poste, croyant naïvement que j’aurais accès plus facilement
aux entourages des décideurs et que je pourrais les convaincre. Mais décidément
je n’étais pas douée pour la persuasion.

152 Idem.
206 De l’IBM 360/75 au superordinateur Jean Zay

9.3 Arrivée du calcul vectoriel


9.3.1 Proposition d’installation en 1980 d’un CRAY 1
au CIRCÉ
Littéralement, on peut dire que c’est une opération manquée, puisqu’elle ne s’est
pas faite et qu’il a fallu attendre 1984, c’est-à-dire quatre ans pour qu’elle soit
réalisée au CCVR qui lui-même n’a duré que neuf ans, mais neuf ans où il a rendu
les plus grands services à la recherche. Mais elle a été une étape nécessaire dans
la lente prise de conscience des « décideurs » des instruments indispensables à la
recherche. Quatre ans, c’est trop long, mais nous y sommes arrivés. Seymour Cray,
l’inventeur et constructeur, parle lui aussi, de l’exception française. Dans toutes
les présentations de ses CRAY 1 et CRAY 2, à travers le monde il expliquait :
« Mes machines sont faites pour être la tête d’une pyramide. Il n’y a qu’une
exception, c’est la France qui a construit pour la sienne un bâtiment à 2 km
de son centre de calcul. »
Ce fut un épisode d’une bataille, comme le dira Pierre Papon. Mais une
bataille d’idées au sommet de la hiérarchie qui avait elle-même ses priorités et ses
problèmes. Il faut bien comprendre l’atmosphère de cette époque. La collabora-
tion a toujours été totale entre moi-même, P. Salzedo, S. Fayolle et J.-C. Adam,
utilisateur du CIRCÉ et futur directeur du CCVR. Les utilisateurs nous faisaient
entièrement confiance pour notre capacité à faire fonctionner leur outil de travail,
même si en interne ils savaient bien nous critiquer. En face de nous, il y avait
les ministères et leurs commissions qu’il fallait convaincre de nos besoins et de
nos attentes. Tous les quatre, nous avons œuvré pour que la communauté des
chercheurs puisse travailler au mieux avec ce qu’on pouvait installer en restant
à l’écart de ces discussions. Elles faisaient partie du travail nécessaire pour rem-
plir la mission qui nous avait été assignée, mais ne devaient pas les perturber.
L’essentiel des documents, lettres, rapports et comptes rendus relatifs à cette
tentative sont regroupés dans un dossier de la direction générale sur lequel une
secrétaire a écrit sobrement « projet CRAY 1, CIRCÉ ». Il est conservé dans les
archives de la DIS153. M. Ducuing154, chercheur en physique théorique à l’École
polytechnique et P. Papon se sont investis personnellement à fond, annotant les
rapports que nous leur envoyions, y répondant par des notes ou lettres manus-
crites, et surtout essayant de défendre, chacun à leur manière, nos dossiers dans
les réunions et discussions en haut lieu où nous n’avions jamais accès. Le pre-
mier document qui s’appelle « Proposition pour l’installation d’un CRAY 1 au
CIRCÉ » a été remis à M. Ducuing pour qu’il le présente aux dirigeants au cours

153Projet CRAY 1 CIRCÉ, 1980-1981, Archives de la DIS.


154Jacques Ducuing, chercheur en optique et physique théorique, directeur du CNRS de
1973 à 1981. Il démissionne le 29 octobre 1981 à la suite de la décision de Jean-Pierre
Chevènement de nommer lui-même les directeurs scientifiques à la place du directeur
général. Président du comité scientifique de l’Otan. Sur son invitation, j’ai été faire des
conférences à Bruxelles à l’OTAN. L’Otan n’avait pas de crédits d’équipement pour
acheter des ordinateurs mais cherchait à être partie prenante d’un réseau européen.
Période 1981-1989 207

d’une réunion interministérielle qu’il jugerait propice. C’est quasiment un dossier


préparé pour un passage en commission, il comporte quatre parties avec :
− caractéristiques et domaines d’utilisation avec des caractéristiques domi-
nantes du CRAY, les conséquences pratiques, l’utilisation en recherche
scientifique dans tous les domaines, une analyse très fine des problèmes
qu’il permettrait d’aborder et des algorithmes à développer en hydrody-
namique, mathématiques, météorologie océanographie, aérodynamique,
physique des plasmas, résistance des matériaux, génie chimique, biologie ;
− projet de mise en œuvre d’un CRAY au CIRCÉ avec étude des infrastruc-
tures, des coûts, des personnels à recruter ;
− la nécessité pour faire passer le projet, de l’assurance d’étudier la fronta-
lisation par une machine CII-HB nationale,
− la synthèse du projet.
Son originalité tient dans le fait qu’il n’a été demandé par personne et qu’il
contient majoritairement les réalisations des chercheurs faites grâce nos ser-
vices et leurs besoins futurs. Ces derniers insistaient sur la nécessité d’agir
rapidement. Deux parmi les demandeurs nous avaient particulièrement aidés.
U. Frisch, de l’observatoire de Nice et J-C. Adam du laboratoire de physique
théorique de l’École polytechnique.
Le premier avait travaillé au NCAR (National Center for Atmospheric
Research) de Boulder. Il informait que, si dans les mois qui venaient, il n’y
avait pas un CRAY disponible pour la recherche, il y repartait avec des collègues
de Lyon, Marseille et Grenoble. Il avait fait une demande de crédits pour payer
des heures à la CISI. En se restreignant au maximum, il lui fallait 500 heures à
30 000 F par heure soit 15 MF. C’est le prix de la location annuelle d’un CRAY.
Où la DGRST trouverait-elle cet argent à fond perdu ?
Le second était J.-C. Adam. De l’avis de tous, c’était un excellent utilisateur
de l’informatique. Il arrivait à faire avec l’ordinateur Amdahl du CIRCÉ ce qui
se faisait ailleurs avec le 7600 CDC. C’était la limite pour ses travaux. Il deman-
dait qu’on intervienne pour que le CRAY soit installé le plus vite possible et au
CIRCÉ, à cause de la compétence de l’équipe et de la continuité du travail. Dans
l’espoir de convaincre le lecteur de son rapport, il a détaillé la partie mathé-
matique d’un de ses problèmes. Il espérait que le lecteur, à défaut de suivre
les développements, comprendrait au moins qu’il fallait un ordinateur puissant
pour attaquer le problème. Son exemple demandait la résolution des équations
de Navier-Stokes. Ce qui se passe dans un fluide incompressible, emplissant un
domaine D de l’espace, peut être décrit dans le modèle déterministe à l’aide de
deux fonctions : la vitesse de la particule au point d’étude et sa vitesse à l’ins-
tant t. Mais elles sont non linéaires. En 1980, on ne savait traiter qu’un espace
D à 2 dimensions. Or un attracteur étrange apparaît avec un modèle simplifié
obtenu en tronquant les équations de convection. Il se dissout si on augmente
la résolution. C’est uniquement en ajoutant la 3e dimension qu’il revient, vrai
et plus complexe. Si on part d’un domaine de côté 1 à trois dimensions, avec
une discrétisation de 1/20 on arrive à un système de 32 000 équations à 32 000
inconnues et on ne fournit encore qu’une description imparfaite. L’approche
expérimentale n’est pas envisageable, car on ne peut figer le fluide. Le résultat
ne peut être obtenu qu’avec du calcul intensif.
208 De l’IBM 360/75 au superordinateur Jean Zay

9.3.2 Décision d’installation du CRAY à l’École polytechnique,


le 22 juillet 1980
M. Ducuing a discuté du projet avec
P. Aigrain, alors secrétaire d’État auprès
du premier ministre chargé de la Recherche
sur la politique scientifique et technique
dans le cadre européen. Dans ce cadre, le
18 juin 1979, P. Aigrain avait prononcé un
discours où il avait parlé de développement
en informatique et électronique, montrant
son intérêt pour l’informatique.
P. Aigrain lui a dit que, personnelle-
ment il était favorable au projet et donnait
son accord. Puis le dossier a été remis à la
DGRST où il a suivi son cours, sur lequel
Figure 89 – CRAY 1 nous n’avions aucune action. Mais mainte-
nant au moins le projet était connu.
Il est inutile de dire qu’il fut rejeté en termes violents. M. Ouannès, respon-
sable du département électronique au ministère de l’Industrie énonçant une
opinion qu’il voulait définitive :
« Mettez-le n’importe où, mais pas au CIRCÉ. Et j’interdis qu’une frontale
soit installée au CIRCÉ. »
Donc, nous n’avions plus qu’à nous retirer. Mais l’idée était retenue au niveau
de la DGRST. Un des problèmes était qu’on ne savait pas où le mettre et que le
projet prenait du retard. L’École polytechnique était candidate, mais n’avait ni
personnel, ni locaux, ni financement. Malgré cela, Pierre Vasseur, directeur des
laboratoires de l’École polytechnique comptait sur la perspective d’hébergement
du CRAY comme argument supplémentaire pour un projet en cours d’agrandis-
sement de ses locaux. Puisqu’il n’était pas envisageable de le mettre au CIRCÉ,
où l’installer ? À PSI, ou au CCPN, qui déménageraient à Polytechnique quand
les bâtiments seraient construits ? Finalement, entre les deux tours d’élections
présidentielle, P. Aigrain a choisi l’installation à l’X 155.
P. Ducuing nous en a informés par téléphone le 22 juillet :
« Ce choix politique est le plus coûteux, techniquement plus risqué, et retarde de
plus de quinze mois la mise en œuvre du CRAY. La communauté scientifique
qui utilise largement et à sa satisfaction les services du CIRCÉ, souhaite que ce
choix soit revu en prenant pour critère l’assurance d’une mise en œuvre rapide
et d’un bon service ultérieur, sans considération de prestige, ni d’influence156. »

155 Note de l’auteure : Nous nous sommes remémorés ce suspens quelques années plus
tard. P. Aigrain était président du jury du prix Cray. J’étais moi-même le membre du
jury qui défendait le travail du lauréat de l’année. Il m’a avoué qu’en 1980, la situation
était tellement complexe et exacerbée, qu’il avait été tenté de tirer à pile ou face.
156 Voir note 10.
Période 1981-1989 209

Comme le projet continuait de prendre du retard, le 15 octobre, sous la pres-


sion des utilisateurs nous informions M. Ducuing de notre intention de proposer
un nouveau projet (figure 90). Les termes techniques et les développements du
dossier étaient exactement ceux de début 80, mais, nous avions évolué et com-
pris. Pour que le projet aboutisse, et il le fallait pour les chercheurs, le CIRCÉ
devait aider au travail, mais ne jamais apparaître comme demandeur. Il fallait
que ce soit un projet commun.

Figure 90 – Lettre d’intention de proposition d’un nouveau projet


210 De l’IBM 360/75 au superordinateur Jean Zay

Il fallait que ce soit un projet, non pour l’installation au CIRCÉ, mais


pour la recherche en général. Pour nourrir les discussions de tous les groupes
intéressés, nous avons fait un tableau complet récapitulatif des avantages et
des inconvénients des quatre implantations envisagées : PSI, IN2P3, X, et
CIRCÉ (annexe 17). Les discussions, au niveau interministériel ont été dif-
ficiles. P. Ducuing y participait ou était remplacé par son chargé de mission
Berthet en qui nous avions toute confiance. La vision qu’il avait de l’enjeu
était semblable à la nôtre. Il semble que, bien que l’implantation à l’École
polytechnique ait probablement été prévue d’avance, les discussions aient été
nombreuses. Dès qu’elles ont porté sur la réalisation, les difficultés se sont
révélées.
P. Ducuing et Berthet nous demandaient des notes « urgentes » 157 ou « in
extremis » sur des sujets qui allaient être à l’ordre du jour, comme l’établisse-
ment du cahier des charges pour une frontale CII-HB, le partage des coûts et
des responsabilités. Plus tard et plus sérieusement encore, sur les corrections
qu’il fallait que le CNRS demande dans le texte de création du GIE consti-
tuant le CCVR 158. Parallèlement, Yves Farge et Michel Combarnous, directeur
du SPI, étaient conscients du retard que ça impliquait pour les chercheurs, et
nous demandaient, chacun de leur côté, d’étudier une installation provisoire au
CIRCÉ, la seule qui leur paraissait raisonnable. Y. Farge nous suggérait aussi
pour l’immédiat une liaison directe avec le centre anglais de Daresbury, qu’il
savait favorable au raccordement. Nous lui avons répondu par plusieurs notes
qu’il ne suffisait pas d’une liaison physique, mais que les logiciels aux deux
extrémités devaient pouvoir se parler et que la réalisation ne pouvait pas être
immédiate. Il en a été fort déçu, les chercheurs aussi. Et nous-mêmes avions la
frustration de ne pas avoir de baguette magique. Des chercheurs français qui
travaillaient à Stanford, ou au MIT nous demandaient s’ils devaient y rester
ou rentrer. Cinquante autres nous disaient qu’ils étaient prêts à démarrer en
septembre 159. Que leur répondre ? Une longue note du 14 décembre 1980,
destinée à M. Berthet, lui donne les réponses à toutes les questions prévi-
sibles qui lui seront posées, même les plus invraisemblables comme : comment
vient s’insérer l’évolution du CCPN dans votre projet ? C’est une question
qui en soi est légitime, mais posée ainsi paraît complètement incongrue pour
quelqu’un connaissant tant soit peu le CNRS. Mais il faut être prêt à répondre
à tout.
Le CRAY 2 160 a été présenté en 1982, par Seymour Cray à Minneapolis aux
États-Unis. Une équipe française de chercheurs et d’industriels était présente.

157 Lettre du 16 décembre 1980 à Berthet.


158 Lettre du 21 avril, Archives de la DIS.
159 Lettre des utilisateurs, Archives de la DIS.
160 Note de l’auteure : Lors d’un déjeuner privé dans son restaurant habituel, on lui a

servi, sans qu’il la commande, une soupe aux pois, son repas coutumier.
Période 1981-1989 211

Figure 91 – Seymour Cray à une présentation du CRAY 2, 1982

9.3.3 Place du projet dans le rapport d’activité de 1981


La partie qui lui est réservée dans le rapport de 1981 sur les activités de 1980
commence par la présentation qui suit.
« Depuis 1979, la communauté scientifique a progressivement pris conscience
de l’utilité des calculateurs de très grande puissance, type CRAY 1.
Plusieurs projets d’installation d’un CRAY pour la recherche ont donc été
soumis à la DGRST, par l’École polytechnique, PSI et le CNRS.
Le CIRCÉ a proposé une installation dans ses locaux pour novembre 1981,
dans un rapport remis au directeur général pour transmission à la DGRST. »
Il donne un extrait de quatre pages sur les quatre-vingt-seize du rapport
remis au directeur général pour transmission à la DGRST. Il n’a pas abouti et
pourtant il est extrêmement important. Il a confirmé la place de l’équipe dans
le peloton de tête qui s’initiait aux méthodes nouvelles, dès qu’elles apparais-
saient et elle ne l’a pas quittée jusqu’à aujourd’hui. L’extrait parle du problème
posé, des équipes concernées, des conditions techniques d’utilisation, du projet
d’installation au CIRCÉ, du calendrier et du côté financier et le projet parle des
problèmes scientifiques qu’elle permettrait d’aborder.

9.3.4 Étapes pour l’accession au calcul vectoriel


Pendant toute cette période d’opération manquée, il fallait rendre possible aux
chercheurs de faire leur travail en France. Il y eut plusieurs étapes de mises
en place dès qu’on eut compris que la DGRST, d’accord avec le ministre de
212 De l’IBM 360/75 au superordinateur Jean Zay

l’Industrie sur ce point particulier, mettrait toujours son veto à nos demandes
de matériel CRAY. Il y eut d’abord la création, d’une Action Thématique
Programmée du CNRS (ATP) calcul vectoriel, puis l’établissement d’une liaison
CIRCÉ-CEA, puis la liaison au CCVR installé à Palaiseau, puis l’installation de
matériels vectoriels IBM et SIEMENS-FUJITSU à Orsay. Il a fallu attendre dix
ans pour qu’enfin un CRAY arrive au centre d’Orsay.

9.3.4.1. Création de l’ATP « calcul vectoriel »


Le CNRS a décidé de lancer une Action Thématique Programmée (ATP) « calcul
vectoriel » en 1982. Dans ce but, un contrat a été passé avec la CISI afin de
mettre à la disposition des chercheurs un nombre limité d’heures sur le CRAY 1
de la filiale CISI du CEA, installé à Rocquencourt. Il était utilisé majoritaire-
ment par l’EDF et connu sous le nom CISI/EDF.
Cette ATP avait comme double objectif de permettre à des équipes ayant déjà
une expérience avec le CRAY de présenter des projets relativement importants,
et à des équipes qui souhaitaient se lancer dans la modélisation numérique, d’ac-
quérir l’expérience nécessaire à l’utilisation optimale du CRAY afin d’être opéra-
tionnelles dès la mise en service du « CRAY Recherche » qui s’est faite en 1983.
En 1982, la CISI passait un accord avec le ministère de l’Industrie pour
l’étude de la frontalisation de son CRAY. Les utilisateurs insistaient sur la
nécessité d’une liaison avec le CIRCÉ (annexe 20).

9.3.4.2. Liaison CIRCÉ-CEA


Une liaison PTT à 72 kbits a été établie entre la CISI, où se trouvait le CRAY 1,
et le CIRCÉ. Les matériels (modems et boîtes NSC) qui permettaient d’établir
un « hyperchannel », à travers cette liaison, ont été installés et testés.
Le logiciel de « station frontale » fourni par CRAY pour frontaliser sa
machine à partir d’un ordinateur IBM a été installé sur l’Amdahl V7.
Il faudra encore diverses modifications logicielles pour tenir compte du par-
tage de tâches entre le V7, station frontale du CRAY, et le NAS 9080 qui assure
notamment les services conversationnels. Par exemple, il a fallu rendre possible
la soumission d’un travail à exécuter sur le CRAY à partir d’une console TSO
connectée au NAS /9080.
Les services seront progressivement ouverts aux utilisateurs.

9.3.4.3. Création du CCVR et sa liaison avec les ordinateurs


du CIRCÉ
Finalement, ce n’est qu’en 1984 que sera inauguré un CRAY 1 pour la recherche.
C’est celui de la CISI déménagé au centre de calcul Vectoriel pour la Recherche
(CCVR), installé dans les sous-sols de l’École polytechnique à Palaiseau 161.
Le directeur était J.-C. Adam, celui qui avait demandé en 1980 l’installation

161 Revue mensuelle de la Société amicale des élèves de l’École polytechnique, La Jaune

et la Rouge, n° 398, p. 27, octobre 1984.


Période 1981-1989 213

du CRAY au CIRCÉ. Il connaissait parfaitement le CIRCÉ pour en avoir été


longtemps un des plus gros utilisateurs et la collaboration a été totale avec
P. Salzedo et S. Fayolle. C’était extrêmement précieux étant la liaison hyper-
channel installée entre le CRAY 1 et sa frontale au CIRCÉ et le fait que nous
faisions plus de 50% de la charge du CCVR.
« Le jeudi 5 juillet 1984, était inauguré par l’ingénieur Général Bousquet
et par le professeur Robert Chabbal, le centre de calcul vectoriel pour la
recherche dans les nouveaux locaux de l’École polytechnique. Huit partenaires
se sont associés pour cette création : le ministère de la Défense, le ministère
de l’Éducation nationale, le ministère des Transports, le Centre National
de la Recherche Scientifique (CNRS), l’Institut National de la Recherche
en Informatique et Automatique (INRIA), l’École polytechnique, l’Office
National d’Études et de Recherches Aérospatiales (ONERA) et la Compagnie
Internationale de Services en Informatique (CISI).
Le projet élaboré sous l’impulsion initiale de Patrick Fleury et de Pierre
Vasseur dans l’optique d’un centre national de compétences et de moyens en
matière de calcul vectoriel est présenté par Yves Farge au secrétariat d’État
à la Recherche de Pierre Aigrain. »
Le CCVR est donc un groupement d’intérêt économique qui associe les huit
membres cités.
Tout ce travail pour l’opération manquée et la préparation à une machine
CRAY se faisait simultanément avec le
développement du CIRCÉ qui avait une
charge croissante : c’est l’histoire de cette
évolution qui suit.
Quand le CCVR a remplacé le CRAY 1
pour un CRAY 2, la liaison a été trans-
portée sur le CRAY 2.
Le CRAY 2 est le premier ordinateur à
dépasser la puissance de 1 Gflops (1 mil-
liard d’opérations en virgule flottante par
seconde). Figure 92 – CRAY 2

9.4 Évolution des matériels installés


L’évolution du CIRCÉ a été particulièrement importante au début des années 80.
La configuration matérielle a beaucoup changé, avec l’installation d’un NAS
9080, d’un Bull DPS8, d’imprimantes à laser et de mémoires de masse.
Une nouvelle salle machine a été aménagée, avec climatisation et alimentation
électrique distinctes des anciennes installations de la première salle machine :
− le réseau de télécommunication a été réorganisé, tous les frontaux IBM
remplacés, de nouveaux services ouverts aux terminaux asynchrones. Très
minoritaires en 1982, les grappes de terminaux à écrans sont devenues le
matériel le plus utilisé en 1984. Les services en mode « pleine page » ont
connu un succès et un développement considérables ;
214 De l’IBM 360/75 au superordinateur Jean Zay

− les connexions intersites se sont multipliées, et avec elles les efforts pour
développer, consolider, documenter les services de transfert de pro-
grammes et fichiers ;
− d’importants développements ont permis l’ouverture de services avancés
en traitement d’image, traitement de texte scientifique, systèmes de bases
de données, impression de qualité, contrôle d’accès et protection des infor-
mations, gestion des fichiers ;
− un large effort d’assistance a été entrepris à l’intention des détenteurs de
micro-ordinateurs : aide au choix, à l’achat, à la connexion, au transfert
de données.
Ceci s’est fait grâce à un effort intense des personnels, et à la redéfinition
de certains objectifs prioritaires, débouchant sur d’importantes réorganisations.
Plus que par sa croissance quantitative, pourtant supérieure à 40 % par an,
cette évolution se caractérise par une diversification considérable des applications,
et un élargissement de la base des utilisateurs nouveaux venus à l’informatique.

9.4.1 Évolution des machines installées


Pendant que nous nous débattions, sans succès, pour avoir l’ordinateur vectoriel
souhaité il fallait bien faire tourner le centre avec les moyens que les commis-
sions nous concédaient. Quatre machines ont été installées.

Machines installées Date d’installation Date d’arrêt


NAS 9180 avril 1983 1990
Bull DPS8 décembre 1984 1989
IBM 3090 mars 1986 1993
SIEMENS VP200 septembre 1986 1993

En voyant un tel tableau, on pourrait croire que nous étions dans un pays
de Cocagne.

Parc Machines du CIRCÉ Période 1984-1989


puissance Max Mflops

800 533 800 533


1000 267

100
10
1
IBM NAS IBM NAS VP- IBM VP-
3090 9080 3090 9080 200 3090 200
200 600 + 600 +
VF VF
1984-1988 1988-1990 1990-1993
Puissance Mflops maxi 267 800 533 800 533
Super Calculateurs Vectoriels

Figure 93 – Parc des machines 1984-1989


Période 1981-1989 215

Mais qu’on ne s’y trompe pas. Ce n’est que du rattrapage, après une longue
saturation passée et avant celle à venir. Les obstacles n’avaient pas disparu et
nous allions toujours avoir des interlocuteurs devant lesquels il fallait défendre
les besoins des utilisateurs. Les interlocuteurs du CNRS étaient Messieurs :
− Hirel et Combet pour la DIELI,
− Chevert et Chibois pour la MIPI,
− Chevillot et Lorenzi au cabinet du ministre,
− Farge et Étienne au MRI.
Les quatre directeurs généraux de cette époque nous ont apporté leur aide,
souvent décisive.

9.4.1.1. NAS 9080


Après une rude bataille qui sera relatée, on arrache l’autorisation d’installer un
NAS 9080. L’importation hors des États-Unis d’un ordinateur de cette puis-
sance est soumise à un accord préalable de l’Administration américaine. La
procédure est relativement longue. Demandée trop tardivement, cette procédure
n’a pas abouti à temps pour permettre de respecter le calendrier initial.
Il a été décidé d’installer le plus rapidement possible un monoprocesseur NAS
9060, en limitant l’interruption à une fin de semaine entre le 6 et le 8 mai. Le
9 mai à 7 h, l’Amdahl V7 et le NAS 9060 étaient en production. Un accélérateur
vectoriel (IAP) a été monté le samedi 9 juillet. Un deuxième NAS 9060 a été livré
et démarré le 6 août, couplé avec le premier 9060 pour former un NAS 9080, bipro-
cesseur avec un accélérateur vectoriel. Le lundi 8 août, tout était en production.

CPU Biprocesseur, 32 canaux, puissance 21,5 Mips/processeur, 2 processeurs.


Un des processeurs est équipé d’un dispositif d’accélération des calculs
vectoriels (VF)

Mémoire Mémoire centrale de 32 Mo, mémoire d’arrière-plan de 64 Mo

Peu de temps après étaient connectés une imprimante à laser Xerox, deux
imprimantes à impact IBM et de nouveaux disques. Pendant l’été 1983 aussi,
deux adaptateurs de télétraitement 4705 Amdahl ont été mis en service pour le
télétraitement. L’ensemble est présenté dans la figure 94. C’est en octobre de la
même année que le NAS 9080 a été relié par une ligne à 1 Mégabit au CRAY 1
du CCVR. Les usagers ont été très satisfaits de cette liaison hyperchannel.
Et pendant toutes ces installations les ingénieurs système (14 ingénieurs en
1985) appliquaient les modifications aux logiciels de base pour que tout fonc-
tionne et installaient les nouveaux logiciels indispensables, tel HSM, qui faisait
la gestion hiérarchique automatisée des mémoires externes. Quant aux 16 ingé-
nieurs du GSU (service d’assistance aux utilisateurs), en plus du dépannage,
ils devaient tester les nouveaux logiciels, donner des cours, rédiger les manuels,
entretenir les grandes bibliothèques de programmes, implémenter des logiciels
pour des applications spécifiques.
La vectorisation était facilitée par le dispositif IAP d’accélération de calculs
vectoriels disponible sur le NAS 9080. Il était mis en œuvre pour les programmes
216 De l’IBM 360/75 au superordinateur Jean Zay

Fortran-VS par l’intermédiaire d’un préprocesseur VAST (Vector and Array


Syntax Translator) développé par la société Pacific Sierra Research Corporation
pour le compte de NAS. Grâce à ce préprocesseur, la vectorisation d’un pro-
gramme Fortran quelconque était pratiquement transparente et automatique
pour l’utilisateur.
Le traitement par lots était devenu obsolète. Beaucoup de terminaux lourds
n’étaient plus utilisés pour la soumission des travaux, mais pour le retour des
résultats. Les services conversationnels avaient subi une accélération massive.
De nombreux micro-ordinateurs disposaient alors de coupleurs et de logiciels
émulant des procédures de terminaux lourds. En revanche, il y a un domaine
où le mode par lots est utilisé. C’est celui des connexions des centres de calcul.
Le NAS 9080 sert de frontale au CIRCÉ pour l’accès au CRAY 1 du CCVR.
Le diagramme suivant montre l’ensemble CCVR avec le Cray, ses frontales et
ses liaisons.

Figure 94 – Frontalisation du CRAY au CCVR

9.4.1.2. LE DPS8
L’installation d’un DPS8 est le fruit d’une longue négociation avec Bull et le
ministre de l’Industrie qui voulait absolument installer du matériel national au
CIRCÉ pour un effet de vitrine : c’était la condition nécessaire pour les auto-
risations d’achat des VAX dans les labos, dont ceux de l’IN2P3. Restait à lui
trouver une place intelligente parmi les autres machines.
Période 1981-1989 217

Un DPS8/62M a été livré le 11 septembre 1984. Il fonctionnait sous Multics 162,


acronyme de Multiplexe Information and Computing Service, nom d’un système
d’exploitation en temps partagé.
Configuration : biprocesseur spécialisé dans les applications documentaires
et de messagerie et dont le réseau de téléinformatique communique avec les
autres machines.
Les opérations de mise en route du système se sont correctement déroulées
jusqu’au 21 septembre. Un manque de livraison de certains matériels périphé-
riques n’a pas permis d’effectuer les tests de vérification d’aptitude avant le
4 octobre. Ces tests se sont déroulés avec succès.
Dans une première phase, cette machine était réservée à la formation des
personnels du centre, et à divers développements, préalables à l’ouverture de
services aux utilisateurs.
Le premier de ces développements est celui qui permettait d’accéder au
Multics à partir de terminaux conversationnels connectés à la configuration du
NAS 9080.
La configuration comportait :

CPU Biprocesseur DPS 8/62

Mémoire Deux blocs de 2048 kmots, soit une mémoire totale de 4096 kmots
L’IOM processeur d’entrée/sortie, assurait l’interface avec les différents
processeurs spécialisés pilotant les sous-systèmes périphériques

Bandes Un contrôleur de bandes (MTP) gère trois dérouleurs de bandes


(MTU0538) double densité :
- 1600 bpi, vitesse de transfert = 200 000 bytes/s.
- 6250 bpi, vitesse de transfert = 781 250 bytes/s.

Disques Quatre contrôleurs de disques (MSP) gérant quatre unités de disques de


type 451 et quatre de type 501 (soit un total de 20 volumes physiques)
- 451 : disques amovibles à un axe d’une capacité de 157 Mo millions
d’octets et à un débit de 717 000 octets/s.
- 501 : chaque 501 est constitué de 4 disques fixes d’une capacité totale
de 1,101 Go et à débit de 1 064 000 octets/s.

Les Frontaux : un FENP (Front End Network Processor) et un UNCP,


géraient les lignes de télécommunication.
Nous avons recruté trois ingénieurs débutants pour couvrir au sein de
l’équipe système les activités liées au DPS8 Bull. Ces agents ont suivi des cours
de formation chez le constructeur pendant plusieurs semaines et ont assisté les
ingénieurs Bull lors du démarrage de la machine. Ils assuraient, seuls, la respon-
sabilité du logiciel de base Multics et acquéraient, par la pratique quotidienne,
l’expérience nécessaire.

162Multics, système d’exploitation dont dérive directement UNIX, fut conçu conjointe-
ment par le MIT, les laboratoires Bell et General Electric.
218 De l’IBM 360/75 au superordinateur Jean Zay

3 dérouleurs 4 disques 4 disques

Figure 95 – Configuration du DPS8/62

9.4.1.2.1. Messagerie MIC


Dans le schéma directeur informatique du CNRS, le matériel Bull récemment
installé au CIRCÉ remplira le rôle de serveur national pour la messagerie du
CNRS.
Il est souhaitable d’installer des serveurs locaux là où il y a une forte concen-
tration de personnels CNRS. D’autre part, beaucoup de relations entre une
Administration Déléguée (AD) et les laboratoires qu’elle administre seraient
facilitées par un service de messagerie.
Il a donc fallu équiper en priorité les administrations déléguées installés sur
des campus du CNRS importants. Cette approche a également facilité la prépa-
ration et l’ouverture du service : installation des matériels communs, formation
et information des personnels.
Par rapport aux formations situées sur un campus, les laboratoires isolés
auront accès aux mêmes services et dans les mêmes délais, compte-tenu des
choix faits pour les terminaux et le réseau de transport de l’information.
Pour permettre l’installation des serveurs locaux de messagerie MIC, il a
fallu compléter les développements fournis par le constructeur. Mais, ceux-ci
ont été menés dans des conditions difficiles à cause des insuffisances du support
offert par Bull et des glissements que le constructeur a fait opérer sur le calen-
drier de livraison des produits attendus (carte X25, par exemple).
Période 1981-1989 219

Une autre difficulté a été l’abandon par l’INRIA du portage du logiciel


COSAC sur Multics, auquel ses représentants s’étaient préalablement engagés.
On a donc dû reprendre en l’état ces développements au courant de l’été 1986
pour les mener à leur terme avant l’automne. C’est un domaine où des dévelop-
pements importants ont été nécessaires dans les mois qui ont suivi.
Concernant le service MIC proprement dit, les difficultés d’ancrage du ser-
vice de messagerie dans les moyens de communication du CNRS persistent et
toutes les fonctions d’administration des abonnés n’ont pu être transférées aux
services des administrations déléguées et sont en grande partie restées à notre
charge. Ces difficultés ont conduit à réexaminer les bases du service MIC en
prenant en compte :
− l’arrêt annoncé du système Multics qui était le pivot du service ;
− l’évolution des besoins en matière d’accès de microordinateurs aux ser-
vices de messagerie ;
− la mise en place de services X400 ;
− l’évolution générale des messageries de recherche.

9.4.1.3. L’IBM 3090


Ces années marquent la fin de la suprématie d’IBM dans le domaine des plus
puissants ordinateurs. Il réagit avec la série S successeur haut de gamme des
séries 360 et 370.
« IBM présente sa nouvelle série S dont le modèle le plus puissant atteindrait
120 millions d’instructions par seconde (Mips), soit l’ordinateur universel le
plus puissant existant. “La série des mainframes 3090 est destinée à vivre”,
déclare Big Blue. Tel le phœnix de la mythologie grecque, le grand système
IBM ne cesse de renaître de ses cendres. Depuis sa naissance en 1964, le
mainframe a pourtant été régulièrement présenté comme mourant 163. »
Un des premiers modèles annoncés en 1985, l’IBM 3090/200, est installé au
CIRCÉ. Il est doté de l’unité « Accélérateur Vectoriel (VF) ». La configuration
totale est donnée dans l’annexe 27.
Plusieurs autres modèles de l’IBM
3090 plus performants seront annoncés
dans les années suivantes. À la fois ordi-
nateur polyvalent et multiprocesseur de
très hautes performances, le 3090/600E
est au centre des services informatiques
fournis par le CIRCÉ. Il gère tout le
réseau de télécommunications, sup-
porte l’activité en temps partagé TSO,
effectue des calculs lourds en traitement
par lots, et même temps qu’il sert de
machine frontale aux deux supercalcula- Figure 96 – IBM 3090. Reprint
teurs vectoriels. Courtesy of IBM Corporation ©

163 Article de 01 Informatique de 1988.


220 De l’IBM 360/75 au superordinateur Jean Zay

Améliorations du modèle IBM 3090 qui seront successivement installées au


CIRCÉ

Modèle Installé Nombre de


Année N-way MFLOPS
IBM au Chip processeurs MHz OS
Annonce processor(s) MAX
3090 CIRCÉ vectoriels

200 2 × central
1985 1986 2 216
+VF processors

600 E 6-way
1987 1988 ECL 6 58,1 MVS 696
+VF (two 300s)

600S 6-way
1988 1990 ECL 6 66,7 MVS 800
+VF (two 300s)

Figure 97 – Caractéristiques des ordinateurs IBM

Le 3090 200 est d’abord upgradé en 3090 400. Puis il est reconfiguré, le
3090/600E+VF du CIRCÉ est reconfiguré en modèle 600S, doté en plus de 6
dispositifs VF, un par processeur. Il apporte les facilités de calcul vectoriel. En
avril 1990, la mémoire centrale sera étendue de 256 à 512 mégaoctets.

CPU Biprocesseur, 40 canaux, puissance 16 Mips/processeur


Un des processeurs est équipé d’un dispositif d’accélération des calculs
vectoriels (VF)

Mémoire Mémoire centrale de 64 Mo, mémoire d’arrière-plan de 64 Mo

L’architecture ESA/390 (Enterprise System Architecture/390) a été annoncée


le 5 septembre 1990 164.
L’arrêt du V7 Amdahl, la mise en service du 3090 et de plusieurs batteries
de 3380 ont été planifiées pendant les vacances de Pâques.

26 mars 1986 6 heures Arrêt du V7 – démontage


10 heures Livraison de 4 batteries 3380 et de 4 contrôleurs de
disques 3880-23
14 heures Mise en place des disques et contrôleurs, montage et mise
sous tension.

26 mars 1986 9 heures Livraison du 3090


15 heures Mise en place et montage

26 mars 1986 Connexions des contrôleurs de disques et des disques du


NAS 9080 sans interruption des services

164 https://fr.wikipedia.org/wiki/IBM_360_et_370
Période 1981-1989 221

1er avril 1986 6 heures Mise sous tension du 3090 (le 3090 doit rester au
minimum 48 heures dans une salle climatisée avant sa
mise sous tension)
15 heures Début des tests constructeur

2 avril 1986 6 heures Connexion des unités du 3090


15 heures Tests constructeur

3 avril 1986 12 heures Tests du système et de la configuration

4 avril 1986 Fin des tests du constructeur

5 avril 1986 9 heures Tests de vérification

6 avril 1986 NAS 9080 et IBM 3090 en production

Le passage à six dispositifs vectoriels, conjugué à l’installation d’un nombre


croissant de logiciels d’application vectorisés et pour certains parallélisés a
aidé à traiter dans de meilleures conditions les applications lourdes qui restent
actuellement en exécution plus de 24 heures.
En 1988, des extensions seront mises en œuvre pour prendre en charge plu-
sieurs espaces adresse (370-ESA). En 1990, les modèles ES/9000 sont sortis
avec des canaux I/O optiques à fibre optique (ESCON), et IBM a commencé à
utiliser le nom System/390.

9.4.1.4. Le VP200
Supercalculateur vectoriel VP200 de Fujitsu construit en Allemagne.

CPU Monoprocesseur, 32 canaux, mémoire centrale 128 Mo, puissance 570 Mflops

Mémoire Mémoire centrale de 128 Mo

Calendrier de l’installation du VP200

19 septembre 1986 Livraison et mise en place du VP200


1 contrôleur de disques et 2 batteries de 3380

20 septembre 1986 Mise sous tension et tests constructeur

21 septembre 1986 Connexion de la configuration

22 septembre 1986 Tests du système

23 septembre 1986 VP200 en production

L’arrivée du VP200 a nécessité un important effort de mise en œuvre. Côté


frontale IBM, l’intégration des différents produits a été réalisée sous TSO. En
dehors des bibliothèques scientifiques SSL II fournies par le constructeur, nous
222 De l’IBM 360/75 au superordinateur Jean Zay

avons mis en service la librairie NAG (par comptabilité avec IBM), les librairies
LINPACK et EISPACK pour les utilisateurs du CRAY, ainsi que le logiciel gra-
phique NCAR (version GKS).
Un effort important a été consacré à la promotion du VP200 et à la réali-
sation de stages de formation. Cet effort sera poursuivi dans les mois suivants,
notamment pour l’emploi des outils interactifs et pour l’emploi du compilateur
FORTRAN 8X. Le dispositif vectoriel du 3090 a aussi été mis en service ainsi
que ses librairies scientifiques ESSL.
Plus tard, le VP200 est classé au Top500 165 de juin 1993 au rang 476 avec
un pic théorique de puissance de 533 Mflops. Ci-après extrait de la liste du
TOP500 :

9.4.1.5. Principaux périphériques


La plupart des périphériques sont connectés et partagés entre l’IBM 3090 et le
NAS 9080. Ces machines partagent également quelques unités de disques et de
bandes magnétiques avec le VP200.

Disques Disque de types 3350 et 3380 d’une capacité de 116 milliards d’octets,
répartis sur 112 volumes

Mémoire Mémoire de masse IBM 3850/A2 à manchons magnétiques, d’une


capacité de 102 milliards d’octets (50 millions d’octets par manchon)

Bandes Lecteurs de bandes de type 3420 et 2 lecteurs de cartouches type 3480


(200 millions d’octets par cartouche)

Imprimante Électrostatique couleur type Versatec haute résolution (400 points au


pouce)

Installation d’unités périphériques :


− mise en service d’un adaptateur de télétraitement IBM 3725 en avril
1986 ;
− mise en service d’une unité de pagination Memorex de 128 Mo en mai
1986.

165 TOP500, classement des 500 calculateurs les plus puissants au monde, https://fr.

wikipedia.org/wiki/TOP500
Période 1981-1989 223

Figure 98 – IBM 3350. Reprint Courtesy Figure 99 – IBM 3380. Reprint


of IBM Corporation © Courtesy of IBM Corporation ©

L’espace en ligne est de 116 Go.

9 .4 .1 .6 . Plateforme d’ensemble et production


Le NAS et l’IBM sont reliés entre eux par des canaux aboutés CTC et par le dis-
positif hyperchannel. Ils forment un environnement de type IBM avec les mêmes
périphériques, des fichiers et des logiciels compatibles. Leurs configurations sont
très imbriquées, avec un réseau téléinformatique commun. Ils forment avec le
VP200 une plateforme illustrée par la figure 100.

Découplage du NAS 908200

20 mai 1986 Découplage du bi-processeur 9080 en 2 processeurs de 16 canaux,


16 Mo de mémoire (chaque processeur devient un 9060)
Le 9060 N0 reste en production
Le 9060 N1 devient une machine de tests en vue de l’ouverture d’un
service VM

Figure 100 – Schéma de la configuration matérielle 1988


224 De l’IBM 360/75 au superordinateur Jean Zay

La disponibilité de l’ensemble, c’est-à-dire la proportion du temps utilisable


de l’ensemble de la plateforme, par rapport au temps horloge, dépasse les 99 %.
C’est satisfaisant, mais cela indique aussi que la marge d’amélioration est très
faible (figure 101).

9060-MVS 3090-MVS 9060-VM VP200

Heures % Heures % Heures % Heures %

8683 99,12 8656 98,81 7943 99,08 8710 99,42

Figure 101 – Disponibilité des ordinateurs du CIRCÉ en 1988

Il a été mis en place une cellule composée de deux ingénieurs et d’un assis-
tant ingénieur qui assistait les utilisateurs pour les problèmes de fichiers. Cette
cellule a en outre à sa charge, l’administration du service Multics et la question
de l’espace sur disques (environ 450 000 fichiers) pour les systèmes MVS. En
collaboration avec un ingénieur système, elle met en production un gestionnaire
automatique de la bandothèque, soit près de 17 500 bandes magnétiques. En
1987, ils ont répondu à :
− 482 demandes pour traiter des bandes magnétiques ;
− 138 demandes pour recréer, à partir des sauvegardes sur version anté-
rieures, des fichiers sur disques effacés par erreur par l’utilisateur.
Toutes ces demandes augmentent de 30 % par an.

9.4.2 Stockage des données


L’évolution du stockage des données est aussi spectaculaire que la puissance des
machines installées 166. En 1984, 80% des travaux utilisaient des fichiers. Dans un
avenir proche, on prévoyait que la très grande majorité des fichiers seraient uti-
lisés en mode conversationnel. Ils devront donc être accessibles instantanément
ou en quelques dizaines de secondes au plus. Donc il faut organiser le travail
autrement. Jusqu’à cette époque, les opérateurs étaient présents 24h/24, 6j/7.
Les montages étaient donc possibles pendant cette période. Cependant, la diver-
sité des services, le volume de production augmentant, il était exclu de faire évo-
luer les effectifs au même rythme. Une redistribution des postes de travail était
donc nécessaire, notamment des postes d’après minuit vers de nouveaux postes
entre 7 heures et minuit, par exemple pour les services conversationnels. Ce qui
coïncidait avec la recherche d’une moindre pénibilité du travail posté. Il fallait
donc une mémoire d’arrière-plan de très grande capacité, moins performante,
mais moins coûteuse que les disques, accessible sans intervention humaine. Les
fichiers les moins utilisés y seront transférés, les autres restant sur disques.

166 Interface HSM/fichiers, CIRCÉ, 16/10/1984, Archives de l’IDRIS.


Période 1981-1989 225

Ce transfert vers une mémoire d’arrière-plan de fichiers qui avaient été placés
par leurs propriétaires sur disques en ligne est décidé par la machine fichiers.
Elle obéit à des critères la rendant peu ou pas prévisible par l’utilisateur. Ce
n’est pas lui qui connaît par exemple l’encombrement effectif des disques à un
instant donné. La seule chose qui lui importe, c’est que son travail ne soit pas
abandonné faute d’avoir trouvé le fichier demandé.
Le but premier de H.S.M 167 (Hierarchical Storage Manager) est d’automatiser
la gestion de l’espace occupé par des programmes et/ou les données à travers
une hiérarchie d’unités et de volumes de stockage et par conséquent d’améliorer
la productivité du centre, fournisseur de services et de ses utilisateurs.
Le logiciel HSM fonctionnait sous le système d’exploitation MVS/JES3
et tenait compte à ce moment-là des unités de stockage courantes comme les
volumes :
− disques type 3330, 3350, 3380 ;
− la mémoire de masse (MSS).
et, dans certains cas, les volumes bandes standard 9 pistes.
Le logiciel HSM était classé « produit stratégique » par IBM, ce qui
était un engagement à son adaptation aux versions successives des logiciels
« MVS, JES 3, TSO... » et au support de nouvelles unités de stockage (disques,
bandes).
En 1988, la mémoire de masse IBM 3850 a été remplacée par le robot Storage
Tek 4400 168.
− une capacité d’au moins
1000 giga-octets ;
− une réduction des coûts ;
− un débit élevé compatible
avec les quantités manipu-
lées et les unités disques ;
− un accès aux données sans
intervention humaine en
moins de 15 secondes.

Figure 102 – Vue du magasin des cartouches

167 HSM est un produit-programme d’IBM, de gestion d’espace de stockage de fichiers


à travers une hiérarchie de supports matériels aux coûts, capacités et vitesses d’accès
différents, utilisable en traitement par lots (« batch ») et en mode interactif sous TSO.
168 https://www.youtube.com/watch?v=FBEwcN_gSAk
226 De l’IBM 360/75 au superordinateur Jean Zay

Après étude des solutions exis-


tantes, notre choix s’était porté sur
le système automatisé à cassettes
4400 de la société STORAGETEK
(figures 103 et 104) (annexe 33).

Figure 103 – Le robot du STORAGETEK

Figure 104 – Les baies du STORAGETEK

La 4400 STK a été installée pendant le mois de juillet 1988 puis testée en
interne. Elle a reçu rapidement les sauvegardes DF/HSM dont l’enregistrement
sur cassettes en mode manuel a commencé en mai 1988. Pendant l’été, les opé-
rations de sauvegarde et de migration quotidiennes DF/HSM ont été dirigées
vers la 4400. Puis a eu lieu le transfert du contenu de la mémoire de masse à
manchons magnétiques 3850 IBM, qui termina ainsi sa carrière.

9.5 Évolution des services


Depuis sa création le CIRCÉ évolue en matériel et logiciel pour être prêt à
s’adapter malgré les contraintes aux besoins des utilisateurs et si possible les
anticiper comme l’indique un bref historique (annexe 32).
Période 1981-1989 227

9.5.1 Travaux du groupe exploitation


Les pupitreurs spécialisés couvrent la plage de 6 h 30 à 24 h du mardi au ven-
dredi, la nuit complète du lundi, et 7 h-14 heures le samedi. Un système d’as-
treinte a été mis en place pour assurer un dépannage dans l’heure qui suit un
incident survenu la nuit, en dehors des heures de présence des équipes et depuis
le 5 septembre 1987, du samedi 14 h au lundi 6 h 30.
Sur les 8760 heures possibles en 1987, 3624 heures ont été effectuées en
mode automatique, 1287 heures ont été couvertes par astreinte en semaine et
712 heures du mardi 14 h au lundi 6 h 30 ou jour férié.
L’équipe d’astreinte est intervenue 14 fois en semaine et 4 fois en fin de
semaine dans les 45 minutes qui ont suivi l’appel.

9.5.2 Travaux du groupe système


Le travail a été intense pour la mise en exploitation de la plateforme 169. Il
s’agissait de tirer le meilleur profit des machines qui nous étaient autorisées.
Toutes ces machines étaient nouvelles. Il fallait essentiellement qu’elles puissent
communiquer entre elles et partager les mêmes fichiers et cela, sans interruption
de service. Les six faits marquants pour le groupe ont été :
− l’ouverture du service sur le VP200 SIEMENS. Même en isolant au
maximum cette machine du reste de la configuration, les questions à
régler ont été nombreuses, particulièrement dans les domaines de trans-
ferts de fichiers et vérifications liées à la sécurité d’accès ;
− l’ouverture du service VM sur le NAS ;
− la publication assistée par ordinateur ;
− la gestion d’agendas et de documents ;
− une approche des techniques d’Intelligence Artificielle ;
− la mise en œuvre du logiciel de contrôle d’accès RACF.

9.5.3 Travaux du groupe d’assistance


Avec toutes ces installations, les 16 ingénieurs du GSU (groupe d’assistance
aux utilisateurs), en plus du dépannage, devaient tester les nouveaux logiciels,
donner des cours, rédiger les manuels, entretenir les grandes bibliothèques de
programmes, implémenter des logiciels pour des applications spécifiques. Des
services nouveaux ont été ouverts.

169Note de l’auteure : La plus grande reconnaissance du travail de l’équipe est venue de


Seymour Cray lui-même qui disait : « C’est là que j’aurais voulu installer ma machine.
Mais on ne m’a pas écouté. Ah ces Français ! »
228 De l’IBM 360/75 au superordinateur Jean Zay

9.5.3.1. Bases de données


Deux nouvelles bases ont été créés en 1986 (CEPII, DRCI) portant à 41 le
nombre de bases de données ADBAS installées au CIRCÉ. La moyenne d’utili-
sation de ces bases est de 4 millions de commandes ADABAS par mois.
Tous les documents en ligne réalisés au CIRCÉ ou obtenus sur support infor-
matique sont regroupés dans une base documentaire. Le logiciel documentaire
SPIRIT permet à la fois de rechercher des documents par leur nom et de poser
une question en langage naturel permettant la sélection de documents.

9.5.3.2. Graphiques
L’arrivée sur le marché de logiciels GKS (Graphical Kernel System) faisant
l’objet de normes internationales ISO a conduit le CIRCÉ à remplacer le logiciel
GPGS qui sert de base à toutes les applications graphiques en mode vecteur, par
le logiciel UNIGKS fournie par la société UNIRAS. Des outils de conversion ont
été réalisés. Tous ces produits, installés sur l’IBM 3090, le sont également sur le
VP200 et communiquent par la frontale par des métafichiers.

9.5.3.3. Les services VM


Plusieurs services ont été mis en place dont, un service de Publication Assistée
par Ordinateurs (PAO) et d’autres services personnels tels que la messagerie,
l’agenda ou les notes. L’interconnexion avec la messagerie MIC n’a jamais pu
aboutir.
VM/PROLOG a été installé. C’est le premier maillon d’un service de gestion
de bases de données.

9.5.3.4. Assistance aux utilisateurs de PC


À chaque fois qu’une solution logicielle pouvait être proposée sur PC et restait
compatible avec les produits disponibles sur les ordinateurs centraux, le GSU en
a facilité l’accès aux utilisateurs (NATURAL/PC, SAS/PC et PC/TeX), en les
implémentant et a fait des cours et travaux pratiques.

9.5.3.5. Assistance technique


L’assistance aux utilisateurs a évolué avec la complexité des techniques et est
articulée autour d’une amplification des relations directes avec les utilisateurs,
d’une personnalisation des services et d’un soutien actif aux applications les plus
complexes ou les plus exigeantes en ressources informatiques.
En règle générale, le premier point de contact de l’utilisateur est la perma-
nence d’assistance technique sur place ou par téléphone. Si les ingénieurs du GGU
ne peuvent pas répondre au problème, les utilisateurs s’adressent à une assistance
de second niveau auprès d’un spécialiste de la question au sein du CIRCÉ, qu’il
fasse ou non partie du GSU. De toutes façons, l’extrême diversité des logiciels et
services offerts fait que même les ingénieurs confirmés sont vite mis en défaut et
doivent transférer la demande à un spécialiste du produit concerné.
Période 1981-1989 229

9.6 Vie d’un algorithme et retombées industrielles


On discute sans fin sur des sujets connexes : l’informatique est-elle une science ?
Place des informaticiens dans les centres de calcul ? Relations entre ingénieurs
des centres de calcul et chercheurs en informatique ? Il y a dans le monde
informatique plusieurs métiers qui ont tous leur utilité, mais correspondent à
des besoins différents. Comme dans toute discipline, il faut des chercheurs qui
manient les concepts fondamentaux sur la programmation, les systèmes de com-
munications, etc. À l’autre extrémité de la chaîne, il y a le chercheur qui veut
une boîte à outil dans laquelle il mettra ses données et qui lui donnera les résul-
tats qu’il attend. Entre les deux, il y a le centre de calcul. L’utilisateur travaille
sur un sujet de pointe. Il a besoin d’un outil de pointe. La plupart du temps,
il trouve dans les nombreuses bibliothèques de programmes ceux qu’il pourra
assembler pour résoudre son problème. Il sera aidé par un ingénieur d’assistance
qui les connaît bien, les a testés et comprend suffisamment la discipline pour
concevoir le problème particulier. Il peut arriver que l’algorithme n’existe pas.
Alors une collaboration peut s’établir entre un chercheur fondamentaliste, un
chercheur appliqué et un ingénieur informaticien pour la conception, la mise au
point, puis la livraison du produit qui rejoindra une bibliothèque. Le premier
choisit de réfléchir à un concept qu’on lui propose comme susceptible d’appli-
cations. Puis il s’assure de la collaboration des deux autres. Donc il y a bien eu
un travail de recherche d’un ingénieur informaticien dans un centre de calcul,
mais il a deux caractéristiques : le sujet répond à la demande d’un utilisateur,
et son installation ne perturbe en rien la production. C’est une question très
importante. Dans un centre de calcul de production, un chercheur ou un ingé-
nieur-chercheur, ne « prend » pas la machine. C’est un mot qui a disparu du
vocabulaire. La production peut être arrêtée pour :
− l’installation de nouveaux matériels. Chaque centre essaie de battre un
record de vitesse ;
− l’installation de nouveaux logiciels ;
− la maintenance par le constructeur prévue par contrat ;
− cause de panne hardware. Alors les équipes du constructeur et du centre
interviennent pour faire le diagnostic et réparer ;
− des interventions sur des logiciels de base ou des logiciels applicatifs pour
repérage et réparation de défauts souvent détectés par les utilisateurs
Elles se font, dans les heures de moindre charge la nuit, ou les dimanches
et jours fériés si elles sont importantes. Elles sont comptabilisées et dimi-
nuent le ratio heures disponibles/ heures d’ouverture du centre. Ces inter-
ventions sont planifiées.
En fin d’intervention, on « rend » la machine à l’exploitation. Mais on ne
l’avait pas prise. Elle vous avait été « donnée » par l’exploitation ou « attri-
buée » dans le planning.
Les mises au point de logiciel applicatif se font en les incorporant dans la file
de traitements par lot. Le seul facteur sur lequel l’ingénieur chercheur peut agir
c’est la priorité. De toute façon, son emploi des ressources est comptabilisé à son
sigle comme tout utilisateur.
230 De l’IBM 360/75 au superordinateur Jean Zay

Figure 105 – Temps de calcul d’une transformée de Fourier de 1 million de points


Période 1981-1989 231

Dans un sujet aussi sensible, il ne faut pas perdre de vue l’idée fondamen-
tale qui, à toute époque, éclaire cette question de cohabitation de la recherche
en informatique et production. La recherche fondamentale dans ce secteur est
indispensable. Elle doit se faire sur du matériel dédié. Quand les chercheurs en
informatique ont besoin des services du centre de service, leurs interventions
doivent être planifiées comme pour toutes les disciplines.
On peut prendre comme exemple les algorithmes de calcul de la transformée
de Fourier, dont l’exécution est passée en trente-trois ans d’un siècle à moins
d’une seconde (figure 105). Pour arriver à ce résultat, il a fallu :
− des travaux de recherche fondamentale. Cooley et Tuckey ingénieurs IBM
ont inventé un nouvel algorithme, la Fast Fourier Transform (FFT) ;
− des travaux de chercheur-informaticien. H. Delouis l’a adapté à des machines
ayant des mémoires auxiliaires et à des fonctions réelles, puis paires et
impaires ;
− des changements hardware.
Finalement, le processus a été industrialisé et les chimistes ont eu à leur dis-
position une boîte noire à laquelle il soumettait une source lumineuse à étudier
et à la sortie ils récoltaient un spectre. La boîte noire contenait un interféro-
mètre et un calculateur spécialisé. Cinq firmes principales se sont partagé le
marché (figures 107, 108). La spectroscopie à haute résolution utilise mainte-
nant d’autres techniques mais l’algorithme est toujours largement utilisé, par
exemple en sismologie, en astronomie ou en traitement d’images.

Figure 106 – Analyseur


harmonique de Michelson

Figure 107 – Appareils Nicolet pour FTIR


232 De l’IBM 360/75 au superordinateur Jean Zay

Figure 108 – Appareils pour spectroscopie par Transformée de Fourier dans l’infrarouge
des sociétés Bruker, Hewlett-Packard, Digilab et Perkin-Elmer
Période 1981-1989 233

Quel chemin parcouru depuis le premier analyseur harmonique mécanique


construit pas Albert A. Michelson (figure 106) qui a fourni les premières ana-
lyses du signal ! Il y en a deux exemplaires dans des musées, l’un à Londres et
l’autre à Washington.

9.7 Réseau et télétraitement et sa reconnaissance


officielle
Le réseau téléinformatique du CIRCÉ a un triple rôle :
− offrir à ses utilisateurs français l’accès aux ressources informatique sur
son site d’Orsay ;
− leur permettre d’utiliser des services distants proposés par d’autres ser-
veurs français ou étrangers ;
− servir de plaque tournante de communication vers les réseaux nationaux
et internationaux.
Sa configuration a considérablement évolué pendant la décennie.
Les directions du CNRS, de l’Éducation nationale, du CIRAD, de l’INRA,
de l’INSERM et de l’ORSTOM ont pris la décision le 10 mars 1986, de créer
en commun un réseau des universités et de la recherche qui doit permettre
l’interconnexion progressive des ordinateurs des universités et de la recherche
française (annexe 29). Il doit satisfaire les besoins de communication scienti-
fique au niveau régional, national et international. Le domaine de compétence
de ce réseau concerne la promotion et la mise en œuvre de la communication
informatique à l’usage de la formation et de la recherche. Les investissements en
logiciels et matériels autres que ceux strictement nécessaires à cette communi-
cation ne doit pas partie du champ de compétence du réseau. Les fonctions qui
seront assurées sont, en conséquence :
− le courrier électronique ;
− les transferts de fichiers et de travaux ;
− l’interconnexion des centres serveurs informatiques ;
− les accès destinés au calcul et les accès documentaires.

9.7.1 Réseau REUNIR


La structure REUNIR (figure 109) est le lieu où se coordonnent les projets d’in-
terconnexion que nous avons déjà évoqués et notamment :
− la communication entre les réseaux SNA ;
− l’interconnexion des réseaux hyperchannel à travers des liaisons haute
vitesse ;
− le service commun de transfert de fichiers construit sur les protocoles TCP/IP ;
− la migration vers les protocoles OSI (messageries OSI, messagerie X400 et
logiciel FTAM).
L’activité du CIRCÉ s’y exerce au niveau de :
− l’animation des activités de REUNIR ;
− la participation aux études et projets du groupe technique de REUNIR.
234 De l’IBM 360/75 au superordinateur Jean Zay

Figure 109 – État du réseau REUNIR en juillet 1986

Au cours de l’année 1987, le ministère de la Recherche et de la Technologie


a mis en place un groupe de coordination pour le réseau de la recherche sous la
direction de G. Pujolle pour coordonner les actions Réseau recherche en France.
D’un point de vue technique, ce groupe a engagé notamment deux opérations
auxquelles nous participons activement : une étude sur les profils fonctionnels
dans le cadre des projets européens d’interconnexion (RARE, COSINE) et une
étude pour définir les spécifications d’un service annuaire pour l’ensemble de la
recherche française.
Simultanément, REUNIR étant le représentant officiel de la France dans les
projets RARE (Réseaux Associés pour la Recherche Européenne) et COSINE
(Coopération for OSI Network in Europe), nous participons également à ces
projets européens :
− participation au groupe de travail WG6 (moyen et haut débit) de RARE/
COSINE ;
− participation au meeting RARE de Valence ;
− coopération entre le réseau DFN (RFA) et REUNIR.
Il y a des sollicitations vives du ministère de la Recherche et de la Technologie
pour que nous accroissions notre participation à ces projets, sollicitations aux-
quelles il est difficile de répondre positivement pour des raisons d’effectifs.
Période 1981-1989 235

9.7.2 État du réseau des universités et de la recherche


en juillet 1989

Figure 110 – État du réseau du SEU en novembre 1989

9.7.3 État du réseau en novembre 1989


Les lignes directrices qui suivent ont guidé son élaboration :
« L’année 89 a été marquée par la diversification des services réseau et des
protocoles supportés : en plus des services SNA et NJE-Earn, les services
Decnet et IP sont en exploitation. Se préparent actuellement l’ouverture d’un
large service X25 relié au réseau européen IXI et un service à débit élevé sur
le réseau de super-calculateurs IBM, Easinet. »
Toute cette évolution se caractérise par deux éléments majeurs :
− l’organisation des connexions suivant une hiérarchie qui va du réseau
local de laboratoire aux grands réseaux internationaux en passant par les
réseaux fédérateurs de Campus ;
− l’accroissement significatif des débits sur les liaisons qui permet de tirer
parti de la complémentarité des moyens de calcul distribués sur le réseau.
236 De l’IBM 360/75 au superordinateur Jean Zay

Dans cette topologie qui s’organise aux niveaux national et international, le


CIRCÉ est amené à remplir un rôle croissant de plate-forme de communication :
il interconnecte les réseaux locaux ou régionaux de ses utilisateurs, il leur fournit
l’accès vers les autres sites de la recherche en France ou à l’étranger.
L’exploitation d’une telle plate-forme comprend plusieurs aspects :
− la gestion de l’infrastructure physique des liaisons ;
− l’administration du réseau (nommage, routage) ;
− le suivi quotidien de fonctionnement ;
− la documentation et l’assistance ;
− la représentation technique au niveau des instances fédératrices (natio-
nales et internationales). 170

9.7.4 Topographie des réseaux


Ils sont organisés autour des ordinateur NAS, 3090 et VP 200 suivant le schéma
de l’annexe 34. Sont regroupées dans l’annexe 35 les topologies détaillées des
différents réseaux.

9.8 Incendie de février 1988


Cet incendie a été spectaculaire. L’annexe 31, tirée de l’Interface n° 728, en
donne un reportage complet avec quelques photos. Il s’est déclaré le 26 février à
14 h 45 dans une des armoires d’un onduleur de 250 kVA installé dans le nouveau
local technique. Les utilisateurs éplorés qui avaient été évacués et regardaient
la scène depuis le parking, parlent d’une énorme fumée noire sortant par les
fenêtres du bâtiment. Tous voyaient leur outil de travail s’envoler en fumée, et
assommés, se demandaient déjà ce qu’ils deviendraient sans LE centre et où ils
pourraient travailler. Ce qu’il y a de plus ahurissant, c’est que malgré la fumée
noire contenant des poussières conductrices et un aérosol huileux très acide qui
s’est répandue partout et a déposé une suie noire partout dans la salle machine
et les bureaux, malgré l’effondrement d’une structure métallique, la destruc-
tion de baies d’électronique, de climatisations, les utilisateurs qui n’étaient pas
présents, se rappellent cet incident dans la vie du centre, comme l’un des plus
gênants, mais sans plus. Et pourtant, des années plus tard, quand on ouvrait un
placard d’archives qu’on n’avait pas consultées depuis longtemps, on en retirait
des papiers qu’il fallait laver avant de les lire 171. Ce fut un sinistre majeur. La
température est restée pendant une heure à 600 degrés dans le local incendié.
On a dû fracturer une porte de secours. Plusieurs pompiers ont dû être évacués
par le SAMU malgré leur équipement autonome. L’incendie a été maîtrisé au
bout de deux heures.

170Rapport d’activité du CIRCÉ de 1989, rapport technique et administratif, p. 33.


171Note de l’auteure : C’est ce qui est arrivé à plusieurs documents mis dans les annexes,
dont notre lettre de démission.
Période 1981-1989 237

Après consultations des inter-


venants, P. Salzedo a eu le choix
entre deux solutions ; reprendre le
plus vite possible une activité pro-
gressive en respectant les condi-
tions de sécurité pour le personnel,
ou une reprise plus tardive avec
recherche d’autres centres pour
accueillir la charge. Il a choisi la
première. Il a organisé le travail
de 270 personnes dépêchées sur les
Figure 111 – Nettoyage des câbles
lieux par les constructeurs.
Les personnels du CIRCÉ ont participé au lavage dans une solution chimique
adéquate, neutralisante, des composants du VP200 qui avait particulièrement
souffert (figure 111). C’est ainsi que le DPS 80 Bull a été complètement démonté
et remonté sur place. C’est assez surréaliste, mais les services ont repris au
rythme suivant :

Matériels Date et heure du redémarrage

NAS 9080 et toutes les communications mercredi 2 mars à 16 h 30

3090 IBM et TSO mercredi 2 mars à 18 h 30

Frontalisation du CRAY jeudi 3 mars à 14 h

Les imprimantes Xerox les 3 et 7 mars

La mémoire de masse 3850 vendredi 4 mars à 12 h 30

VP 200 SIEMENS mercredi 9 mars à 9 h 30

DPS Bull et messagerie vendredi 11 mars à 13 h.

L’opération a démarré avec 36 heures de retard sur le DPS8, car les experts
et représentants des diverses parties (Bull, le loueur, son assureur) ont été les
plus difficiles à activer. Il a fallu être très attentif au coût de l’opération. Dès le
vendredi soir, le secrétaire général du CNRS et l’administrateur délégué de la 4e
circonscription étaient venus sur place constater les dégâts et affirmer le soutien
du CNRS pour une reprise rapide des services. Soutien confirmé par le conseil
d’administration du CNRS, qui, dès le lundi matin, débloquait les fonds néces-
saires et mettait en place des procédures d’urgence sans appel d’offres. D’une
façon générale, les entreprises n’ont pas cherché à exploiter financièrement les
situations d’urgence. Au contraire, nos partenaires habituels ont le plus souvent
pris à leur charge une partie des coûts, et toutes les entreprises ont respecté
leurs devis, même souvent sous-estimés. Tous leurs personnels ont travaillé acti-
vement, dans un excellent esprit de coopération. Le total des dépenses s’est
élevé à 10 954,1 kF hors taxes.
238 De l’IBM 360/75 au superordinateur Jean Zay

Neuf jours après cet incendie majeur, toutes les machines et les communi-
cations remarchaient. Pendant les mois suivants, il a fallu remplacer quelques
composants qui avaient subi une corrosion dont les conséquences ne se sont pas
manifestées tout de suite.

Figure 112 – Baies après la remise en service

9.9 Politique tarifaire


La politique tarifaire pour le CIRCÉ a été l’objet de nombreuses discussions en
1984 : en comité directeur du CNRS, en comité des utilisateurs du CIRCÉ, en
groupe ad hoc animé par la division de l’informatique scientifique, en réunion
plénière des utilisateurs, réponses à des demandes du ministère de la recherche.
Personne ne comprend la politique tarifaire. La note technique tentait de
donner une explication mathématique a été envoyée à J. Sevin, mais c’était une
note mathématique du traitement du signal, peu accessible aux non spécialistes
et qui n’éclaircissait rien pour les autres. Personne ne comprend plus rien dans
l’attribution par différents services qui non seulement change dans la forme,
mais aussi dans la philosophie ; on devait faire payer un ticket modérateur, puis
on nous a demandé d’aller vers la facturation du prix coûtant, puis on est venu
à la gratuité pour certains types de calcul, puis le ministère nous a demandé
de bien faire payer le nombre de pages imprimées par un centre qui n’avait pas
de ticket modérateur. C’est comme un problème mal posé en théorie du signal.
Il faut y ajouter une information supplémentaire qu’on n’a pas. Aucune théorie
mathématique ne peut CRÉER de l’information. Donc il est proposé aux res-
ponsables de la prévision budgétaire d’adopter les mêmes règles de répartition
qu’en 1989.
Ce n’est pas LA solution d’un problème qui n’en a pas, mais c’est la moins
mauvaise, la seule qui ne conduit pas à des absurdités. Toute autre aboutira à
des chiffres, mais elle n’aura aucun sens.
Période 1981-1989 239

Il y a vingt ans qu’on appelle à la gratuité avec distribution de moyens infor-


matiques sur critère scientifique. Quand on examine l’ensemble des archives,
on est atterré de constater qu’elles sont pour plus de 50 % consacrées au ticket
modérateur, et à ses dérives. Où sont les critères scientifiques pour une telle
évolution ?
On sait, par expérience, qu’à une variation importante des tarifs d’un centre
correspond une variation en sens inverse et plus forte de la charge. Conséquence
sur les recettes : en cas de baisse significative de tarifs, elles resteront stables,
ou au mieux croitront légèrement ; mais à une hausse importante des tarifs cor-
respondra une baisse de la charge et des recettes car elle écartera bon nombre
de petits utilisateurs et bloquera les grosses exploitations.
Le phénomène est normal, puisque la demande est en expansion alors que les
moyens financiers sont limités.
Une baisse des tarifs rassure les usagers sur leurs possibilités de financier
leurs travaux et d’entreprendre de nouvelles recherches impliquant d’importants
traitements informatiques. Tandis qu’une hausse les incite à trouver une solu-
tion moins coûteuse ailleurs, ou les décourage de recourir à l’informatique.
Il en résulte que c’est de l’orientation choisie pour l’évolution des grands
centres (développement ou, au contraire, régression) que doit être déduit le
niveau général des tarifs à appliquer. Une discussion sur ce dernier point ne doit
intervenir qu’après la détermination de la politique générale.
Même dans les grandes entreprises françaises dont les divisions se facturent
mutuellement produits et services, il est rare que les services informatiques
communs opérant pour la recherche et le développement facturent leurs pres-
tations (alors qu’ils ne le font jamais même pour l’informatique de gestion). Ils
fournissent des relevés de consommation, plus rarement des informations sur
un coût interne, mais une facturation effective n’intervient généralement que
lorsqu’un prestataire informatique est vraiment indépendant (cas d’une filiale
informatique, comme la CISI pour le CEA).
Les dépenses de ces entreprises (annexe 25) pour leurs moyens informatiques
collectifs sont pourtant comparables, ou souvent supérieures aux nôtres, qu’il
s’agisse de superordinateurs vectoriels, de grands ordinateurs polyvalents ou
de réseaux (par exemple, en France : deux superordinateurs vectoriels dans des
établissements de recherche, 15 dans des établissements à caractère industriel).

9.10 Histoire parallèle


Les autorisations pour obtenir toutes ses machines ont été difficiles à arra-
cher. En particulier, on retrouve dans le calendrier de 1982 (annexe 19) toutes
les actions qui ont été déployées par P. Papon entre le 19 février 1982 et le
23 décembre 1982. Il a eu, en tant que directeur général, à se battre pied à pied
pour limiter l’imposition du matériel national, finalement, pour obtenir les VAX
de l’INAG et de l’IN2P3. Le président du comité des utilisateurs Osorio fait part
leur préférence pour le NAS 9080, comme l’atteste leur lettre du 1er décembre
1982. La correspondance avec Bull est volumineuse. Le ton est agressif pour
Jacques Stern, président de la CII et humble et conciliant pour P. Papon.
240 De l’IBM 360/75 au superordinateur Jean Zay

Il est obligé de concéder l’installation de matériel national DPS8 au CIRCÉ qui


n’en a que faire mais s’ingéniera à lui trouver un emploi possible dans la messa-
gerie et la documentation 172 à la fin de la décennie. Jacques Stern reconnaîtra
lui-même la non-adéquation de ces offres et la CII arrêtera la production et
maintien du logiciel Multics.
La même bataille se reproduira pour l’acquisition du VP200.

172 Lettre du 4 novembre 1982.


Chapitre 10
1989-1992

Introduction
C’est une période complexe, et de stagnation complète dans l’évolution de la
puissance des machines installées au CIRCÉ. On se rend compte a posteriori, de
ce que signifie pour les chercheurs que le parc reste figé pendant quatre ans au
moment où tout explose à l’étranger.
La période de presque stagnation des moyens mis
en place, est suffisamment courte pour qu’on ne voie
pas de décrochage sur l’évolution globale de la puis-
sance installée dans le tableau de vue d’ensemble
de la vie du centre (figure 5), mais suffisante pour
mettre en évidence, à une échelle plus détaillée, le
peu d’évolution de l’équipement en ordinateurs cen-
traux pendant quatre ans.
En revanche, la mission d’anticipation qui avait
commencé en 1976 pour s’affirmer en 1981, s’était
amplifiée avec le suivi et l’étude de l’explosion de
l’informatique à l’étranger. Il fallait une politique
accélérée de changements dans l’organisation du
centre et celle des groupes mis en place au CIRCÉ
depuis 1976. L’accroissement des moyens de stoc-
kage de données, et l’explosion du télétraitement se
sont poursuivis. À côté de ces efforts pour être prêts
à satisfaire l’accroissement des besoins en calcul
intensif, un effort considérable a été fourni pour
aider à la migration vers d’autres moyens, ceux qui
n’avaient pas besoin de calcul intensif et n’avaient
pas trouvé d’alternatives à l’emploi des services du
centre. Ce fut mission accomplie, puisqu’en 1993,
avant l’arrêt inéluctable des machines IBM, lorsque
S. Fayolle a pris son bâton de pèlerin pour visiter Figure 113 – Ordinateurs
les « petits utilisateurs » qui, auparavant, travail- en service entre 1989 et
laient au CIRCÉ, il a pu vérifier que tous avaient 1992
242 De l’IBM 360/75 au superordinateur Jean Zay

mis en place une solution de rechange opérationnelle. Il a fallu insister auprès


de quelques-uns, par exemple Mme Le Guen des Sciences humaines. Elle avait
établi son bureau dans celui d’une assistante du GSU et n’imaginait pas qu’elle
puisse travailler ailleurs. Elle appréciait le milieu vivifiant où quelqu’un était
toujours prêt à lui venir en aide. Finalement, elle a atterri à l’INSERM.

10.1 Évolution du matériel installé


En 1990, le 3090/600E+VF du CIRCÉ est reconditionné en modèle 600S doté en
plus de 6 dispositifs VF, un par processeur. Ses caractéristiques sont :

IBM Nbre CPU Chip Mhz MIPS Flops OS

3090/600S+VF 6 ECL 66,7 100 800 MVS

En avril 1990, la mémoire a été étendue de 256 à 512 mégaoctets.


La figure 114 montre bien la stagnation.

Coefficient a Facteur multiplicatif


Période
centre de calcul TOP centre de calcul TOP

1989 – 1992 0,0537 0,24 1,055 1,27

Pendant ces quatre années, le coefficient d’augmentation moyen sur deux ans
a été de 1,61 ce qui est inférieur au coefficient 2 annoncé par la loi de Moore.
Quant à celui du CIRCÉ pendant la même période, il est de 1,10, ce qui marque
la stagnation.
Mais je ne dirais pas « on s’en est sorti », ce qui en soit ne signifie rien,
mais les chercheurs ont pu continuer à travailler, ce qui est l’essentiel. Après le
départ de P. Salzedo, le directeur de transition comme il se désigne lui-même,
Serge Fayolle, n’a pas seulement maintenu le bateau à flot, mais l’a préparé pour
ses missions futures, pour le moment où il rejoindra la flotte des autres gros
centres européens et celle des grandes administrations et entreprises françaises.
La charge grandissante en calcul intensif a été absorbée en partie par le CCVR
qui, lui, voyait sa charge totale diminuer avec le départ de membres du GIE.
Quand on lit le rapport d’activité du CIRCÉ pour l’année 1989, on est frappé
par sa composition qui n’est pas celle traditionnelle des années précédentes, avec
ses quatre parties, matériels et logiciels, analyse financière, prospective, présen-
tation de résultats obtenus. La partie du matériel est très réduite. À côté de la
responsabilité de faire fonctionner à plein régime un parc de trois machines :
l’IBM 3090/600S+VP, le NAS9080, et la machine vectorielle VP200, un effort
considérable a été fourni pour la restructuration des groupes d’assistance. Il
fallait que tous, personnel du centre et utilisateurs soient prêts à accueillir les
nouvelles technologies à venir dans le vectoriel et le parallèle, déjà implantées à
l’étranger et que des formations à tous niveaux soient mises en place.
1989-1992 243

Figure 114 – Régression des puissances installées et du TOP500 de 1989 à 1992

Cette phase d’anticipation a été suivie de très près par le directeur des pro-
grammes et moyens J. Sevin et le directeur général François Kourilsky, ainsi
qu’en témoigne une volumineuse correspondance conservée dans les archives de
la DIS. Quand F. Kourilsky faisait part de son intérêt et de ses inquiétudes,
vue la charge de travail, à l’administrateur délégué M. Gueldreich, il lui fut
répondu : « Laissez-les faire. Ils sont bons et ils ont l’habitude. »
244 De l’IBM 360/75 au superordinateur Jean Zay

C’est vrai que le CIRCÉ avait tra-


versé d’autres tempêtes. Finalement
le bateau sera remis à flot et pour-
suivra une course honorable, sans
décrochage, et reprendra une place de
leader dans certains domaines.
Quand le 23 novembre 1988, j’ai
tiré la sonnette d’alarme auprès de
F. Kourilsky pour attirer son attention
sur la stagnation de notre politique en
matière d’informatique de service, il
m’a répondu dès le lendemain qu’il
comptait sur un audit pour éclaircir
la situation. Il m’avait demandé
quelques jours auparavant d’accorder
le plus grand soin aux corrections que
je jugerais utile d’apporter au cahier
des charges rédigé par M. Berroir.

Figure 115 – Lettre de François Kourilsky


sur l’urgence de l’audit

10.2 L’audit de février 1989


Il faut préciser les raisons de cet audit et son objet.

10.2.1 Justification de cet audit


Les deux directeurs du CIRCÉ et du CCVR demandaient instamment qu’un
moyen soit mis en place pour inciter les directeurs scientifiques à prendre en
compte les besoins d’informatique dans leur discipline, à s’y intéresser et à
participer à la vie de la DIS. Le dernier comité scientifique de la DIS, en partie
élu, en partie nommé, présidé par M. Berroir, et où la DIS n’avait qu’une voix
consultative avait été incapable d’établir un schéma directeur. Il s’était enlisé
dans d’éternelles discussions sur l’intérêt de l’informatique et de son finance-
ment, et sur la disparité de ticket modérateur qui apparaissait comme le sujet
majeur sinon unique de ses préoccupations. Il en était sorti des propositions pour
un schéma directeur de l’informatique scientifique, réunis dans deux volumes,
qui n’apportaient aucune innovation et ne résolvaient rien 173. Il préconisait en
somme le statut quo avec une machine vectorielle au CIRCÉ et une autre au
CCVR, pour que « tout le monde soit content ».

173Propositions pour un schéma directeur de l’informatique scientifique 1989-1992,


Archives de la DIS.
1989-1992 245

Évidemment, le CNRS n’aurait jamais pu le financer. S. Feneuille, notre


directeur général à qui je l’avais remis, le trouvait, comme moi, tellement mau-
vais qu’il avait demandé qu’il ne soit pas diffusé en dehors du CNRS. Mais il
était néanmoins parvenu jusqu’à M. Cea, président de la COMI, qui n’en parlait
lui-même dans aucune réunion, mais me demandait, dans un échange de lettres,
si j’étais consciente de sa qualité médiocre.
La direction du CIRCÉ se battait depuis vingt ans pour demander l’inves-
tissement des directions scientifiques dans les besoins en informatique de leurs
chercheurs. Le directeur du CCVR, J.-C. Adam, exprimait exactement le même
besoin de participation des directions scientifiques en termes plus véhéments 174
et parlait de sa bataille :
« Comment se lancer dans une activité comme la modélisation numérique,
actuellement en pleine croissance dans le monde, sans avoir la certitude
qu’elle est reconnue comme importante par les directions scientifiques et la
direction générale ?
Il y a donc une nécessité absolue d’élaboration d’un schéma directeur en
concertation avec les directions scientifiques et les chercheurs. Depuis plu-
sieurs années les personnes qui ont participé et participent au fonctionne-
ment du CCVR se battent pour faire accepter l’idée que le calcul est un grand
instrument scientifique au même titre qu’un télescope ou un accélérateur ou
tout autre instrument et doit donc être géré comme tel. »
Le fond du problème est bien exposé dans le rapport de J. Caseau, direc-
teur de recherche et développement à l’EDF sur les grands moyens de calcul
scientifique 175 :
« Jusqu’ici, le système français a à peu près réussi à trouver les financements
qui lui étaient nécessaires pour accompagner une croissance des besoins qui
est très stable à la fois dans le temps (elle dure depuis plus de vingt ans) et
dans l’espace (elle concerne pratiquement tous les pays occidentaux). Par
contre, les systèmes de facturation créent des disparités telles que leurs appli-
cations provoquent des décisions absurdes, soit dans l’arbitrage entre dépenses
d’investissement et dépenses d’exploitation, soit dans le choix de l’échelon
de traitement (local ou national) le meilleur. La guerre larvée qui en résulte
est très dommageable pour la communauté scientifique. En particulier, l’une
des fonctions des grands centres qui est d’assurer la protection des investis-
sements en logiciel risque de ne pas être assurée correctement.
Le financement nécessaire au système français doit permettre le maintien des
centres nationaux au niveau d’excellence qui est nécessaire pour que le trai-
tement des grands problèmes scientifiques se fasse au sein de la communauté
française et que les efforts consacrés aux problèmes logiciels et à la formation
des utilisateurs ne se ralentissent pas. »

174Lettre, Adam, Archives de la DIS.


175Rapport de groupe de travail sur les grands moyens de calcul scientifique et leur
organisation en réseau, (rapport Caseau), janvier 1990, Archive de la DIS.
246 De l’IBM 360/75 au superordinateur Jean Zay

La non-harmonisation des tickets modérateurs dans tous les centres appelle


une solution 176.

10.2.2 Synthèse des résultats de l’audit


Les auteurs avaient enquêté auprès des directeurs de centres et nous ont soumis
une version provisoire sur laquelle nous pouvions faire des remarques. Chaque
fois j’ai insisté sur le besoin de l’implication des directions scientifiques, pour
un jugement sur la valeur scientifique de ce qui sortait des calculs et pour nous
aider dans l’anticipation des nouveaux besoins. Comme le dit J.-C. Adam, nous
faisions de notre mieux, mais souhaitions des interlocuteurs compétents et inté-
ressés dans chaque discipline. Les quatre centres sur lesquels portait l’enquête
étaient très différents : CIRCÉ à Orsay, centre de calcul de l’IN2P3 à Paris-
Jussieu, CCVR à Palaiseau, CCS à Strasbourg. Certaines remarques faites à
l’ensemble ne s’appliquaient pas à tous les quatre. Par exemple, la nécessité de
sauvegardes soi-disant inexistantes. Or, les fichiers du CIRCÉ avaient une sau-
vegarde à Gif-sur-Yvette.
Le rapport de synthèse est en entier dans l’annexe 30. Les principaux points
de l’appréciation globale sont :
− l’ensemble est bien géré ;
− bon niveau technique ;
− les chercheurs sont pour l’essentiel satisfaits.
En revanche,
− les rouages de décision qui étaient en place jusqu’en 1986 ne fonctionnent
plus. De ce fait, le processus d’établissement du schéma directeur est
bloqué d’où l’absence d’une politique à moyen et long terme ;
− la tarification est à revoir ;
− le CNRS n’a pas apporté de solution aux problèmes de personnel.
Quant à celles proposées, elles tournent autour de l’idée :
« Il nous paraît important que chaque direction scientifique ait une visibilité
suffisante de sa propre utilisation des centres. »
Pour cela, il faudrait qu’ils lisent ou fassent lire toutes les notes qu’ils
reçoivent des centres et que les personnes qui les représentent dans les comités
et commissions se sentent concernées comme celles du premier conseil de la DIS.

176 Note de l’auteure : J’ai vu un chercheur pleurer en découvrant dans Nature la publica-
tion par un chercheur américain d’un article sur le sujet duquel il travaillait lui-même. Il
ne lui avait manqué au dernier moment que des crédits pour payer ses calculs sur VP200,
son programme n’étant pas écrit pour le CRAY où il aurait travaillé gratuitement.
1989-1992 247

10.2.3 Accueil de l’audit


Les résultats d’un audit sont comme ceux d’une élection. Chacun y voit ce qu’il
voulait voir. Les deux directeurs de centres, P. Salzedo et J.-C. Adam, et moi-
même étions satisfaits de voir que le blocage du processus de décision depuis
1986 était bien pris en compte. Nous demandions l’implication des directions
scientifiques. J.-C. Adam écrit :
« Le rapport note très justement que la collecte des besoins est aujourd’hui
laissée à l’initiative des centres, qui s’acquittent du mieux qu’ils peuvent de
cette tâche, avec néanmoins comme corollaire le risque que le résultat de
cette collecte soit entaché de suspicion de la part des directions scientifiques.
Au-delà de l’expression du besoin, le choix du matériel doit être fait en col-
laboration avec les chercheurs, au même titre que pour la conception d’un
accélérateur par exemple 177. »
Le personnel du centre en 1989 (annexe 36) est divisé en plusieurs groupes
dont on détaille les activités.

10.3 Activité du groupe réseau


L’année 1989 a été marquée par la diversification des services réseau et des proto-
coles supportés : en plus des services SNA et NJE-Earn, les services DECNET et
IP sont en exploitation. En même temps se préparaient l’ouverture d’un large ser-
vice X25 relié au réseau européen IXI et un service à débit élevé sur le réseau des
supercalculateurs IBM, Easinet. Dans cette topologie qui s’organisait aux niveaux
national et international, le CIRCÉ était amené à remplir un rôle croissant de
plateforme de communication. Il interconnectait les réseaux locaux ou régionaux
de ses utilisateurs. Il leur fournissait l’accès vers les autres sites de la recherche en
France ou à l’étranger. La figure 116 donne la topologie de la plateforme CIRCÉ.
Et l’annexe 34 donne les topologies de tous les réseaux accessibles par la
plateforme. L’exploitation d’une telle plateforme couvre plusieurs aspects :
− la gestion de l’infrastructure physique des liaisons ;
− l’administration du réseau (nommage, routage) ;
− le suivi quotidien du fonctionnement ;
− la documentation et l’assistance ;
− la représentation technique au niveau des instances fédératrices (natio-
nales ou internationales).
La multiplicité des protocoles pose de réels problèmes de gestion. La migra-
tion vers les protocoles normalisés OSI est assurément la solution. Mais il faut
tenir compte des désirs des utilisateurs qui ont un besoin urgent des standards
de fait des constructeurs. D’où la nécessité de travailler dans les projets interna-
tionaux RARE et COSINE pour hâter la migration.
Le groupe comprend huit ingénieurs à temps plein et un à mi-temps.

177 Commentaire sur le rapport final de l’audit, Jean-Claude Adam, Archives de la DIS.
248 De l’IBM 360/75 au superordinateur Jean Zay

Figure 116 – Topologie de la plateforme réseau CIRCÉ en 1989

Une ligne de connexion outre atlantique a été établie entre REUNIR et


NSFNET, le réseau de la National Science Fundation (NSF) aux États-Unis,
dont on voit ci-dessous la topologie en 1989 (figure 117).

Figure 117 – Topologie du réseau NSFNET en 1989


1989-1992 249

10.4 Activité du groupe système


Dans la réorganisation des différents groupes du CIRCÉ en 1989, les activités
du groupe système ont été regroupées autour de deux pôles :
− les systèmes de base : systèmes et sous systèmes d’exploitation. Trois
ingénieurs s’occupent de MVS/XA et deux de VM et UNIX ;
− la sécurité et les données. Ce pôle comprend trois ingénieurs plus un à
temps plein pour les comptabilités internes.
L’ensemble des ingénieurs du groupe peut, suivant les besoins et leur domaine
d’activité, intervenir sur le système du calculateur vectoriel VP200.

10.4.1 Arrivée de UNIX et AIX/370


UNIX est en passe, à cette date, d’être le système le plus utilisé en informatique
scientifique. Il permet, à cette date, l’indépendance par rapport aux construc-
teurs. Dès 1986, sa pénétration a été extrêmement rapide avec les stations de
travail et les utilisateurs le réclamaient sur les grosses machines. Un ingénieur
système, M. Birman, fut chargé d’étudier au premier trimestre 1989 les besoins
des utilisateurs et ce qu’ils attendaient d’un grand centre en environnement
UNIX. De nombreuses visites ont été faites à l’étranger et chez les constructeurs.
Le diagnostic était clair : UNIX est LE système d’exploitation et constitue l’en-
vironnement de développement d’applications le mieux adapté à la recherche
scientifique. La décision a été prise de mettre en œuvre sur nos matériels un
système UNIX dès qu’il serait disponible pour l’ouvrir en premier :
− aux personnes connaissant déjà UNIX ;
− aux équipes équipées de matériels sous UNIX connectables en TCP/IP et
éventuellement de PC sous MS/DOS afin d’offrir de la puissance et de la
connectivité.
Sont alors entrepris :
− des formations d’UNIX par une société de service externe de tous les per-
sonnels de tous les services du CIRCÉ ;
− l’achat d’une dizaine de stations de travail Digital Équipement pour
acquérir la pratique ;
− l’installation de l’UNIX d’IBM/AIX sur une machine virtuelle sous VM/
XA sur le 3090-600.
Au second trimestre 1989, un projet intergroupe a été mis en place sous la
responsabilité de M. Birman. Il a débouché sur la mise en place d’un centre de
compétence conjoint pour AIX/370 avec des ingénieurs IBM à plein temps. Le
succès a été très mitigé, mais la direction était donnée. C’était une expérience
en vraie grandeur pour toutes les équipes (gestion des comptes utilisateurs,
réseau, assistance). Beaucoup de projets étaient alors à l’étude pour ouvrir sous
l’environnement UNIX les services suivants :
− connexion des PC sous MS/DOS ;
− disponibilité de packages scientifiques ;
− X-Windows ;
− liens entre AIX/370 et MVS ou VM ;
250 De l’IBM 360/75 au superordinateur Jean Zay

− outils de gestion des gros travaux ;


− graphiques GKS.
Ces études ont fait progressivement intervenir la plupart des équipes, cha-
cune dans sa spécialité.
Quand l’IDRIS a ouvert en 1993, la fusion des ingénieurs du CIRCÉ et du
CCVR a été facilitée du fait leurs bonnes connaissances et expériences en Unix
les uns et les autres.

10.5 Activités du groupe FORTRAN et calcul


intensif
Le groupe FORTRAN/calcul intensif a été constitué en janvier 1989 pour
regrouper les activités axées sur l’environnement Fortran et le domaine du
calcul intensif (vectorisation et parallélisation). Il est composé de quatre ingé-
nieurs à plein temps, dont Denis Girou, responsable du groupe, qui deviendra
quelques années plus tard directeur du centre. Ils ont fourni, sous la houlette
de J.-M. Teuler, un effort particulier pour fournir aux participants du groupe
scientifique « modélisation moléculaire » en chimie un environnement applicatif
largement enrichi. Parmi les travaux de mise à disposition de logiciels, on peut
citer en 1989 l’installation sur le 3090 / 600 de :
− 30 corrections diagnostiquées par les utilisateurs sur le VS FORTRAN ;
− la version scalaire et vectorielle de la bibliothèque d’IBM, ESSL (Engineering
and Scientific Subroutine Library) avec 280 sous-programmes ;
− la version scalaire et vectorielle de NAG (Numerical Algorithme Group)
en provenance d’Oxford avec 746 sous-programmes ;
− la bibliothèque de chimie CPC (Computer Physics Communication) en
provenance de Belfast avec 80 nouveaux sous-programmes ;
− la version 3.3 du logiciel de calculs symboliques ;
− la base de données de chimie CRYSTAL, fournie par l’université de
Cambridge et dont le CIRCÉ est le correspondant pour la France.
Et sur le VP200 :
− logiciels d’utilisation à la fois sur le VP et sur les frontales MVS du
CIRCÉ et du CCSC (installation et corrections) ;
− bibliothèque NAG en version vectorielle, LINPACK et SSL2 ;
− bibliothèques graphiques : GKS, NCAR et NAGGKS ;
− logiciels de transferts de fichiers BBFX, FTP et NDM ;
− service interactif accessible via les protocoles TCP/IP.
Et tout ceci n’est qu’une partie des applications écrites pour simplifier la
soumission de travaux et les transferts de fichiers entre les trois machines.
La mise en place des structures de calcul intensif a été bénéfique pour des tra-
vaux du Groupement Scientifique (GS) chimie en partenariat avec IBM. Outre
la mise en place d’un réseau à 64 Kbits, une part importante de la contribution
du CIRCÉ au groupement scientifique de chimie est l’installation sur l’IBM 3090
de nombreux logiciels spécialisés.
Principaux buts poursuivis dans ce cadre :
− éviter la duplication des effets d’installation par les différents laboratoires ;
1989-1992 251

− faciliter l’accès aux logiciels et l’obtention des licences ;


− se concentrer sur les logiciels réclamés par le groupement scientifique ;
− sélectionner les logiciels les mieux adaptés à l’architecture ;
− suivre de près l’évolution des logiciels ;
− d’une façon plus importante, aider au développement et à l’amélioration
des logiciels existants ;
− faciliter l’interfaçage entre les différents logiciels ;
− aider à leur utilisation et faciliter les contacts entre les personnes qui
mettent en œuvre les mêmes programmes.
À la demande du groupement scientifique chimie, les logiciels suivants ont
été installés : AMBER, BISSTRN/3, CMAP, DENSITY, DRAW, ECEPP/2,
GAUSSIAN, GROMOS, HONDO, MOLDYN, MOPAC, MUNGAUSS, PDB.
Le groupement scientifique de chimie a bénéficié de l’assistance privilégiée
d’un ingénieur d’assistance de haut niveau, agrégé de mathématiques, qui avait
acquis une formation d’informaticien, J.-M. Teuler. Il a démissionné du centre
de calcul pour mettre quelque temps ses talents au service des ondes gravita-
tionnelles dans le célèbre projet Virgo à Milan, qui a abouti à la découverte des
exoplanètes. Puis, de retour en France, il a un poste d’ingénieur dans le labo-
ratoire de ses chers chimistes et continue de les assister officiellement après sa
retraite administrative. Il illustre parfaitement l’idée fondamentale que j’essaie de
bien faire comprendre. Depuis sa création, je n’ai cessé de le dire et P. Salzedo, de
le marteler dans tous ses rapports : un centre de calcul, ce n’est pas simplement
du matériel, il ne vaut que par la qualité de son équipe. Les utilisateurs doivent
y trouver les ingénieurs de haut niveau qui sont capables de faire de la recherche
avec eux et pour eux. Ce ne sont pas eux qui choisissent leur sujet de recherche.
Il est choisi par l’utilisateur. Dans une période où nous avions des difficultés de
recrutement, les utilisateurs se sont pleins du manque d’assistance de ce niveau.
On lit dans le compte rendu du comité des utilisateurs, que le groupe d’assistance
mathématique n’est plus assez étoffé. Ils appellent ainsi ce que nous appelons les
ingénieurs de haut niveau. Ils doivent en effet être bons en mathématiques, mais
ils doivent être capables d’acquérir des connaissances dans d’autres domaines.

10.6 Activités des groupes LRD


(Langages et Représentations de Données)
et documentation
Dans cette période de profondes transformations, ils ont eu un rôle majeur pour
le choix de tous les matériels et logiciels graphiques. Par exemple, à la suite de
la demande de quelques utilisateurs de sciences humaines, le logiciel SNARK a
été installé et a nécessité des modifications et l’écriture de procédures confiées
à une stagiaire.
La documentation est devenue un outil majeur. Depuis la réorganisation
renforçant la responsabilité verticale (c’est-à-dire de l’installation à la docu-
mentation et l’assistance), est apparue la nécessité d’une coordination inter-
groupe, pour vérifier les mises à jour, susciter les modifications nécessaires.
252 De l’IBM 360/75 au superordinateur Jean Zay

Pour l’ensemble des groupes concernés, l’investissement humain a été en 1989


de 622 jours de travail, soit environ trois personnes à temps plein. Il a permis :
− 18 créations et 28 mises à jour de manuels ;
− 28 créations et 36 mises à jour de notices ;
− 1250 créations ou mises à jour de documents divers.
Ce bref résumé de l’activité de tous les groupes montre le sérieux avec lequel
le centre se préparait à son évolution future. On mesure leur déception en voyant
le temps mis par la nouvelle organisation du CNRS à aborder les problèmes de
fond. Donc comme nous voilà rassurés sur la qualité du travail du personnel
du CIRCÉ et sa motivation profonde, on peut regarder l’histoire parallèle pour
donner une mesure de la part de la direction générale dans le redémarrage qui
s’opérera en 1993. Il était préparé de longue date.

10.7 Histoire parallèle de 1989 à 1992


Toute l’action menée au niveau de la direction générale consistait à amener les
commissions mises en place à l’intérieur du CNRS à regarder ce qui se passait
à l’étranger. L’installation au CIRCÉ d’une machine nouvelle génération était
l’aboutissement inéluctable de la proposition émise en 1981. En faisant cela de
toute façon, on ne prenait aucun risque. Il n’est qu’à voir le nombre de CRAY
en commande à cette époque dans les universités étrangères en plus de ceux déjà
installés. Tous les centres de calcul pour la recherche dans le monde changeaient
de machines en pensant qu’ils suivaient la voie normale de l’évolution, mais ne
pensaient pas faire une révolution (figure 118).
Ou bien le monde entier était devenu fou, ou bien la recherche académique en
France aurait encore manqué quelque chose en ne suivant pas la voie générale.
Je parle bien de recherche académique car les grands groupes EDF, Total, etc.
n’avaient pas attendu pour équiper leur service de recherche et développement.
J’ai souligné depuis le début de cette histoire, le rôle des directeurs géné-
raux qui ont compris et soutenu l’initiative de P. Jacquinot. Pour le récit des
batailles que j’ai menées avec eux, soutenue par leur appui aux moments déci-
sifs, j’ai donné pour les périodes précédentes les calendriers de toutes nos inter-
ventions communes et de nos échanges de notes. Cette fois le travail a été fait
par le secrétariat de la direction générale qui a réuni en deux volumes le calen-
drier des actions communes pour l’informatique, des échanges épistolaires et des
comptes rendus de nos réunions, avec le directeur général. J. Sevin, directeur
des programmes et moyens s’est aussi totalement investi. Le premier document
de 200 pages va du 2 janvier au 2 août 1989, le second va du 7 septembre au
31 décembre 1989. Dans le troisième document, tout est là, mais pas relié et
le calendrier n’est pas fait 178. Le volume de la correspondance que nous avons
échangée pendant cette période est supérieur à celui de chacune des autres
étapes. Puisqu’il n’y avait pas de changement de machine, nous n’avions pas
à nous battre, contre le ministère de l’Industrie, mais en revanche, nous avons

178Calendrier des actions de la direction générale du 2 janvier 89 au 29 janvier 1992.


Archives de la direction générale, conservées dans celles de la DIS.
1989-1992 253

eu à convaincre, les directions scientifiques et les différents comités internes


qui s’étaient mis en place au cours du temps. Aussitôt après sa nomination de
directeur général, P. Papon m’a demandé d’être son conseiller pour les moyens
informatiques avec une mission bien définie (annexe 23). Puis, il a créé la DIS
(Direction de l’Informatique Scientifique) dont il m’a nommé directrice.

Figure 118 – Commandes connues de super-computers en 1989

Notre but était d’arriver à franchir une dernière étape avant d’arriver au but
fixé en 1981. Soit l’installation au CIRCÉ d’une des machines les plus puissantes
du moment comme le demandaient les utilisateurs, et la fin des errements du
ticket modérateur avec son remplacement par un jugement scientifique. Il fallait
aussi pouvoir le financer.
Pratiquement cela se concrétisait par :
− l’établissement d’un schéma directeur valable ;
− l’abolition du ticket modérateur ;
− le développement des réseaux.
À peu près un tiers de nos discussions portaient sur le ticket modérateur,
un autre tiers sur les réseaux et le dernier tiers sur la politique générale de l’in-
formatique au CNRS. Quand j’avais accepté ce poste, à la DIS, je n’imaginais
pas que la masse des problèmes de mini- et micro-informatique remonteraient
souvent à la direction générale, le montant des crédits connus que le CNRS leur
254 De l’IBM 360/75 au superordinateur Jean Zay

consacrait était 4 fois supérieur à celui pour l’informatique lourde. D’ailleurs,


voici la vue qu’en avait au ministère quelqu’un chargé d’un rapport général sur
l’informatique en général :
« La cellule informatique de la DIS : a son domaine de compétence pour la mini-,
la micro-informatique et la bureautique. Son rôle couvre à la fois les aspects de
négociation pour le compte des laboratoires avec les constructeurs et les four-
nisseurs et les aspects techniques, pour le choix des équipements et des logiciels.
Certaines directions scientifiques ou instituts du CNRS ont mis en place
un chargé de mission à l’informatique qui conseille à la fois la direction du
département dans la politique et l’attribution des crédits d’équipement et les
laboratoires qui veulent s’équiper.
D’autre part, mais de façon non officielle, il existe des “experts régionaux”
dont l’action est fortement appréciée des utilisateurs locaux. »
Enfin, la DIS publie tous les deux mois un bulletin technique, le Micro-
bulletin, qui touche actuellement 1600 destinataires lesquels y trouvent des éva-
luations de matériels et logiciels ainsi que des informations sur les résultats des
négociations avec les constructeurs et distributeurs.
La DIS a pu bénéficier, non pas de postes créés par le CNRS pour l’occasion,
mais du détachement tant qu’elle existera, de deux ingénieurs détachés de leur
laboratoire d’origine, l’un du CIRCÉ, J. Denyset, qui s’est occupée de la mini-in-
formatique, et pour les affaires de micro, de M. Dreyfus, détaché du département
des relations extérieures. La question des réseaux a été dévoreuse de temps, mais a
évolué d’une manière paisible. Elle intéressait beaucoup F. Kourilsky par son côté
international et a été confiée à C. Michau qui avait d’abord responsable du réseau
au CIRCÉ. Il a travaillé à mi-temps à la DIS, puis à temps complet à la direction
de l’UER de service réseau créée pour la circonstance. Il a formé une bonne équipe
avec M. Le Guigner venant du centre universitaire de Rennes et représentant de
la cellule réseau informelle de l’Enseignement supérieur. Les utilisateurs ont mani-
festé leur opinion par l’intermédiaire du président de leur comité qui nous écrivait.
Nos échanges avec la direction générale n’ont jamais été aussi nombreux que
ces années-là. Il y a les rapports que nous échangions, les miens portant la men-
tion « personnelle », ceux qu’ils m’envoyaient avec le tampon « confidentiel », et il
y avait tous les autres. Je suppose que sa secrétaire avait ordre de me faire suivre
tout le courrier traitant d’informatique, soit qu’il l’ait annoté parce qu’il exigeait
une réponse ou un avis, soit qu’il me laisse le soin de la suite à donner. Avant de
me parvenir la pièce de courrier portait simplement la mention : vu. Dans ce cas,
je devais lui préparer une réponse prête à sa signature. Il y a eu des cas où j’étais
incompétente, par exemple quand il m’a donné à régler le problème CERFACS, où
des directeurs de laboratoire et des sénateurs intervenaient. Dans les cas comme
celui-là, je faisais des recherches d’information, et lui envoyais une « proposition »
seulement et qu’il devait trouver quelqu’un qui était capable de donner un avis
scientifique. Ma position était très confortable, car comme conseillère179 je n’avais
pas de fonction exécutive et pouvais donc être impartiale et directe.

179 Note de l’auteure : J’avais déjà dépassé l’âge légal du départ à la retraite.
1989-1992 255

Nous trouvions, François Kourilsky, Jacques Sevin, Philippe Salzedo, les uti-
lisateurs et moi-même que le COMI n’était pas assez novateur. Alors, nous
avons essayé d’avancer avec les moyens légaux à la disposition de la direction
générale.
Depuis la nomination du 2e comité scientifique de la DIS, je n’ai pas arrêté
d’alerter la direction générale sur les difficultés de faire l’unanimité sur les solu-
tions pour combler notre retard accumulé par rapport à ce qui s’était mis en
place à l’étranger.
Notre souci constant a été de maintenir une atmosphère apaisée, de bien
expliquer aux utilisateurs que notre but était d’obtenir ce qu’il y avait de mieux
pour eux, de combler le fossé qui s’était creusé avec l’étranger et de faire au
mieux de nos possibilités. Ils ont manifesté leur opinion par l’intermédiaire du
président de leur comité qui nous écrivait :
« Les utilisateurs ont montré qu’ils faisaient confiance à leurs directeurs de
centre. S’ils leurs affirment qu’ils auront la puissance de calcul convenable,
peu leur importe qu’il y ait un centre ou deux. Ce n’est pas leur affaire (cf. les
déclarations des présidents du comité d’utilisateurs des deux centres). »
Je ne vais relater ici que quelques-uns des faits les plus marquants de notre
combat pour nous rapprocher du but.
En janvier 1990, je tire la sonnette d’alarme pour que des décisions soient
prises à la prochaine réunion du COMI pour arrêter le massacre. En effet,
quand le ministre C. Allègre a annoncé la dissolution de la cellule informatique
du ministère de l’Enseignement supérieur et forcément la nôtre, certains assis-
tants des directions scientifiques ont crié : On a gagné, c’est la fin du despo-
tisme. Leur première réaction a été de ne distribuer que 70 % des crédits de
l’année précédente. Les utilisateurs sont assommés car il n’y a eu aucun débat
scientifique. Le tableau suivant donne les variations d’utilisation comparée du
CIRCÉ et du CCVR en 1989 par rapport à 1988.
Utilisation des centres en 1988 et 1989 :

CCVR CRAY Baisse d’activité de 24%

Augmentation de 23% par les utilisateurs payants en dehors


3090/IBM
du groupement scientifique de chimie
CIRCÉ
VP200 Augmentation 25%

F. Kourilsky, bien conscient de la divergence qui apparaît entre notre analyse


de la situation et celle du COMI, demande des changements, mais ne veut pas
d’oppositions frontales. Le 22 novembre 1991, il me conseille lors de la prépa-
ration du dossier de remplacement des machines du CIRCÉ par une puissante
machine vectorielle et la fermeture du CCVR :
« Il s’agit de trouver une présentation de l’état actuel des réflexions qui soit
acceptable pour tout le monde (ceci inclut, vous-même, les utilisateurs, les
directeurs scientifiques, les membres du conseil d’administration, la DRED,
le gouvernement par le bais de la délocalisation, etc.). »
256 De l’IBM 360/75 au superordinateur Jean Zay

Une difficulté supplémentaire était apparue avec la volonté du gouvernement


de faire des délocalisations en province et il fallait montrer les difficultés que
ça poserait pour le CIRCÉ. Je lui ai répondu le même jour par une analyse des
faits bruts et de l’urgence d’agir, en insistant encore une fois que c’étaient des
« propositions » de la DIS, mais que c’était à lui de prendre les décisions. Ces
propositions étaient une présentation possible à envoyer à Messieurs Berroir et
Alessandrini, si vraiment l’imposition du départ en province était à éviter à tout
prix la semaine suivante. De toute façon il fallait demander aux deux chefs de
centres, et Christian Michau pour les réseaux et une ou deux autres personnes
prises au COMI ou parmi les chercheurs, de s’attaquer immédiatement à établir
un dossier technique. C’est d’ailleurs ce qu’ils demandent.
Pour la préparation des dossiers, il faut faire appel à Jean-Claude Adam,
directeur du CCVR et Serge Fayolle, directeur du CIRCÉ (je parle sous leur
contrôle), qui sont très bons, de la classe des directeurs de centres américains.
Ils le souhaitent mais sont inquiets des calendriers proposés au sous-groupe
du COMI et affirment que si on les laisse travailler comme ils en avaient eu
l’intention depuis quelques temps, en quinze jours, ils peuvent en s’adjoignant
C. Michau pour le réseau et une autre personne du COMI et un ou deux cher-
cheurs pour les missions du centre, avoir bouclé le dossier technique et présenter
des options chiffrées et argumentées. Je les connais bien. Ils en sont capables.
Après ce sera au comité de direction de décider. Les questions de fond n’ont
jamais été abordées, ni au COMI ni dans les sous-groupes. Eux ont l’expérience
de la gestion d’un centre et ont proposé de travailler en parallèle les sujets :
− mission du centre équipé d’une machine vectorielle ;
− effet d’une délocalisation possible ;
− coût en francs et en moyens humains ;
− délais.
Leur proposition n’a pas été retenue, d’où l’inquiétude du personnel qui ne
comprenait pas la lenteur de la prise de décisions du COMI.
« Le directeur et le personnel du CIRCÉ souffrent du gel de leur centre depuis
quatre ans. Ils ne souhaitent pas une augmentation continue de puissance
mais ils travaillaient auparavant dans l’enthousiasme parce que leur mission
était la même depuis la création du centre : y faire ce qui ne pouvait pas
se faire ailleurs. Ils regrettent de n’avoir pas fait évoluer l’outil dont ils ont
la charge en corrélation avec les besoins. Par exemple, il avait été convenu
qu’un constructeur leur prêtait une machine parallèle il y a deux ans. Cela
n’a pas pu se réaliser et on a pris du retard. »
Les relations avec l’Enseignement supérieur ne font plus de drame.
À l’Enseignement supérieur, toutes les décisions concernant l’informatique sont
gelées dans l’attente du rapport Demazure. On attend toujours un rapport,
c’est le prétexte pour l’inaction. C’est le ministre C. Allègre qui intervient
directement avec deux chargés de mission, Messieurs Courtillot et Touzot à qui,
il a ordonné de répondre non à toutes les propositions. Mais sur le terrain les
équipes se connaissent et collaborent activement. Les problèmes interviennent
quand elles ont besoin d’un aval de leur hiérarchie pour des questions internatio-
nales. Mais M. Lombard, directeur de REUNIR en a fait son affaire et m’avouait
au téléphone qu’il était plus libre ainsi.
1989-1992 257

Le COMI en février 1992 avait noté que le centre s’orientait vers le calcul
intensif. Le projet MIPS (Moyens Informatiques Performants pour la Science)
a été mis en place pour parer aux défaillances du COMI. En effet, comme il a
déjà été dit le schéma directeur proposé par le COMI était mauvais. Dans ce
schéma le CCVR et le CIRCÉ évoluaient harmonieusement et chacun remplaçait
sa machine vectorielle pour une plus puissante. Malgré tous les habillages, il n’y
avait pas vraiment d’innovation.
On affirmait la nécessité du réseau. Il était temps : le CNRS et la DRED y
travaillaient depuis quatre ans mais la France était le seul grand pays d’Europe
qui ne l’ait pas encore officiellement annoncé. Et pour continuer, il leur fallait
un aval officiel.
On devait redéfinir les missions, et pour cela, revenir tout simplement à leur
formulation de P. Jacquinot en 1969. Mais beaucoup ne les connaissaient pas, ou
les avait oubliées, ou bien, simplement fallait-il vingt-trois ans pour que la prise de
conscience ait lieu. Mais inutile de paniquer. Partout dans les grands centres étran-
gers, on change d’ordinateur mais on garde l’organisation du centre et son esprit.
Petit à petit, la présentation de la situation s’éclaircit grâce au travail du
projet MIPS.
Mais des discordances apparaissaient en interne quand il s’agissait de dési-
gner le secrétaire permanent du projet.
Le directeur général et moi-même étions persuadés que le choix du secrétaire
permanent de notre COMI était décisif quant à la qualité du schéma directeur
pour l’informatique qu’il fournirait. F. Kourilsky ne voulait pas être pris de
court par les évènements et se voir imposer une nomination. Étant donnée la
composition du COMI, nous aurions certainement eu un schéma directeur sem-
blable au précédent.
J. Sevin le voyait comme une personne ayant un rôle important, capable
de présenter des choix. La communauté scientifique unanime, sans hésitation,
proposa P. Salzedo. Mais A. Berroir souhaitait quelqu’un de beaucoup plus
insignifiant. La personne qu’il craindrait le plus à cette place était précisément
P. Salzedo. Pas comme il le prétendait parce qu’il ne connaissait pas les pro-
blèmes des scientifiques (il sait bien que c’est faux), mais il le savait capable
de déjouer, souvent par sa seule présence, des montages plus ou moins douteux
n’ayant rien à voir avec l’impartialité.
François Kourilsky m’a demandé de lui faire des propositions. Les premiers
noms qui me sont venus à l’esprit sont ceux de Bertrand, directeur du labora-
toire LURE et Victor Alessandrini. Je les avais rencontrés l’un et l’autre à un
congrès récent aux États-Unis organisé par IBM et j’avais apprécié les questions
qu’ils posaient et leurs interventions. L’un et l’autre avaient surtout utilisé des
micros, mais V. Alessandrini faisait partie, en qualité de chercheur, du conseil
scientifique du CCVR. Un autre bon candidat aurait été M. Bigot, du labora-
toire de chimie à l’ENS de Lyon, mais il n’était pas intéressé. Finalement c’est
V. Alessandrini qui fut choisi.
Il n’y a pas eu d’emblée adhésion aux solutions proposées et bien des luttes
et joutes oratoires ont opposé ceux qui étaient hostiles aux changements, ceux
qui pensaient qu’il n’allait pas assez vite, ceux qui restaient indifférents. Mais
l’atmosphère avait changé.
258 De l’IBM 360/75 au superordinateur Jean Zay

Quand F. Kourilsky me demandait comment je pouvais garder ma bonne


humeur 180, je lui faisais la même réponse que celle que j’avais faite à S. Feneuille
en 1987 dans les mêmes circonstances : je lui rappelais que le CIRCÉ avait tou-
jours su sortir des pires situations. Un centre de calcul, ce n’est pas seulement du
matériel, ce sont aussi des équipes et justement il y a de bonnes nouvelles. Dans
une note manuscrite du même jour, je lui signalais l’excellent travail de deux
ingénieurs de haut niveau, Jean-Marie Teuler et Denis Girou, qui assistaient
des utilisateurs de pointe. Tant que l’équipe était enthousiaste et qu’elle savait
conjuguer son bon travail quotidien et sa préparation anticipée pour l’avenir,
il n’y avait pas à s’inquiéter. Et aussi longtemps qu’on pourra garder du per-
sonnel d’élite, le centre continuera de remplir sa mission. Plus tard, leurs mérites
ont été reconnus : J.-M. Teuler recevra la distinction du Crystal et D. Girou,
quand il sera directeur du centre, celle du Crystal d’or pour toute son équipe.
C’était à la direction de leur obtenir le matériel adéquat pour qu’ils puissent
travailler. Maintenant tous les pays avaient compris l’usage qu’on peut faire des
machines vectorielles et remplaçaient dans leurs grands centres leurs machines
par d’autres de nouvelle génération. Pourquoi n’y arriverions-nous pas ?

10.7.1 Problèmes d’administration de réseau


J’ai déjà expliqué qu’en France, la construction et l’administration du réseau
n’avaient pas posé de problèmes entre les ingénieurs responsables et les direc-
tions générales. À ceci plusieurs raisons : les directions scientifiques ne préten-
daient pas y comprendre quelle que chose, les deux responsables techniques
C. Michau et Le Guigner s’entendaient très bien. Ils étaient excellents dans leur
domaine et C. Michau a vite pris un rôle dans les instances internationales. Et
c’était un domaine particulièrement cher à F. Kourilsky, tellement que dans
son souci que le CNRS soit bien représenté, il insistait pour, au début que je
sois présente à des réunions où C. Michau faisant tout le travail. Restait à lui
trouver une position officielle. Pas de poste libre en vue. Alors en attendant,
F. Kourilsky l’a nommé son conseiller pour les réseaux. Dès que ce sera pos-
sible, il créera une unité de service réseau qu’il lui confiera. Nous avions toute
confiance en C. Michau. Ça nous libérait d’un gros travail et moi d’incessants
voyages à l’étranger, même si Bob Cooper responsables des réseaux anglais et
de la RFA étaient devenus des amis personnels. En interne, M. Berroir ne veut
pas que quelque chose existe en dehors du COMI et ne voit pas la nécessité
d’une cellule réseau, pas plus que d’une autre instance pour écrire un autre
schéma directeur. Quant à M. Ganouna de l’IN2P3, il dit clairement qu’il ne
reconnaît que le CERN pour organiser le réseau dont il a besoin. Mais c’est
normal. L’IN2P3 mène fort bien sa barque et je me suis bien gardée d’inter-
venir, sauf quand il a fallu que le CIRCÉ achète du matériel national quand ils
ont eu besoin de VAX.

180Réponse à F. Kourilsky, du 18 novembre 1991, suite de la conversation du 29 octobre


1990.
1989-1992 259

J’ai aussi été informée par Michel Demazure, mathématicien, responsable


à l’Enseignement supérieur que le département Sciences Physique pour l’Ingé-
nieur (SPI) du CNRS avait offert le poste de responsable du réseau français à
C. Michau qu’il apprécie. Il affirme que l’ES l’accepte et s’en remet à lui.
Il y a bien eu quelques utilisateurs qui ont manifesté leur mécontentement.
Par exemple, celui qui expliquait au directeur général que nous jetions l’argent
par les fenêtres et que pour se relier à haut débit au CCVR, il suffisait de bas-
culer tout notre réseau sur le CNUSC ou le CCPN qui, eux, étaient reliés au
CERN, à charge pour nous de squatter la liaison CERN-CCVR. Puisqu’il fallait
répondre à tout le monde, je lui ai expliqué que :
« Ce qu’on appelle “un basculement de réseau” peut se faire mais que c’est une
très grosse opération. Jusqu’à présent, tout est organisé avec deux gros pôles
géographiques, l’un au CIRCÉ, l’autre au CNUSC. Si cela doit changer, là il
faut de la concertation et avertir au plus vite tous les autres partenaires. »
Dans la construction du réseau international, nous n’étions pas leader, mais occu-
pions une place honorable avec nos deux experts à qui faisaient confiance Boc Cooper
et Klaus Ullman responsables de JANET anglais et DFN allemand. Nous avons reçu
de Bob Cooper, directeur de JANET, une proposition complète « Collaboration on
high performance networking ». Elle était très satisfaisante et montrait bien comment
dans ce domaine, les Anglais étaient à la fois pragmatiques et excellents managers.
Ils étaient prêts à nous faire profiter de leur avance, mais en contrepartie profite-
raient des apports théoriques de nos experts. C’était une excellente solution pour
redonner un élan à notre RENATER national après le départ de M. Lombard. Nous
sommes ainsi sortis des solutions franco-françaises et nous avons été stimulés pour
passer plus vite du stage réflexions, cogitations au stade réalisations.
« Mon impression générale est que ce sont des pays dont la structure est la plus
adéquate comme la Grande-Bretagne qui tire le maximum de bénéfices.
On arrive à ce paradoxe que nous sommes présents dans les groupes de travail,
que nous sommes moteurs dans le projet IXI, mais que à cause de nos défi-
ciences internes, nous n’en tirons pas de bénéfices, d’où la nécessité des efforts
à faire sur le plan national.
Au plan national
À la suite du rapport Caseau, M. Lombard a constitué deux groupes ; un groupe
technique et un groupe de pilotage pour s’occuper de deux problèmes :
− la plaque à haut débit Île-de-France ;
− l’infrastructure nationale X25 à relier au point d’accès international X25 IXI
installé au CIRCÉ.
Le groupe de pilotage comprend un représentant de l’EDF, du CEA, de l’INRA,
du CNET, de l’ONERA et moi-même.
Dans le groupe technique, M. Michau représente le CNRS.
Lors de la première réunion, le ministère de l’Éducation nationale avait envoyé
un observateur en attendant la mise en place de leurs nouvelles structures.
Il y a eu quelques difficultés diplomatiques au niveau des deux ministères pour la
suite des opérations, M. Courtillot expliquant à M. Demazure qu’il attendait une
260 De l’IBM 360/75 au superordinateur Jean Zay

lettre officielle de demande de participation émanant de M. Lombrard, celui-ci


disant qu’il en avait envoyé une pour laquelle il n’avait pas eu de réponse.
Finalement, j’ai joué mon rôle de “Madame bons offices” et l’Éducation
nationale s’est décidée à travailler à une stratégie commune sous l’égide de
M. Lombard.
Il était temps car maintenant que la décision est prise, tout le travail reste
à faire et notre retard avec les pays voisins s’est dangereusement creusé ces
mois derniers.
Dans mes notes du mois de mars 1991, je vous ai informé : […] du projet
proposé par la Grande-Bretagne et l’Allemagne et soutenu pas la CEE d’un
premier réseau à haut débit reliant ces pays et la France.
Actuellement, les Britanniques sont en train d’améliorer JANET pour
l’amener au niveau de 2 Mbits/s (ce JANET Mark 2 devrait être prêt pour
dans un an) et ils ont en tête le futur SUPER JANET qui serait au niveau
de 100 à 140 Mbits/s. Coopérer avec les Britanniques au moment où on lance
RENATER nous permettrait de bénéficier des dix années d’expérience réussie
qu’ils ont eues avec JANET. »
J’ai informé M. Borde de notre bureau de Londres de cette initiative et il en
a été discuté lors du voyage de M. Curien à Londres le 18 avril 1991.
Les problèmes interviennent quand les équipes techniques ont besoin d’un
aval de leur hiérarchie pour des questions internationales. Il était difficile de
leur faire prendre des décisions. C’était sans doute perceptible à l’extérieur car,
M. Ouannès, le même qui six ans auparavant disait n’importe où mais pas au
CIRCÉ, m’alertait depuis Bruxelles où il était maintenant en poste, que si le
MRT ne se mettait pas à étudier rapidement le projet TRIXI, alors c’était sans
espoir que la France ait une place dans le domaine des réseaux. C’est la DG
XIII qui devait travailler à l’étude du projet de liaison à haut débit Londres-
Paris-Berlin que j’avais préparé avec Bob Cooper et Klaus Ullman. J’ai transmis
les propositions au ministère pour étude dans le comité de pilotage. Le projet
EUREKA COSINE sou sa forme actuelle a conduit au réseau IXI étendu aux 19
pays. Il doit être maintenu, même après la fin de COSINE (dans un an et demi).
Ce sera le réseau de base « public relation » absolument nécessaire.
Monsieur Curien, avant son voyage à Londres, avait discuté de ses problèmes
de fond avec Lionel Jospin, ministre de l’Éducation nationale, de la Jeunesse
et des Sports et Paul Quilès, ministre des Postes et Télécommunications et de
l’Espace dans une réunion interministérielle 181 prévue le 21 janvier et repoussée
au 1er février.

181 Note de l’auteure : Il y aura trois discours, par Messieurs Curien, Quilès et Jospin.
J’étais chargée de préparer pour H. Curien, cinq transparents à partir desquels, il établi-
rait lui-même son texte.
Chapitre 11
1993-2013

Introduction
Cette période met fin à une autre de stagnation de quatre années, pendant
lesquelles il n’y a pas eu de matériels nouveaux installés, mais où l’équipe tech-
nique a fourni un gros effort pour à la fois aider les derniers « petits utilisa-
teurs » à prendre leurs ailes, et à se préparer à l’arrivée inéluctable d’un CRAY.
La période de vingt ans a vu trois directeurs : Serge Fayolle pendant cinq ans,
Victor Alessandrini pendant dix-huit ans et Denis Girou, pendant neuf ans de
2011 à 2020. Ils ont tous été the right person at the right place (la bonne
personne au bon endroit). Serge Fayolle, directeur pendant deux mandats, le
premier 1991 à 1993 et le second en 2009 et 2010, dans sa modestie, souhaite
qu’on le considère comme un directeur de transition qui n’a pas droit à l’erreur.
Mais son action a été décisive dans deux périodes critiques. Pendant le premier
mandat, il a fallu à la fois amener et maintenir le niveau de l’équipe pour qu’elle
puisse mettre en marche en un temps record la machine tant attendue et aider
les derniers « petits » utilisateurs à se prendre en mains. Pendant le second, le
problème était autre. V. Alessandrini a très bien mené le centre. Mais, même
avec les instituts disciplinaires, conseils de tous ordres, l’IDRIS dépendait tou-
jours du CNRS et les décisions continuaient à être prises entre le directeur du
centre et celui du CNRS. Quand Fayolle est arrivé, il a dû dialoguer avec les
nouvelles instances, leur rappeler que le centre existait et établir les nouveaux
liens administratifs.
262 De l’IBM 360/75 au superordinateur Jean Zay

Pour se donner bonne conscience, on peut dire que ça a été un temps de


réflexion. Mais la réflexion était faite depuis des années. Le problème c’est
qu’on n’était pas passé à l’action. Est-ce une autre manifestation de l’exception
française ? On décolle en retard, mais après on rattrape. Les années suivantes
ont été fastes. Le matériel a été choisi avec minutie en l’adaptant au plus près
aux besoins, tout en maitrisant, les coûts. C’est en 2007 que se place le profond
changement dans la gestion de l’informatique au niveau national avec la création
du GENCI. Une étape décisive a vraiment été franchie. La technique a évolué à
un rythme accéléré. Les échanges avec l’étranger se sont amplifiés. La pression
des utilisateurs qui ont besoin de calcul intensif, la possibilité pour les autres
d’exécuter en local la plupart de leurs travaux ont poussé les décideurs à un
revirement d’opinion. Il y a une instance qui n’a pas changé : c’est l’opinion que
l’équipe technique a de son rôle. Elle s’est préparée aux changements et elle est
prête à les affronter. Le moment a été propice pour la mise en route de réformes
demandées depuis vingt ans.
C’est à la même époque que la section Recherche et Développement d’EDF
est entrée dans le calcul haute performance au service du groupe. En effet,
en 1993 la R&D d’EDF se lance dans la recherche in silico avec un célèbre
CRAY. Un quart de siècle plus tard, de nombreux chercheurs d’EDF utilisent
l’un des supercalculateurs internes, dont le dernier né, baptisé GAÏA, pointait
dans le top 100 mondial en puissance lors de sa mise en service début 2019. Le
Calcul Haute Performance (High Performance Computing ou HPC) est en effet
l’outil roi pour améliorer la précision des simulations, booster la rapidité des
calculs de risques ou encore l’efficacité des algorithmes d’Intelligence Artificielle.
La mutualisation des clusters existants présente également des avantages éco-
nomique (investissement partagé), et organisationnels : les calculateurs HPC
d’EDF affichent un taux d’occupation de l’ordre de 80%.

11.1 Machines installées et logiciels


mis en service
Le tableau suivant donne la liste et le nom des machines installées à l’IDRIS
entre 1993 et 2020, avec leurs caractéristiques, leurs années de départ et d’ar-
rivée pour les deux dernières périodes.
Le coefficient multiplicatif annuel moyen est de 1,68 pour l’IDRIS et de 1,82
pour le TOP, c’est-à-dire que le coefficient de la loi de Moore est en moyenne de
2,82 pour l’IDRIS et de 3,31 pour le TOP. Ce sont les plus élevés en cinquante
ans d’existence du centre, mais la puissance n’est plus qu’un des facteurs qui
caractérise un centre de calcul.
Figure 119 – Caractéristiques des supercalculateurs installés à l’IDRIS 1993-2013
1993-2013 263
264 De l’IBM 360/75 au superordinateur Jean Zay

Figure 120 – Machines en service de 1993 à 2013

Figure 121 – Courbes de régression comparées pour la 4e période


1993-2013 265

Pour compléter ces courbes, il faut lui adjoindre celle établie par l’ORAP
ci-dessous.

Figure 122 – Classement dans le TOP500 des ordinateurs français installés (adapté de
l’ORAP).

Cette figure montre que si la somme des puissances installées à l’IDRIS


continue d’augmenter, le rang dans le classement TOP500 de la machine ins-
tallée la plus puissante recule devant celui de la plus puissante installée en
France dans le privé à partir de juin 2000.

11.2 Création de l’IDRIS en 1993


L’équipe était impatiente, et attendait un CRAY depuis des années. Les maté-
riels existaient, l’équipe technique était prête et attendait elle aussi. Mais c’est
la motivation d’une partie des membres de la tutelle qui manquait.
L’atmosphère avait changé dans le monde informatique et les grands groupes
étaient tous passé au calcul vectoriel et le CNRS n’a franchi le pas qu’en 1993.
On a enfin installé le CRAY attendu depuis 1981. Le CIRCÉ a pris le nom
d’IDRIS. La place du centre de calcul avait changé souvent dans l’organi-
gramme du CNRS, au gré de l’évolution de ses structures. C’est maintenant une
Unité Propre de Service (UPS), rattachée administrativement, au département
Sciences et Techniques de l’Information et de la Communication (STIC).
L’IDRIS est un institut qui garantit la continuité de la structure de service.
Il assure la mise en place et l’exploitation d’un environnement dédié au calcul
intensif répondant à la demande de communautés scientifiques qui ont besoin de
très grandes puissances de calcul. L’IDRIS se comporte essentiellement comme
266 De l’IBM 360/75 au superordinateur Jean Zay

un prestataire de service, sans vraie valeur ajoutée complémentaire et sans acti-


vité de recherche propre.
Sa mission reste d’y faire ce qu’on ne peut pas faire ailleurs. Elle est restée
inchangée depuis la création. C’est cet ailleurs qui a changé. Les centres abritant
des ordinateurs de grande puissance se sont développés en France et beaucoup
plus vite à l’étranger, d’abord dans les milieux de la recherche académique puis
dans ceux des entreprises. C’est cette évolution (qui n’est pas une révolution)
qui fait que des industriels, comme l’EDF, l’ONERA, la Météo ont travaillé au
CCVR et le quittent quand elles ont trouvé leur outil chez elles et n’ont plus eu
besoin d’aller le chercher « ailleurs ». Donc, l’IDRIS fait une partie de ce qu’on
ne peut pas faire ailleurs. Ce sont les vetos des commissions qui ont bloqué
l’installation du CRAY 1 en 1981, douze ans auparavant. On savait ce qu’il
fallait faire, mais on n’a pas pu le faire. Sinon, depuis 1981, les changements de
machines auraient normalement amené à évoluer sans heurts comme le centre
d’une grande université étrangère et à intégrer naturellement le vectoriel, puis le
parallèle et le massivement parallèle, avec en même temps l’approfondissement
de des problèmes scientifiques. Et le CNRS aurait économisé beaucoup d’argent
pour arriver au même résultat.
Les vetos des commissions, l’animosité des centres plus petits qui pensaient
à tort que nous étions la source de tous leurs maux, on n’y pouvait rien. En
revanche, la DIS (Direction de l’Informatique Scientifique) aurait dû proposer
une structure plus forte pour prendre en charge une partie plus importante de
la charge de formation à la micro- et mini-informatique que faisait le CIRCÉ,
tout simplement parce qu’elle n’était pas faite ailleurs. Ce n’était pas au Groupe
Services aux Utilisateurs (GSU) de travailler à adapter des logiciels du VP sur
des micros pour que les utilisateurs puissent continuer leurs tâches chez eux le
dimanche quand le centre était en automatique. La politique du ticket modéra-
teur avait conduit jusqu’à la dernière minute à des absurdités.
Est-il normal qu’en 1990, au CNRS, des chercheurs de l’Institut de Chimie
des Substances Naturelles (ICSN) exploitent sur un Vax des programmes qui
tournent une semaine et ne donnent le résultat que s’il n’y a pas eu une panne
au bout de trois ou quatre jours ? Ceci est dû à la fois à la difficulté d’obtenir
des crédits calcul qui a conduit aux absurdités dénoncées par le rapport Caseau
et au manque de formation des chercheurs.
Quand on change une organisation, il peut toujours se poser des problèmes
délicats d’affectation de personnel. Michel Petit parle de la façon dont il a réglé
les siens au moment de la fermeture du centre de calcul de l’INAG. Il s’agis-
sait là d’une reconversion nécessaire et il est très fier de s’en être bien tirer 182.
À la création de l’IDRIS, il ne s’agissait pas de conversion d’une équipe, mais
d’une fusion de l’équipe du CIRCÉ avec les quelques personnes venues avec
leurs postes du CCVR à sa dissolution et avec trois ingénieurs embauchés sur
un contrat de six mois. Il y a certainement eu quelques incidents, mais tout
s’est bien passé dans le calme, sous la houlette de S. Fayolle qui redevenait
directeur adjoint après avoir été directeur pendant trois ans. Huit jours après
le démarrage, les ingénieurs sur contrat lui ont dit qu’ils finiraient leur contrat,

182 INAG : Institut National d’Astronomie et de Géophysique.


1993-2013 267

mais étaient inutiles car l’équipe sur place en savait autant qu’eux. Cette recon-
naissance était bien venue après le travail de préparation. L’un des trois a été
embauché à la fin du contrat.
L’IDRIS avait engagé trois ingénieurs sur contrat pour le démarrage, l’un a
été affecté à l’exploitation, les deux autres à l’assistance système et utilisateurs.
Cette fusion de l’équipe primaire avec celles venant d’autres origines aurait
pu poser des problèmes délicats. Après une semaine les ingénieurs sur contrat
ont expliqué qu’ils resteraient finir leurs contrats, mais étaient inutiles, car les
équipes sur place étaient aussi bonnes qu’eux. C’était la récompense après tout
le travail de préparation.
En décembre 1993, toutes les machines installées au CIRCÉ ont été arrêtées
et remplacées par un supercalculateur CRAY Y MP C90/94, machine principa-
lement vectorielle.

Figure 123 – Livraison IDRIS CRAY C94

11.3 Année 1994


En 1994, un second calculateur vectoriel CRAY, dénommé AXIS par IDRIS, est
installé à l’IDRIS. La configuration finale des deux plateformes est la suivante :

Rpeak
Mémoire Puissance
Nom NB CPU mesuré
Modèle MHz princi- en OS Rang
IDRIS Cœurs Chip au
pale Gflop/s
TOP500
Y-MP COS/
ATLAS 8 ECL 238 4 Go 8 7,6 81
C90/98 UNIX
Y-MP COS/
AXIS 4 ECL 238 2 Go 4
C90/94 UNIX
268 De l’IBM 360/75 au superordinateur Jean Zay

Quatre fois plus puissant que le CRAY 2, le CRAY C98 est un ordinateur
multiprocesseur vectoriel à mémoire partagée. De ce fait, il permet de gérer les
calculs en parallèle, et donc avec une vitesse accrue par rapport à celle d’un
monoprocesseur. Dans sa version complète, le CRAY C98 peut intégrer huit
processeurs. Sa mémoire principale peut atteindre 4 Goctets et sa mémoire
secondaire 16 Goctets. Son sous-système d’entrées-sorties peut gérer des débits
d’information de plus de dix milliards d’octets par seconde.
Les noms AXIS et ATLAS ont été choisis parce qu’AXIS signifie « Vertèbre
proche de l’atlas » et ATLAS « Première vertèbre cervicale qui soutient la
tête ». ATLAS porte AXIS ; l’utilisation de ces deux calculateurs correspond à
cette image.

11.4 Années 1995 et 1996


11.4.1 Évolutions du parc de calculateurs
Un calculateur d’architecture parallèle, T3D de
CRAY, est installé en septembre 1995. L’arrivée
de cette machine va permettre d’accéder au pro-
gramme de parallélisme massif. On lui adjoint,
en 1996, un second calculateur d’architecture
parallèle le modèle T3E, acheté par le CNRS qui
a deux fois plus de processeurs pour le calcul
parallèle que le T3D. Il coopère avec le parc
machines installé et offre une plate-forme aux
chercheurs deux fois plus puissante.
La configuration de la plateforme est donnée
ci-dessous :

Nom Modèle Nb de Taille Puissance Rpeak mesuré Rang


IDRIS processeurs mémoire au TOP500

KAOS CRAY T3D 128 8 Go 19,2 Gflops

ALEPH CRAY T3E 256 32 Go 153,6 Gflops 153,6 Gflops 12

L’architecture des calculateurs CRAY T3D et du T3E donne pleinement


accès au calcul parallèle. Néanmoins, il n’élimine pas la charge de travaux à
exécuter sur le C98 (calculateurs vectoriels). Les CRAY 98 et C94 seront éteints
fin 1999.
1993-2013 269

Figure 124 – Schéma de configuration de l’IDRIS en novembre 1996

11.4.2 Serveurs de fichiers


En novembre 1993, l’IDRIS disposait, pour les besoins d’archivage, d’une
machine Hitachi qui pilotait deux robots Storagetek offrant ensemble une capa-
cité de 3 To. Dès l’année suivante, une machine Convex, nommée Maia, remplace
la précédente et la capacité de la robotique est progressivement passée à 4 To.
En 1997, l’ajout d’un robot GRAU a permis d’étendre la capacité d’archivage
à 25 To, puis plus tard à 200 To en changeant de technologie pour les cassettes.
En 1999, la machine Maia a été remplacée par une machine SGI, nommée
Gaya, qui a elle-même connu deux évolutions jusqu’à aujourd’hui. De façon
concomitante, la capacité des robots Storage tek est passée à 400 To, avant
qu’ils soient remplacés par une robotique de même marque mais de nouvelle
génération, pour une capacité qui a crû progressivement pour atteindre les 4 Po
fin 2013.
L’espace disque en ligne est constitué d’une grappe de 46 disques durs 314
d’une capacité totale de 202 Go et une grappe de 24 disques durs 314 d’une
capacité totale de 106 Go.
Dans cette même période, le grand centre de l’Éducation nationale de
Montpellier change aussi de matériel.
270 De l’IBM 360/75 au superordinateur Jean Zay

11.5 Le CINES
Fin décembre 1999, le CNUSC se transforme pour devenir le CINES 183 (Centre
Informatique National de l’Enseignement Supérieur) actuel, créé par le décret
n° 99-318 du 20 avril 1999. Le changement apporta de nouvelles missions, ainsi
qu’un changement de statut. Le 6 mars 2014, les statuts du CINES sont modifiés
par décret paru au journal officiel qui fait apparaître une nouvelle mission – l’hé-
bergement de matériels informatiques à vocation nationale.
Durant toutes ces années, le nombre de salariés au sein de l’établissement
varie autour d’une quarantaine de techniciens et ingénieurs.
En janvier 2011, le CINES disposait de plusieurs machines pour le calcul
haute performance :
− un ordinateur SGI Altix ICE 8200 EX7 ;
− un ordinateur IBM P1600 + Cluster POWER5 ;
− un cluster Bull (avec GPU pour calcul hybride).
Le supercalculateur Jade (SGI
Altix ICE 8200 EX), dont les carac-
téristiques suivent, a une puissance
de crête de 267 TFlops :
− 536 nœuds bi-socket équipés
de processeurs Intel Xeon
E5472 à 32 Go de RAM ;
− 1 344 nœuds bi-socket équipés
de processeurs Intel Nehalem
X5560 à 36 Go de RAM ;
− Infiniband DDR et QDR 4 x
dual plane ;
− 700 To de disques (Lustre). Figure 125 – Le supercalculateur Jade du CINES

11.6 Différents types de calculs à l’IDRIS


Depuis 1993, le centre a installé un CRAY C98, un CRAY T3D, un processeur
256 CRAY T3E, un Fujitsu VPP300, un système IBM Power 3 et peu après un
système parallèle vectoriel NEC SX-5 de 38 processeurs.

Rang dans Nbre Rmax Rpeak


Calculateur
le TOP500 processeurs (GFlop/s) (GFlop/s)

33 T3E, CRAY/HPE 256 98,5 153,6

335 T3D MCA128-8, CRAY/HPE 128 12,8 19,2

341 VPP300/6, Fujitsu 6 12,8 13,2

183 https://fr.wikipedia.org/wiki/Centre_informatique_national_de_l%27enseigne-

ment_supérieur#Anciennes_machines_de_calcul
1993-2013 271

L’IDRIS a participé au rapport qui couvrait deux domaines : conditions


d’implantation d’un nouveau synchrotron et rôle des Très Grands Équipements
(TGE) dans la recherche publique ou privée, en France et en Europe, rapport
n° 2821 déposé le 19 décembre 2000 par Messieurs Christian Cuvilliez, député
et René Trégouët, sénateur.
Serge Fayolle, directeur adjoint de l’IDRIS, a indiqué que l’investissement
dans un centre de calcul tel que celui qu’il dirige et dont les performances sont
voisines de celles du CINES, est de l’ordre de quelques dizaines de millions de
francs par an. Il s’agit donc d’un équipement qui diffère des TGE classiques par
son coût mais aussi par la nécessité de le renouveler tous les quatre à cinq ans,
en raison des progrès très rapides de l’informatique. À cet égard, le choix de
machines vectorielles ou de calculateurs massivement parallèles ne saurait être
qu’une question d’opportunité, compte tenu de la durée de vie très limitée des
technologies informatiques. Au demeurant, le mode de gestion et d’utilisation
d’un centre de calcul présente des points communs avec ceux d’un TGE.
Recourant aux technologies du parallélisme et du calcul réparti, l’IDRIS est
membre d’EUROGRID, grille de calcul européenne, grâce à laquelle le chercheur
ne se soucie pas de savoir où se trouve le centre de calcul qui prend en charge
ses demandes.
Un point capital est celui du personnel et du recrutement. Il faut en effet
souligner que les grands centres de calcul ne comprennent pas seulement des
moyens matériels mais aussi des compétences essentielles pour la diffusion des
technologies. Il faut en conséquence, un important budget de Rémunération et
Charges Sociales (RCS).
L’accès aux serveurs de l’IDRIS dépend bien évidemment des réseaux
régionaux, ce qui confère une grande importance à une bonne distribution de
ceux-ci.

11.6.1 Les enjeux du calcul parallèle


Victor Alessandrini, directeur de l’IDRIS dit dans un article 184 publié dans le
bulletin d’information de l’ORAP (ORganisation Associative du Parallélisme) :
« Au cours des quarante dernières années, le calcul scientifique s’est appuyé
sur une croissance continue des performances du matériel informatique, une
croissance exponentielle (suivant la loi de Moore) des puissances de calcul
et des tailles mémoire disponibles. Des architectures vectorielles dévelop-
pées dans les années 70 (notamment par CRAY) donnaient naissance à une
nouvelle génération de superordinateurs. Les architectures de calcul paral-
lèle introduites dans les années 90 permettent d’atteindre des performances
inégalées par l’utilisation de grands nombres de processeurs effectuant des
calculs simultanés. Les architectures parallèles, utilisant l’interconnexion

184Bulletin d’information de l’Organisation Associative du Parallélisme (ORAP), n° 9,


octobre 1996, (http://orap.irisa.fr/wp-content/uploads/2016/03/biorap-9.pdf)
272 De l’IBM 360/75 au superordinateur Jean Zay

d’un très grand nombre de processeurs au sein d’une seule machine, ont
permis une croissance de la puissance de calcul largement supérieure à
celle que l’on pouvait espérer de la loi de Moore. L’informatique de pointe
a été dominée successivement par CDC, CRAY, Fujitsu et actuellement
IBM avec la machine Blue Gene. Les États-Unis et le Japon fournissent la
majorité des machines les plus performantes. »
Dans ce même article, il fait le point sur les architectures parallèles, retrace
l’historique du calcul intensif de l’IDRIS depuis sa création et dresse un bilan de
la réflexion technique et stratégique qui a présidé à l’évolution des gros moyens
informatiques de l’IDRIS.

11.6.2 Le calcul vectoriel


Le NEC SX-5, appelé UQBAR comporte une grappe de trois calculateurs.
Pour ce qui est du calcul vectoriel, cette plateforme restera pour longtemps
le plus gros supercalculateur vectoriel du monde. Un premier nœud à 16 proces-
seurs (8 Gflops de puissance crête chacun) et 128 Go de mémoire partagée, a
déjà été mis en service fin novembre 1999.
Une phase de migration des applications vectorielles a été initialisée, celles
qui tournaient sur les anciennes plates-formes CRAY et Fujitsu, avant leur arrêt
fin janvier 2000.
Un bon nombre de projets vectoriels sont adaptés à la nouvelle architecture
et entrés en phase de production.

Figure 126 – NEC SX-5

Les deux autres nœuds de la grappe UQBAR :


− un nœud supplémentaire à 16 processeurs et 64 Go de mémoire partagée ;
− le « petit nœud » à 6 processeurs et 32 Go de mémoire partagée. Deux
nœuds supplémentaires seront ajoutés quelques mois suivants.
La grappe atteint ainsi un total de 40 processeurs vectoriels.
1993-2013 273

Figure 127 – Schéma des grappes du NEC SX5

Un réseau à très haut débit, 8 Go/s relie les trois nœuds. Les utilisateurs ne
voient qu’une seule machine à 40 processeurs.

Classement TOP500 UQBAR en novembre 2000.

Rang Système Nbre Rmax Rpeak


Cœurs (GFlop/s) (GFlop/s)

UQBAR 67 SX-5/38M3, NEC 38 280,0 304,0

11.6.3 Le calcul scalaire


Le POWER3 fut lancé par IBM en 1998. Il intègre 15 millions de transistors par
puce. Il est le premier à mettre en place une architecture 64 bits SMP (Symetric
MultiProcessor). Il est destiné au calcul scientifique.
La même année, est installé un nœud IBM Nighthawk POWER3, TLON
d’architecture scalaire avec 8 puissants processeurs et 16 octets de mémoire
partagée. Puisque la nouvelle plate-forme est une machine plus spécialisée pour
le calcul vectoriel que les bons vieux CRAY C98/C94, elle demande des vecteurs
274 De l’IBM 360/75 au superordinateur Jean Zay

plus longs pour délivrer toute sa puissance de calcul. Elle supporte certains
codes pas très bien adaptés à la nouvelle architecture vectorielle.

11.6.4 Calcul parallèle massif


Sa mise en œuvre à l’IDRIS en 2012 a été expliquée par Pierre-François Lavallée,
alors ingénieur responsable du calcul intensif. À cette date il écrivait :
« Depuis pour maintenir cet accroissement continu de puissance, il a fallu
avoir recours au parallélisme massif à tous les niveaux de l’architecture.
Au niveau du cœur d’exécution, on décode plusieurs instructions simulta-
nément (superscalaire), on multiplie et on pipeline les unités fonctionnelles
et enfin on a recours à l’Hyper Threadind (HT) ou Simultaneous Multi
Threading (SMT) pour exécuter simultanément plusieurs threads. Au niveau
du processeur on va multiplier le nombre de cœurs d’exécution et on peut
éventuellement lui adjoindre des accélérateurs (GPU, MIC). Au niveau du
nœud à mémoire partagée, (on utilisera le terme de nœud par la suite), on
va multiplier le nombre de processeurs. Enfin au niveau de la mémoire, on
va multiplier le nombre de bancs mémoire accessibles simultanément. Cette
révolution s’accompagne d’un changement de référentiel, la sacro-sainte
métrique flops/s (la puissance de calcul brute) étant progressivement rem-
placée par le flop/s/watt (la puissance de calcul par unité électrique) avec son
propre classement des machines les plus efficaces énergétiquement le GREEN
500. On peut extrapoler l’archétype des machines exaflopiques telles qu’on
peut les attendre à l’horizon 2018-2020. Ce seront des architectures avec des
centaines de milliers, voire des millions de cœurs, dont la brique de base sera
un nœud potentiellement hétérogène (mélange de cœurs généralistes et de
cœurs spécialisés) associé à une hiérarchie mémoire extrêmement complexe
composée de multiples niveaux de cache 185. »

11.7 Année 2004


Elle est marquée par la création de DEISA (Distributed European Infrastructure
for Supercomputing Applications) et la publication du rapport 1994-2004 de
l’ORAP (ORganisation Associative du Parallélisme) qui sera suivi de beaucoup
d’autres.

11.7.1 Création de DEISA


DEISA est un consortium de centres nationaux de calcul en Europe qui se pro-
pose de déployer et d’exploiter une infrastructure de calcul distribuée de très
haute performance. La puissance de calcul totale sera de plus de 20 Teraflops

185
La lettre de l’IDRIS de février 2012, article « La programmation parallèle hybride
MPI-Open MP » par Pierre-François Lavallée.
1993-2013 275

au début du projet en 2004 avec une importante et constante évolution dans


les années suivantes. L’émergence de l’Earth Simulator japonais (une architec-
ture vectorielle spécialement conçue pour le calcul scientifique) comme leader
mondial des supercalculateurs a suscité une profonde remise en question des
stratégies et priorités des HPC. Le super-cluster DEISA est représenté dans la
figure suivante. Les sites qu’il relie sont le FZJ à Jüliche et le RZG à Garching,
tous deux en Allemagne, le CINECA en Italie, le CSC en Finlande et l’IDRIS-
CNRS en France.
Le but fondamental de DEISA n’est pas de mettre en place un réseau dédié
à des nœuds d’échelle mondiale. Le seul et unique critère de réussite du projet
est son impact sur les sciences computationnelles en Europe. La mobilisation des
ressources humaines est décisive pour atteindre le succès.

Figure 128 – Architecture du cluster DEISA


D’après Niedenberger & Mextorf (2005), Computational Methods in Science and
Technology, 11 (2), 119-128.

La première étude du projet en décembre 2004 186, a été menée par Allan
Sacha Brun du CEA de Saclay et Jean-Paul Zahn de l’observatoire de Meudon.
Elle est intitulée : Vers une compréhension dynamique des étoiles : simulation
3-D de la turbulence et du magnétisme stellaires. En février 2006, l’administra-
tion de DEISA retient 29 projets scientifiques 187 dont le projet HORIZON, qui
est d’utiliser le calcul massivement parallèle pour modéliser la formation des

186 Lettre de l’IDRIS n° 7 de décembre 2004, Archives de la direction générale du CNRS,


conservées dans les Archives de la DIS.
187 Lettre de l’IDRIS n° 8 de décembre 2006, Archives de la direction générale du CNRS,

conservées dans les Archives de la DIS.


276 De l’IBM 360/75 au superordinateur Jean Zay

structures de l’Univers. DEISA a publié un superbe ouvrage 188 portant sur les
résultats scientifiques obtenus grâce à la structure réseau dont ceux sur les ondes
gravitationnelles présentés par l’Italie.
En 2008, V. Alessandrini a organisé un symposium DEISA les 28 et 29 mai à
Édimbourg. Il fait suite à ceux de Paris, Bologne et Munich et, à partir de juin
2008 des séminaires dans ces locaux d’Orsay, sur le thème du calcul de haute
performance, afin d’accompagner les utilisateurs.

11.7.2 Rapport de l’ORAP 1994-2004


En 1992, le Comité des Applications de l’Académie des Sciences (CADAS),
avait conclu dans un rapport 189 que dans tous les grands secteurs scientifiques,
la méthode classique basée sur la théorie et l’expérience avait laissé la place à
une méthode alliant théorie, simulation et expérience, avec des avancées inégales
dues notamment à l’hétérogénéité des moyens. En 1994, devant le foisonnement
des initiatives et des équipements en calcul parallèle, l’ORAP (ORganisation
Associative du Parallélisme) est créé par le CEA, le CNRS et l’INRIA. Son pré-
sident, Jacques-Louis Lions suggère :
« … une structure souple de coordination dont les efforts portent sur la for-
mation, la mise en œuvre des moyens et surtout l’ouverture et l’information
entre les différents secteurs scientifiques tant académique qu’industriels. 190
L’objectif de cette organisation est le renforcement des collaborations entre
les partenaires et la promotion des projets cohérents au plan national, euro-
péen et international. »
Elle publie depuis dix-sept ans de nombreux rapports d’activité et parti-
cipera à de nombreuses activités touchant à la recherche publique, privée et
industrielle.
L’ORAP en 1994 reprend des remarques du rapport Rabbia 191 sur la fai-
blesse de l’offre des constructeurs européens, malgré une position de pointe de
la recherche dans le domaine des systèmes parallèles avancés. En 1997, à l’initia-
tive du CNRS, 192 on assiste à un développement des mésocentres régionaux qui
doit permettre aux utilisateurs une utilisation optimale des centres nationaux
qui eux se développent à budget constant. Une enquête en 2000 sur 84 labora-
toires, révèle que tous utilisent l’informatique, et 56 des moyens extérieurs pour
une grosse puissance de calcul et des logiciels rares et coûteux. La préparation

188 Advancing Science in Europe, ouvrage collectif sous la direction de Saara Värttö du
CDC de Finlande.
189 Rapport du comité des applications de l’Académie des sciences, La vie des sciences,

comptes rendus, série générale), tome 9,1992, n° 1, p. 63-83, sous la direction de Robert
Dautray.
190 « Calcul Parallèle », ORAP, J-L Lions, 1994.
191 Rubbia et al., Report on the High Performance Computing and Networking Advisory

Commitee, vol. 1, (CEC: October 1992).


192 « Réflexion sur une politique d’équipement méso-informatique au CNRS », COMI,

mai 1997.
1993-2013 277

des calculs sur les centres nationaux se fait dans les mésocentres. Un point
commun pour les centres intermédiaires est le manque de personnel spécifique.
Ils sont utilisés à plein. En 2003-2004 les deux centres nationaux sont l’IDRIS,
55 personnes, 10 MF par an de budget en moyenne entre 1993 et 2000, et le
CINES, 44 personnes, budget d’investissement de 4 MF. En novembre 2003, ils
sont très loin dans le classement du TOP500. Si on cumule les puissances de
crêtes des centres pour la recherche, on arrive à un total qui est le 1/3 de celui
de l’Angleterre et les 3/8 de celui de l’Allemagne.
On peut en effet considérer la simulation « soit comme un centre de coût, soit
comme une opportunité stratégique ». Dans le premier cas, on vise un facteur de
croissance de 50 en 10 ans. Dans le second, le facteur volontariste de 500 est un
pari sur l’avenir aux États-Unis et au Japon. Vers la fin des années 90, le constat
de sous équipement français est flagrant par rapport à celui des Américains.
Pour rattraper ce retard la commission européenne a contribué au finance-
ment de projets destinés à développer le Calcul Haute Performance (CHP) en
Europe. Les principaux moyens de financement sont les programmes cadres qua-
triennaux. Pour les 4e, 5e, 6e, l’Europe a investi respectivement 12 300, 14 940,
16 200 M€. Le 6e donne une place importante aux grilles de calcul et grilles de
données, éléments importants du calcul de haute performance. Les financements
communautaires ne vont pas vers les applications scientifiques et techniques
(modélisation et simulation à grande échelle, par exemple), ce qui peut être
considéré comme regrettable.
Le rapport de l’ORAP 193 appuie en permanence sur notre retard par rapport
à l’étranger et propose, entre autres, pour y remédier un gros effort de formation
des chercheurs et des étudiants. S’appuyant sur les universités américaines, il
met l’accent sur la double compétence nécessaire aux chercheurs de pointe à la
fois dans leur secteur de recherche et en informatique.
Un paragraphe entier, Les centres nationaux de calcul : du ticket modérateur
à une affectation de ressources sur dossier scientifique, est consacré au sujet.
Il souligne les effets néfastes du ticket modérateur. Il rappelle la décision prise
en 1993 :
« Le ministère chargé de la Recherche, prenant conscience de l’importance
croissante du calcul de haute performance, et considérant que ces “grands
instruments scientifiques” devaient être accessibles dans de bonnes conditions
par la communauté scientifique, a décidé de prendre directement en charge
les frais de ces deux centres. Cette “mesure incitative” a joué un rôle impor-
tant dans le développement de la simulation numérique dans de nombreux
domaines. »
Les deux centres nationaux : IDRIS et CINES lancent chaque année un appel
à propositions. Où en est l’Europe dans la course à l’exascale ?
« Les spécialistes des applications et les informaticiens devraient collaborer.
La France connaît cette année une vaste et multiple réflexion autour de
l’avenir de la recherche. La question du calcul scientifique doit être posée

193 http://orap.irisa.fr/wp-content/uploads/2016/03/livre.pdf
278 De l’IBM 360/75 au superordinateur Jean Zay

explicitement comme une impérieuse priorité. Le calcul scientifique fait


partie des secteurs dans lesquels le retard accumulé par la France est à la fois
important et préoccupant. Nous souhaitons que le comité d’initiative et de
proposition des États Généraux de la Recherche et de l’Enseignement supé-
rieur s’empare du problème. »
La recherche publique française, au CNRS, dans le monde universitaire, au
CEA, à l’INRIA, représente un potentiel de très haut niveau. Ce potentiel
recouvre aussi bien les compétences en informatique que celles en mathéma-
tiques ou dans les sciences utilisatrices. Lors de son 46e congrès de l’ORAP au
début de 2021, il sera fait allusion à ce premier rapport

11 .8 Année 2006
Le Parlement a demandé à deux de ses membres un rapport sur le calcul scien-
tifique. Ce rapport rappelle que :
« L’IDRIS (Institut du Développement et des Ressources en Informatique
Scientifique), fondé en novembre 1993, a pris la suite du CIRCÉ ; il est le
centre majeur du CNRS pour le calcul numérique intensif de très haute per-
formance et est situé à Orsay 194. »
Le rapport 195 se propose de dresser un bilan de la réflexion technique et
stratégique qui a présidé à l’évolution des gros moyens informatiques de l’IDRIS
depuis sa création fin 1993. Une perspective historique n’est pas inintéressante
dans un secteur de pointe comme celui des technologies de l’information, où le
progrès s’accélère de manière vertigineuse et les échelles de temps rétrécissent
tous les jours. Les quelques années qui se sont écoulées ont été riches en ensei-
gnements. Les embûches et les fausses pistes n’ont pas manqué, pour l’IDRIS.

11 .9 Année 2007 - Création du GENCI

Le GENCI 196 (Grand Équipement National du Calcul Intensif) a été créé en


2007 par les pouvoirs publics français, pour rattraper le retard que la France avait
pris dans la mise à disposition de capacités de calcul comparables à celles de ses
homologues européens. Cette décision faisait suite au rapport Héon-Sartorius

194 Le rôle des très grands équipementiers dans la recherche : http://orap.irisa.fr/


wp-content/uploads/2016/03/livre.pdf
195 Le calcul intensif à l’IDRIS bilan et perspectives. Rapport ORAP, avril 2004. http://

orap.irisa.fr/wp-content/uploads/2016/03/biorap-22.pdf
196 Interview de Catherine Rivière, PDG du GENCI (2016), http://www.genci.fr.
1993-2013 279

qui soulignait, en 2005, la nécessité d’une meilleure coordination des différents


acteurs du calcul intensif en France et d’un financement suffisant et régulier du
parc français de supercalculateurs.
Le calcul intensif est, en effet, un outil stratégique pour la compétitivité de
la France, tant sur le plan scientifique qu’industriel. En créant une structure
spécifique comme le GENCI, le gouvernement a souhaité mettre en place une
véritable politique dans ce domaine pour replacer la France au meilleur niveau
européen et international.
Doté d’un budget annuel de 30 M€, la société a comme missions principales :
− assurer la maîtrise d’ouvrage des moyens de calcul nationaux, mainte-
nant répartis dans trois centres de calcul : le Très Grand centre de calcul
(TGCC) du CEA à Bruyères-le-Châtel, l’Institut du Développement et
des Ressources en Informatique Scientifique (IDRIS) du CNRS à Orsay
et le Centre Informatique National de l’Enseignement Supérieur (CINES)
à Montpellier. À ce titre, le GENCI a la responsabilité du plan d’inves-
tissement pluriannuel d’évolution des supercalculateurs installés dans ces
trois centres ;
− porter la stratégie nationale d’équipement en calcul intensif au bénéfice
de la recherche scientifique française en lien avec les trois centres natio-
naux de calcul ;
− participer à la réalisation d’un écosystème intégré du calcul intensif à
l’échelle européenne ;
− promouvoir la simulation numérique et le calcul intensif auprès de la
recherche académique, des industriels et, avec la Banque Publique d’In-
vestissement (Bpifrance) et l’INRIA, dans une initiative spécifique pour
les PME nommée HPC-PME1.
Pour réussir son programme, GENCI a besoin de gens compétents d’où des
efforts pour réfléchir à leur formation. Des ateliers de travail issus de l’initiative
Penser le Pétaflop ont réfléchi à la question Les métiers du numérique : forma-
tion, recherche et débouchés.
Les conclusions, publiées en 2008, précisent des plans pour des formations
de tout niveau dans les écoles et facultés et appellent à construire un plan de
formation supérieure dans le domaine de la simulation numérique et de son
application aux diverses disciplines. L’annexe 39 donne un exemple de forma-
tion à l’IDRIS.

11.10 Année 2010 - Création de PRACE


et du COCIN
11.10.1 PRACE
PRACE, Partnership for Advanced Computing in Europe, a officiellement été
créée au printemps 2010 sous la forme d’une Association Internationale sans
But Lucratif (AISBL) de droit belge. Sa feuille de route est de ramener l’Europe
du calcul intensif dans la compétition internationale. Et ce, grâce à l’investis-
sement de cinq de ses pays membres (l’Allemagne, l’Espagne, la France, Italie
280 De l’IBM 360/75 au superordinateur Jean Zay

et la Suisse) qui l’ont financé successivement, chacun, à hauteur de 100 mil-


lions d’euros sur cinq ans pour la première phase (2010-2015) puis désormais
pour PRACE2 (2016-2019) et au support de la Commission européenne avec le
financement de projets d’implémentation, des supercalculateurs de très grande
puissance pour soutenir à la fois le progrès des connaissances et l’innovation en
Europe. Depuis sa création, PRACE a alloué plus de 12 milliards d’heures de
calcul à 465 projets issus de la recherche académique et industrielle (avec plus
de 50 PME ou grands groupes impliqués) mais a également apporté des services
à forte valeur ajoutée : formation, support aux utilisateurs pour les commu-
nautés émergentes et les PME, prototypage de nouvelles technologies matérielle
et logicielle. La France est en bonne position. Son engagement s’est concrétisé
par l’acquisition et l’installation de supercalculateurs pour les équipements des
trois centres nationaux. Non seulement, elle est le premier pays en nombre de
projets scientifiques retenus mais elle est également le premier pays en nombre
d’industriels (grands comptes et PME) qui utilisent les ressources de PRACE 197.
L’accès aux ressources de PRACE se fait par le biais d’un seul critère, inter-
nationalement reconnu : l’excellence scientifique.
L’initiative EuroHPC (European High-Performance Computing) fondée en
2017 s’est occupée à mutualiser les futurs supercalculateurs reliés par un réseau
de transmission super-performant. Où faut-il les installer ? C’est la Finlande qui
est supposée recevoir le suivant. Le centre de calcul d’Orsay n’est aujourd’hui
qu’un des hypercentres de calcul, installés en Europe, hypercentres qui sont
accessibles par les réseaux. Mais ce qui est primordial pour les chercheurs, c’est
que le but initial fixé par Pierre Jacquinot soit atteint. C’est un cinquantenaire
qui consacre une évolution réussie. L’informatique de service non seulement est
reconnue comme indispensable, mais elle est devenue une affaire d’état. Les
chercheurs ont le choix des moyens dans la communauté européenne.

11.10.2 COCIN
Le COCIN (Comité d’Orientation pour le Calcul Intensif) a été créé fin 2010 par
la présidence du CNRS. Il est chargé de la réflexion collective sur les besoins,
la structuration et les évolutions en calcul. Il a publié plusieurs livres blancs.

11.11 Année 2011


L’année 2011 a été pour l’IDRIS une année de transition principalement consa-
crée à la préparation du renouvellement des supercalculateurs. Outre les acti-
vités correspondant à ses deux missions essentielles, d’une part l’exploitation
du parc de calculateurs et des machines de service associées et d’autre part le
support applicatif de haut niveau apporté aux utilisateurs. Les principaux évé-
nements qui ont marqués l’année écoulée ont été des travaux d’infrastructure
très conséquents, étendus sur dix-huit mois, permettant de multiplier la capacité

197 https://prace-ri.eu/hpc-access/project-access/
1993-2013 281

électrique par un facteur 2,5, pour l’exploitation de la prochaine génération des


machines.
L’arrêt de DEISA en avril 2011, marque le terme d’un projet de sept années
dans lequel l’IDRIS s’était très investi. Il l’avait dirigé dans ses quatre premières
années, et ses activités furent intégrées au projet PRACE dans sa deuxième
phase d’implémentation qui a démarré en septembre 2011 (PRACE-2IP, sep-
tembre 2011-août 2013).

11.11.1 Protection du Potentiel Scientifique et Technique (PPST)


La Protection du Potentiel Scientifique et Technique (PPST) est une préoccu-
pation primordiale de la Nation qui a toujours animé les gouvernements succes-
sifs 198. Mais face aux changements apparus ces dernières décennies, les menaces
et les moyens d’attaques mis en œuvre, il était devenu indispensable de modifier
la législation en vigueur en la matière. Bien qu’il ait été amendé plusieurs fois
au fil du temps, le dispositif reposait sur une vision relevant pour l’ensemble
des rapports de forces géopolitiques tels qu’il existait à l’époque de la guerre
froide. La nouvelle réglementation s’étend dorénavant erga omnes c’est-à-dire à
tous et non plus comme par le passé uniquement aux personnes d’une nationa-
lité autre que celle des pays de la communauté européenne. Ont été identifiés
des secteurs protégés et des unités protégées et des Zones à Régime Restrictif
(ZRR). L’IDRIS, bien sûr, a été concerné directement par ces changements. Une
zone ZRR a été créée et couvre la quasi-totalité des bâtiments sauf quelques
salles ouvertes au public. De plus, l’IDRIS a fait évoluer sa politique de sécurité
selon les recommandations mises à jour de l’Agence Nationale de la Sécurité
Informatique (ANSI).

11.11.2 La Maison de la simulation


La Maison de la simulation est un laboratoire commun du CEA, du CNRS,
de l’INRIA et des universités Paris-Sud et Versailles-Saint-Quentin fondée en
2004. Son objectif est de continuer à optimiser le retour scientifique des super-
calculateurs déployés au niveau national, supercalculateurs achetés par GENCI,
l’IDRIS et le TGCC, et au niveau européen dans le cadre de l’infrastructure
PRACE. Tous les scientifiques français et européens ont maintenant accès à un
ensemble de machines de calcul de très haute performance et il faut développer
des applications capables d’exploiter cette énorme puissance de calcul pour faire
des avancées scientifiques.
Le PTAC représente une quinzaine de formations par an avec une participa-
tion volontaire et actives des personnels des centres de calcul de l’INRIA.

198 La lettre de l’IDRIS de février 2012, article « Protection du potentiel scientifique et


technique » par Denis Girou et Vincent Ribaillier.
282 De l’IBM 360/75 au superordinateur Jean Zay

Figure 129 – Maison de la simulation (DR)

La maison de la simulation, en collaboration avec les autres PTAC, a établi


un curriculum au niveau européen qui a été validé par une commission d’experts
indépendants.
Avec le déploiement d’une infrastructure pour le calcul intensif, aussi bien au
niveau national avec GENCI qu’au niveau européen dans le cadre de l’infrastruc-
ture de recherche PRACE, les chercheurs ont maintenant accès à un parc de
supercalculateurs de classe mondiale. De tels supercalculateurs devraient rendre
1993-2013 283

possible des avancées majeures dans différents domaines scientifiques mais aussi
bénéficier à la compétitivité industrielle. Atteindre ces objectifs impose de dis-
poser d’applications conçues et optimisées pour une exécution des calculs en
parallèle (sur des calculateurs ayant un très fort degré de parallélisme). De
plus, l’exploitation des masses de données produites par les grandes simulations
nécessite des outils de post-traitement et de visualisation adaptés. La complexité
des architectures de classe Pétaflops et celles des systèmes physiques à simuler
représentent de grands défis. Seules des équipes pluridisciplinaires comptant
des informaticiens spécialisés dans le calcul intensif (HPC, High Performance
Computing), des spécialistes du traitement numérique et des experts dans les
domaines scientifiques visés peuvent les relever.
Les supercalculateurs devraient rendre possible des avancées majeures dans
différents domaines scientifiques mais aussi bénéficier à la compétitivité indus-
trielle. Atteindre ces objectifs impose de disposer d’applications conçues et opti-
misées pour une exécution des calculs en parallèle, sur des calculateurs ayant
un très fort degré de parallélisme. De plus, l’exploitation des masses de données
produites par les grandes simulations nécessite des outils de post-traitement et
de visualisation adaptés. L’objectif principal de la Maison de la simulation est
de favoriser l’utilisation efficace par la communauté scientifique de ces grands
équipements de calcul.
Pour atteindre ses objectifs, la maison de la simulation développe ses acti-
vités dans trois directions :
− un centre de recherche pluridisciplinaire sur la simulation numérique et la
modélisation qui héberge des équipes de recherche regroupant chercheurs
et ingénieurs autour de projets liés au calcul intensif ;
− une unité de service et d’expertise ouverte aux communautés scientifiques ;
− un pôle d’enseignement de formation initiale permanente et d’animation
scientifique en calcul intensif.
En complément à l’accès à des supercalculateurs de classe mondiale, PRACE
a développé une offre de formation de pointe, notamment avec 9 PRACE
Training Centres (PATC) dont un en France, porté par la Maison de la simula-
tion en lien avec les trois centres nationaux de calcul et l’INRIA.

11.12 Année 2012


Le GENCI a acquis deux nouveaux supercalculateurs, Turing et Ada, conçus
par IBM et installés à l’IDRIS. Avec cet investissement, le GENCI a permis à
la communauté scientifique française, dès janvier 2013, de répondre aux grands
défis scientifiques et industriels et de se préparer à l’avènement des futures
architectures de calcul. Catherine Rivière (annexe 41), PDG du GENCI écrit :
« Avec ce nouvel investissement, GENCI achève de renforcer les moyens de
calcul nationaux avec des machines d’architectures complémentaires, après
ceux du CINES avec le supercalculateur Jade et ceux du CEA avec Curie et
Titane. Au total, c’est une puissance cumulée de plus de 1,6 PFlOPS que
nous mettons désormais à disposition des scientifiques français, soit un gain
d’un facteur 80 en cinq ans. »
284 De l’IBM 360/75 au superordinateur Jean Zay

Figure 130 – Machines Turing et ADA installées à l’IDRIS

Stéphane Requena dans un article explique :


« Un supercalculateur, ou superordinateur, est un assemblage très dense de
serveurs empilés les uns sur les autres et fédérés par un réseau très rapide. Il
permet de traiter des problèmes inaccessibles pour un PC de bureau, en paral-
lélisant les calculs, c’est-à-dire en donnant à chaque serveur un petit bout
d’un problème à traiter. Sa puissance est mesurée en pétaflops, c’est-à-dire
en millions de milliards d’opérations par seconde. En d’autres mots, c’est
un accélérateur de science et surtout un outil qui sert à toute la société 199. »

11 .13 Grands challenges IDRIS 2012


La période de préparation à la mise en production des nouveaux supercalcula-
teurs Turing et Ada a été l’occasion d’attribuer des ressources importantes à
quelques projets particuliers pour leur permettre de réaliser des simulations de
très grandes tailles sur tout ou partie des nouvelles configurations. Ces alloca-
tions exceptionnelles baptisées Grands challenges scientifiques ont pour but de
concourir à des avancées scientifiques significatives dans diverses disciplines.
Treize projets ont ainsi été sélectionnés à l’automne 2012 pour les Grands
challenges IDRIS sur ses nouveaux supercalculateurs, neuf sur la machine Blue
Gene/Q Turing et quatre sur la machine généraliste Ada. Ils ont concerné la
plupart des disciplines scientifiques utilisatrices de la simulation numérique.

199 CNRS, Le Journal, 10/04/2019, https://lejournal.cnrs.fr/articles/supercalculateurs-


les-enjeux-dune-course-planetaire.
1993-2013 285

DRAKKAR Quantification de la variabilité interannuelle intrinsèque de la circula-


tion océanique

Méso-NH Impact du transport collectif sur la stratosphère tropicale

APAFA Étude de la propagation de la flamme inter-injecteurs sur le brûleur


expérimental KIAI

ECOPREMS Étude de la COmbustion PRE mélangée en Milieu Stratifié

DEUS-PUR Dark Energy Universe Simulation : Parallel Universe Run

MHDTURB Turbulence magnétohydrodynamique dans les disques d’accrétion

ZOOMBAH Zoomed simulations of Black Hole Accretion

GYSELA Simulations multi-espèces turbulentes dans les plasmas de Tokamak

PrecLQCD Calculs de précision sur réseau

STABMAT De la stabilité de la matière ordinaire : électromagnétisme et différence


de masse des quarks u et d

SELTRAN Surface d’énergie libre de transfert d’acides aminés au travers des


membranes

LIQSIM Simulations de phases liquides par dynamique moléculaire ab initio

BIGDFT Étude ab initio de la structure et de la cinétique des matériaux


d’anode pour les batteries ion-lithium

Une brochure, intitulée Grands challenges IDRIS 2012, a été publiée à cette
occasion, présentant tous les projets ayant participé à ces Grands challenges 200.
Elle a été préfacée par Catherine Rivière, présidente directeur général du GENCI
et Philippe Baptiste, directeur des Sciences de l’Information au CNRS. Ils sou-
lignent la politique d’investissement du GENCI qui termine ainsi son premier
cycle d’évolution des moyens de calcul des trois centres nationaux. Elle met ainsi
à la disposition de la recherche scientifique des moyens de calcul scientifique
nécessaires à son excellence.
Nous n’examinerons que deux propositions pour montrer en quoi les nou-
veaux moyens de calcul ont été indispensables.
DAKKAR est un projet de coordination scientifique et technique entre des
équipes du CNRS et du centre opérationnel Mercator Océan, avec des collabora-
tions étroites au Royaume-Uni, en Allemagne et au Canada. Il réalise des simu-
lations numériques de l’océan global et de la banquise à très hautes résolutions
couvrant de longues périodes de cinquante ans et plus. Des simulations réalisées
en 2008 ont montré des fluctuations à basse échelle, avec une grille de calcul de
25 km à l’équateur et 9 pour l’Antarctique. Dans les trois dernières années, une
nouvelle simulation ORCA12 utilise une grille de calcul de 9 km à l’équateur et

200http://www.idris.fr/media/docs/docu/grandschallenges2012/grandschallengesidris
2012.pdf
286 De l’IBM 360/75 au superordinateur Jean Zay

moins de 3 km le long de l’océan Antarctique, ce qui fait un peu plus de 600 mil-
lions de points et multiplie par 30 le temps et le prix du calcul. La méthode
proposée en 2013 propose un maillage tripolaire 4322×3050µ46 points découpés
en 3584 sous domaines océaniques, chaque domaine étant associé à un cœur de
calcul de la machine ADA. Une année de simulation prend 12 heures. Avec les
5 millions d’heures attribuées, l’équipe a pu réaliser 85 ans de simulation et a
poursuivi jusqu’à 100 ans avec les attributions régulières du GENCI. Ces simu-
lations place l’équipe à la pointe de la compréhension et la quantification de la
variabilité des océans ayant une implication climatique forte.
Le second exemple a trait à la simulation d’un univers parallèle. L’univers
est unique. Il est impossible de s’en extraire pour l’observer de l’extérieur. C’est
pourquoi il faut faire des simulations afin de tester les modèles cosmologiques
et de les confronter aux observations, pour apporter des réponses. La complé-
mentarité des supercalculateurs Curie et Ada a été utilisée pour des milliers de
simulations à 16 millions de particules et pour 64 de plus d’un milliard de par-
ticules chacune. À l’issue du calcul, il a été obtenu pour chaque simulation les
spectres de puissance associés à la distribution de matière au cours de l’histoire
de l’univers.

11.14 Résultats scientifiques


Les sujets traités par les utilisateurs conservées dans les archives de la direc-
tion générale pour cette période montrent que tous les efforts de l’IDRIS ont
été tournés vers l’applicatif dans tous les domaines. On les retrouve sur le site
www.idris.fr et ils sont regroupés année après année en épais volumes qui rem-
placent les anciens volumes émis par la DIS qui relataient ses démêlés avec le
ministère de l’Industrie et le ticket modérateur. Quel soulagement que la dispa-
rition de toutes ces discussions soient remplacées par d’autres portant sur des
sujets scientifiques ! Il a fallu vingt ans avant d’arriver à ce résultat !
Chapitre 12
Période 2013-2021

Introduction
Cette période est particulière à plus d’un point de vue. C’est pour le centre une
période d’aboutissement de cinquante ans d’efforts pour la reconnaissance du
centre de calcul du CNRS comme un des grands centres de calcul nationaux
indispensables à la recherche. Deux directeurs se sont succédés : Denis Girou qui
était déjà directeur à la fin de la période précédente et Jean-François Lavallée,
ingénieur de haut niveau, jusque-là responsable du groupe calcul intensif. Il y
a donc eu une parfaite continuité dans l’esprit de la direction, même si chacun
a apporté et apporte sa marque personnelle. En tous cas, ils arrivaient avec la
formation, les compétences techniques adaptées aux problèmes qu’ils avaient à
affronter et une parfaite connaissance du milieu, tant du point de vue des utili-
sateurs, que de l’administration.
Pendant ces années, son histoire ne peut être déconnectée de celle des autres
acteurs français, européens et mondiaux. Les notions d’Intelligence Artificielle,
de calcul quantique étaient dans l’air depuis des années. Mais c’est durant
cette période qu’elles émergent et bouleversent à la fois le paysage informatique
et la temporalité. Le ton était donné depuis cinquante ans par la croissance
exponentielle des puissances installées et des volumes de données gérées, crois-
sance elle-même rendue possible par les avancées technologiques, les nouvelles
architectures vectorielles, parallèles et massivement parallèles. Mais le change-
ment le plus profond vient du renversement de l’opinion sur la place de l’outil
informatique dans notre société. On est passé de l’hostilité à un engouement
difficilement imaginable il y a une décennie. Autrefois, les utilisateurs pleuraient
littéralement devant leurs crédits calcul épuisés. Maintenant, le GENCI fait de
la publicité sur les réseaux sociaux et incite les chercheurs des secteurs publics
et privés, académique ou industriel à déposer des demandes pour attribution de
temps sur ses machines en France ou en Europe. On trouve sur Internet des sites
qui expliquent ce que sont le GENCI et ses trois missions. Dernière nouveauté :
une agréable voix féminine vous invite dans une vidéo 201 à faire, en deux clics,
une demande de temps de temps de calcul sur un calculateur d’exception !

201 https://www.genci.fr/sites/default/files/Livret-information-Genci.pdf
288 De l’IBM 360/75 au superordinateur Jean Zay

La presse nationale : Le Monde informatique, Le Monde diplomatique,


Libération, L’Observateur, Le Midi libre, etc. rivalisent pour obtenir les inter-
views les plus claires des chercheurs de pointe. GENCI participe activement à
cette information. Tous les mois sur son site web il vous communique dans la
rubrique actualité la dernière idée nouvelle à peine sortie d’un des multiples
laboratoires ou entreprises lancés dans cette course à la nouveauté. Il est :
« En charge de mettre à disposition des moyens de calcul et de traitement de don-
nées massives performants, GENCI a pour mission, au niveau national et euro-
péen, de favoriser l’usage du calcul intensif associé à l’Intelligence Artificielle
au bénéfice des communautés de recherche académique et industrielle. »
Simultanément, un fléchissement non pas de la croissance, mais du coeffi-
cient de l’exponentielle de croissance des machines disponibles se manifeste. Le
dernier TOP500 paru en juin 2021 suit bien cette tendance. Le classement est
inchangé. Il ne faut pas en conclure que la croissance de la puissance est arrêtée
ou que les besoins stagnent. Au contraire, mais il y a à cela plusieurs raisons.
En voici deux : le rythme d’avancées des technologies pour la génération des
machines conventionnelles a ralenti. Un certain nombre de travaux peuvent
être exécutés dans les centres équipés de machines nouvelle génération, de plus
faible puissance que celles avoisinant le TOP, mais plus adaptées au problème
à traiter.
En revanche, une série de problèmes scientifiques demeureront toujours tri-
butaires de la puissance installée dans les trois centres nationaux. Ce qui est cer-
tain c’est qu’on est en train de vivre un grand bouleversement. Deux révolutions
sont en route ou à venir : celle de l’Intelligence Artificielle, et celle de l’avène-
ment du quantique dans l’informatique. Mais où est la grande révolution ? Dans
l’importance que prend l’Intelligence Artificielle dans nos vies ? Dans l’avène-
ment du quantique dans nos technologies ou dans le passage dans le futur de
l’informatique quantique électronique à l’informatique quantique photonique ?
Un autre futur s’entrevoit, mais sans qu’il soit possible de dire ce qu’il sera.
Une idée dont on croyait qu’elle ne serait applicable que dans vingt ans peut
l’être quelque part dans le monde deux jours après et diffusée sur le Net. Les
mots Intelligence Artificielle, ordinateur quantique sont partout, dans les revues
scientifiques, mais aussi dans toute la presse, à la télévision. Nous ne pouvons
ici que signaler les grands problèmes techniques et philosophiques qui se posent,
quelques solutions entrevues et concrètement voir comment est abordé le pre-
mier challenge, celui de l’Intelligence Artificielle avec la machine parmi les plus
puissantes d’Europe disponible actuellement à Orsay.

12.1 Évolution technique de l’IDRIS


pendant la période 2013-2021
Cette période, à l’IDRIS, a été celle de l’exploitation des machines Ada et
Turing prévues pendant la période précédente, puis de leur remplacement par
l’ordinateur Jean Zay. L’augmentation de volume du stockage des données a été
continue. En 2012, la plateforme répondait au schéma de la figure 131.
Période 2013-2021 289

Figure 131 – Configuration de la plateforme en 2012

Simultanément, depuis l’été 2012 la première phase de l’opération d’augmen-


tation des capacités de stockage, a conduit à un appel d’offres pour le remplace-
ment de la machine d’archives Gaya. C’est la proposition IBM qui a été retenue.

12.1.1 Calendrier des installations


2013 a été la première année d’exploitation de la nouvelle configuration Turing
(Blue Gene/Q) et Ada (x3750), installée durant le second semestre de 2012,
à la suite de la procédure d’acquisition lancée à l’automne 2011 par GENCI.
Après la campagne exceptionnelle dite des Grands challenges à la fin de 2012,
pendant la phase de qualification des nouveaux supercalculateurs, ceux-ci ont
été pleinement opérationnels dès le 1er janvier 2013 pour la campagne d’attribu-
tion d’heures qui s’ouvrait. Durant toute l’année, ils ont été remarquablement
fiables, avec une disponibilité de 98,5 % pour Turing et 99,5 % pour Ada (hors
les arrêts programmés pour des mises à niveau des systèmes).
Ada était une machine généraliste, Turing était plus spécifique, avec des
processeurs lents, mais en grand nombre et reliés par un excellent réseau d’inter-
connexion. Elle était particulièrement adaptée aux calculs massivement paral-
lèles nécessitant peu de mémoire par cœur.
290 De l’IBM 360/75 au superordinateur Jean Zay

L’année 2014 a été la deuxième dans l’exploitation des calculateurs Turing


(Blue Gene/Q) et Ada (x3750). À nouveau, ils ont fait preuve d’une fiabilité
remarquable, avec pour chacun une disponibilité, hors les arrêts programmés
pour des mises à niveau des systèmes, de l’ordre de 99,5%. De plus, à la suite de
la décision prise par GENCI et le CNRS à la fin de l’année, la configuration de
la machine Turing a augmenté de moitié.
En 2014, elle est passée quasiment à
100 000 cœurs de calcul et à 100 To de
mémoire centrale, ce qui a permis d’at-
tribuer chaque année 655 Mh sur cette
machine. Après une installation réalisée
dans le temps record d’un mois, l’en-
semble de la nouvelle configuration a été
opérationnelle fin novembre.
La machine d’archives qui pilote la
robotique de cartouches magnétiques, a
été remplacée en 2014. C’est donc d’un
environnement largement étendu dont
les utilisateurs ont bénéficié jusqu’à la
fin de vie de la génération des supercal-
culateurs Turing (Blue Gene/q) et Ada
(x3750).
L’année 2015 a été marquée par
l’extension des capacités disques des
configurations de calcul avec l’ajout de
3 Po supplémentaires aux 2 Po dispo-
nibles depuis 2012, via des disques de
nouvelle génération aux performances Figure 132 – Ordinateurs en service
nettement augmentées. entre 2013 et 2021

12.1.2 PRACE en France et les mésocentres


Depuis la mise en œuvre du schéma directeur informatique de la recherche grou-
pant le CNRS et l’Enseignement supérieur, les mésocentres se sont multipliés.
Ils communiquent entre eux et avec l’étranger par RENATER. Ce sont d’abord
les gros centres universitaires ou centres régionaux, ou centre autour d’une
grande école, ou centre de calcul du secteur développement d’une entreprise qui
a des liens avec la recherche.
« Le projet Equip@meso (Équipement d’excellence de calcul intensif de
mésocentres coordonnés) 202 a été retenu dans le cadre des appels à projet
Equipex 2010 des investissements d’avenir sur la période 2011-2019. Ses
objectifs sont le développement des équipements et des interactions au sein
des centres régionaux de calcul (compétences, capacités de calcul, formations)
et le soutien de l’initiative HPC-PME. »

202 https://cat.opidor.fr/index.php/Equip@meso
Période 2013-2021 291

Qu’est-ce qu’un mésocentre ?


− Des moyens humains, des ressources matérielles et logicielles, à destination
d’une ou plusieurs communautés scientifiques, issus de plusieurs entités
(EPST, universités, industriels), d’une même région, doté de sources de
financement propres et destiné à fournir un environnement scientifique
et technique propice au calcul haute performance. C’est une structure
pilotée par un comité scientifique (plus ou moins structuré) et évaluée
régulièrement.

La liste des mésocentres en France en 2018 est donnée ci-dessous.

Auvergne-Rhône-Alpes Centre Blaise Pascal / Pôle Scientifique de Modélisation


Numérique (CBP/PSMN), GRICAD, Grid’5000 – Grenoble,
Grid’5000 – Lyon, MUST calcul mutualisé entre le CNRS
(l’université Savoie-Mont Blanc)

Clermont Auvergne P2CHPD, PMCS2I École centrale de Lyon

Bourgogne-Franche- Université
Comté

Bretagne GenOuest, Grid’5000 – Rennes, IFREMER

Centre-Val de Loire CaSciModOT

Étranger Grid’5000 – Luxembourg

Grand Est Explor, Grid’5000 – Nancy, ROMEO (plateforme techno-


logique de l’université de Reims Champagne-Ardenne),
UNISTRA

Guadeloupe Centre Commun de Calcul Intensif (C3I)

Hauts-de-France Grid’5000 – Lille, MatriCS (plateforme pluridisciplinaire de


calculs de l’université de Picardie-Jules Verne)

Nord-Pas-de-Calais

Normandie Criann

Nouvelle-Aquitaine CALI, Mésocentre de calcul Intensif Aquitain (MCIA),


SONEL

Occitanie Calmip, GenoToul, Meso@LR,

Pays de la Loire CCIPL, Grid’5000 – Nantes, ICI-CNSC

Provence-Alpes-Côte CCIAM, Grid’5000 – Sophia, SIGAMM


d’Azur

Île-de-France Centrale-Supelec, centre de calcul, DataCenter@UPSud,


ESPRI, GRIF, MeSU (Sorbonne-université), MesoPSL
(université PSL), PHYMATH, S-CAPAD

Figure 133 – Liste des mésocentres en 2018


292 De l’IBM 360/75 au superordinateur Jean Zay

12.1.3 Comparaison des puissances installées et du TOP500


La même méthode que pour les périodes précédentes est employée, même si elle
est moins bien adaptée maintenant que la puissance n’est plus qu’un critère
parmi d’autres et que la configuration étant stable pendant plusieurs années, le
choix des limites des périodes étudiées soit plus délicat.

Figure 134 – Courbes de régression des puissances de 2013 à 2020


Période 2013-2021 293

Facteur multiplicatif
Coefficient a
Période tous les 2 ans

centre de calcul TOP centre de calcul TOP

2013-2020 1,31 1,38 1,72 1,90

En moyenne tous les deux ans la puissance totale installée est multipliée par
1,72 et celle du TOP par 1,90. La croissance a été moins forte à la fois pour le
TP500 et l’IDRIS.
Les deux premières places au TOP500 du 28 juin 2021 restent inchangées
avec les mêmes ordinateurs. La course à l’exascale subit une pause. Le site du
TOP500 dit qu’elle demeure élusive. Le Fugaku reste l’ordinateur commercial
installé le plus puissant dans un centre de recherche avec des pointes mesurées
lors des benchmarks de 537 Pflops. C’est trois fois supérieur à la puissance du
Summit installé par le DOE (département de l’énergie) à l’Oak Ridge National
Laboratory (ORNL) dans le Tennessee aux États-Unis. Summit a atteint l’exas-
cale dans un cas très particulier et avec une précision réduite à 16 bits.

12.1.4 Ordinateur Jean Zay


L’année 2019 a été pour l’IDRIS une année de transition principalement consa-
crée à la préparation du renouvellement à venir de ses supercalculateurs.
La collaboration entre l’IDRIS et GENCI, et pour la première fois des spécia-
listes de l’Intelligence Artificielle, en vue du remplacement des anciennes confi-
gurations de calcul Ada et Turing, a commencé dès le début de l’année 2017. Elle
a abouti en 2019 à l’acquisition du premier supercalculateur hybride accéléré
installé en Europe, de la compagnie. Hewlett-Packard Entreprise (HPE), C’est
une combinaison de technologies Intel CSL et Nvidia GPU reliés par un réseau
très haut débit OPA. Il occupe une surface au sol de 150 m2, pèse 43 tonnes
et approche les 2 MWh de consommation électrique. Ce supercalculateur de
nouvelle génération, baptisé Jean Zay avait dans sa première configuration une
puissance de crête de 16 Pflops. Deux opportunités, une donation de Facebook
et l’anticipation de l’extension de la machine initialement prévue en 2021 ou
2022 et destinée à préserver son homogénéité, ont porté maintenant ses carac-
téristiques à 28,2 Pflops. Cette machine est aussi la première du parc GENCI
à offrir un premier niveau de stockage haut débit de 2,5 Po à plus de 0,5 To/s
basé sur des mémoires flash et non des disques rotatifs.
Il est le premier supercalculateur français convergé entre calcul intensif et
Intelligence Artificielle, issu du plan national #AIforHumanity. Les nouveaux
accélérateurs de type GPU optimisent le traitement des calculs intensifs et four-
nissent plus de 82 % de la puissance de calcul. Côté stockage de données, Jean
Zay bénéficie d’une organisation hiérarchique sur plusieurs niveaux qui lui per-
mettent de soutenir une charge très importante d’accès aux données avec des
débits proches de 0,5 To par seconde. Jean Zay est aussi un champion de l’effica-
cité énergétique grâce à sa technologie de refroidissement à eau tiède de dernière
294 De l’IBM 360/75 au superordinateur Jean Zay

génération, dont les calories sont récupérées pour chauffer le bâtiment CNRS de
l’IDRIS et potentiellement 1000 logements.
L’architecture de Jean Zay préfigure celles des machines exaflopiques
(capables de faire 1 milliard de milliards d’opérations) à venir. À ce titre,
Jean Zay est une plate-forme idéale pour développer les applications massive-
ment parallèles et accélérées de demain, où un seul chercheur accède à tout ou
partie du supercalculateur pour résoudre à l’échelle de la machine un problème
scientifique donné ou exécuter un ensemble de travaux indépendants (simula-
tions d’ensemble, études d’incertitudes et d’optimisation…) ou couplés (simu-
lations multi-physiques). Les caractéristiques techniques détaillées ci-dessous
(figure 135) en font une architecture particulièrement bien équilibrée et aussi
bien adaptée aux problématiques du HPC qu’à celles de l’IA :
− 86 344 cœurs de calcul Intel Cascade Lake cadencés à 2,5 GHz ;
− 1 292 GPU NVIDIA V100 avec 32 Go de mémoire HBM2 (phase 1) ;
− 1 404 GPU NVIDIA V100 avec 16 Go de mémoire HBM2 (extension) ;
− 427 To de mémoire totale,
− un réseau d’interconnexion Intel Omni-Path à 100 Gb/s avec une topo-
logie de type Enhanced-Hypercube 8D ;
− un système de stockage de premier niveau en technologie Full Flash de 2,2
Po, accessible avec une bande passante supérieure à 500 Go/s ;
− un système de stockage capacitif de second niveau en technologie disques
rotatifs de 35 Po de volumétrie accessible avec une bande passante supé-
rieure à 150 Go/s.

Figure 135 – Caractéristiques techniques du Jean Zay

Les trois centres nationaux sont alors équipés de supercalculateurs comme le


montre la figure 136.
Période 2013-2021 295

Supercalculateur Occigen Supercalculateur Jean Zay Supercalculateur Joliot-Curie


CINES IDRIS TGCC

Figure 136 – Les machines du GENCI dans les trois centres nationaux

12 .2 Organisation administrative
L’ensemble PRACE-GENCI est un franc succès, même s’ils sont imparfaits. On
croule un peu sous le nombre des comités, commissions, groupes de travail, ate-
liers, mais au moins on n’y discute plus de ticket modérateur, ni de l’intérêt de
l’informatique. Un jeune chercheur ne peut imaginer la nature des luttes de ses
aînés d’il y a trente ans pour la survie des centres de calcul.

Figure 137 – Missions de GENCI-PRACE


296 De l’IBM 360/75 au superordinateur Jean Zay

Jusqu’à maintenant, les trois missions de GENCI-PRACE : calcul intensif,


participation des centres régionaux et présence à l’international, sont identiques
sous des noms à peine différents de ceux employés dans le premier schéma direc-
teur CNRS-Enseignement supérieur où il était question de calcul intensif dans
les grands centres, de centres universitaires, et d’un réseau efficace reliant le
tout. Mais il pourrait y avoir des changements dans une décennie ou plus avec
les nouvelles technologies.
Des changements sont intervenus aussi dans l’organisation interne du centre.
La réorganisation des services commencée sous la direction de P. Salzedo et qui
a continué depuis s’est affirmée. Maintenant, sept groupes participent au service
aux utilisateurs. Il y a cinquante ans, en France des chercheurs en informatique
travaillaient à réinventer la roue. Maintenant, avec les ingénieurs de haut niveau
des centres de calcul, ils travaillent avec les constructeurs à mettre au point les
machines les plus puissantes du moment ou celles qui vont le devenir.

12.2.1 MICADO
La Mission-Calcul Données (MICADO) du CNRS 203, a été créée le 2 mars 2015.
Elle est présidée par Denis Veynante. Son comité de pilotage est constitué par le
Comité d’Orientation pour le Calcul Intensif (COCIN). Elle doit 204 :
− assurer la définition et la mise en œuvre d’une politique globale et cohé-
rente du CNRS pour tout ce qui concerne le calcul haute performance,
les grilles, le « cloud » et les infrastructures de données massives dès que
le coût en investissement et/ou en fonctionnement, y compris les charges
salariales, est significatif. En conséquence, la mission a la charge de tous
les projets d’investissement du CNRS (sur budget opéré par le CNRS, que
ce soit en subvention d’État ou en ressources propres) dans ce domaine, y
compris les projets d’infrastructures immobilières ou de travaux immobi-
liers « conséquents » associés ;
− piloter les ressources humaines et financières affectés aux centres de calcul,
grilles, laboratoires dédiés tels que IDRIS, CC-IN2P3 (hors missions spéci-
fiques IN2P3), France-Grilles, Maison de la simulation, LCG, etc. en parte-
nariat avec les instituts de rattachement de ces unités. La mission présidera
le conseil d’administration de l’IDRIS et participera à celui du CC-IN2P3 ;
− veiller à la cohérence de la politique du CNRS dans le domaine défini précé-
demment avec les « objets » de niveau national ou international. Il est aussi
l’un des représentants du CNRS aux conseils d’administration de GENCI,
de RENATER, du CINES et au comité de pilotage d’INFRANUM ;
− aider les directeurs scientifiques référents à construire, avec nos parte-
naires, une stratégie conjointe en matière de calcul haute performance et
de grandes masses de données. Cette stratégie s’appuiera en particulier
sur les mésocentres et les centres de compétences mutualisés dans lesquels
le CNRS s’investit ou décidera de s’investir.

203 http://www.cocin.cnrs.fr/
204 http://www.cocin.cnrs.fr/spip.php?rubrique31
Période 2013-2021 297

12.2.2 Identification des services gestion des ressources


En charge de mettre à disposition des moyens de calcul et de traitement de don-
nées massives performants, GENCI a pour mission, au niveau national et euro-
péen, de favoriser l’usage du calcul intensif associé à l’Intelligence Artificielle
au bénéfice des communautés de recherche académique et industrielle. Un tout
nouveau livret d’information des services et ressources GENCI dans les centres
nationaux est à la disposition des utilisateurs 205.
En voici le sommaire :

Les ressources sont toujours attribuées sur des critères scientifiques, mais
pour plus d’efficacité une petite partie du temps l’est avec plus de souplesse
pour tenir compte momentanément de contraintes matérielles ou logicielles, en
particulier au moment de changement de machine.
Deux fois par an, sous la coordination du GENCI, un appel à propositions
commun à l’ensemble des centres nationaux (CINES, IDRIS et TGCC) est orga-
nisé pour une allocation d’heures valable un an. Les demandes de ressources 206
se font par le formulaire DARI 207 (Demande d’Attribution de Ressources
Informatiques) pour l’ensemble des centres. Le circuit des demandes d’allocation
est schématisé dans la figure 138 ci-après.

205 https://www.genci.fr/sites/default/files/Livret-information-Genci.pdf, mis en ligne


en juin 2021.
206 https://www.edari.fr
207 http://www.idris.fr/docs/formulaires.html
298 De l’IBM 360/75 au superordinateur Jean Zay

Figure 138 – Cheminement d’une demande d’allocation d’heures

Les demandes sont examinées du point de vue scientifique par des comités thé-
matiques. Puis, un comité d’évaluation se réunit pour statuer sur les demandes
de ressources et indiquer au comité d’attribution, placé sous la responsabilité de
GENCI, les propositions d’affectation des heures de calculs sur les trois centres
nationaux. Entre ces deux appels à projets, la direction de l’IDRIS étudie les
demandes spécifiques (dites « Au fil de l’eau ») et effectue des attributions
limitées pour éviter le blocage de projets en cours. Afin de pouvoir évaluer et
améliorer les performances de leurs codes sur la machine, les nouveaux projets
disposent d’une procédure appelée « Accès préparatoire » permettant de béné-
ficier de facilités. En une séance ont allouées :
− 50 000 heures cœurs sur la partition CPU de Jean Zay ;
− 1000 heures GPU sur la partition GPU de Jean Zay.
Depuis avril 2010, PRACE a organisé 20 appels à projets qui ont permis
d’offrir plus de 23 milliards d’heures à 734 projets européens.
Ci-après, la liste des comités thématiques associés à chaque secteur :
− Environnement ;
− Écoulements non réactifs ;
− Écoulements réactifs et/ou multiphasiques ;
− Biologie et santé ;
− Astronomie et géophysique ;
− Physique théorique et physique des plasmas ;
− Informatique, algorithmique et mathématiques ;
− Dynamique moléculaire appliquée à la biologie ;
Période 2013-2021 299

− Chimie quantique et modélisation ;


− Physique, chimie et propriétés des matériaux ;
− Intelligence Artificielle et applications transversales du calcul.

12.2.3 Benchmark et cas d’usages


D’après une étude Glassdoor, le métier de Data scientist est aujourd’hui le
métier n° 1 au monde. Il est également devenu l’un des plus rares. La preuve :
avec plus de 90 % des données mondiales créées ces deux dernières années, le
nombre de Data labs et de projets Data a littéralement explosé dernièrement.
Amplifié par un besoin d’innovation fort des entreprises, un « Time-to-Market »
accéléré et une pénurie de ressources, ce phénomène ne fait que s’accroître…
et pas uniquement dans le bon sens. Seulement 30 % des projets réussissent
à franchir l’étape de l’industrialisation à grande échelle ! Data labs et projets
Data s’imposent incontestablement comme des accélérateurs de transformations
digitales, mais plus de six projets sur dix resteront au stade de prototypes, pire
seront abandonnés.

12.3 L’Intelligence Artificielle


Les publications, livres et articles dans la presse ou sur le Net traitant de l’Intel-
ligence Artificielle sont extrêmement nombreux, 3000 en dix ans, dont 80 % ces
quatre dernières années. Les annonces sur les réseaux sociaux se multiplient. Des
histoires de l’IA commencent à paraître. Récemment, une découverte dans des
fouilles, fait reculer les débuts de l’informatique à 23 000 ans, aux Sumériens,
en l’assimilant à ceux du calcul 208. Qu’en sera-t-il pour celle de l’Intelligence
Artificielle ? Il est utile avant d’étudier de l’Intelligence Artificielle à l’IDRIS,
de placer le concept d’IA dans un cadre plus large. Bien que dans les rapports
d’activité de l’IDRIS, dès l’installation du Turing, une grande place soit faite à
la préparation des outils pour l’Intelligence Artificielle nous nous bornerons à
suivre l’explosion de l’intérêt pour l’IA à partir du moment où elle est devenue
officiellement un enjeu pour l’État.
Plusieurs définitions de l’IA reflètent l’usage qu’en fait son auteur. Un
guide 209 pour l’utilisation de l’IA à grande échelle dans l’entreprise la définit
ainsi :
« Cette expression qui a déjà fêté ses soixante ans, mais qu’on croirait tout
juste née… l’Intelligence Artificielle, c’est la capacité que l’on donne à une
machine (un robot, un ordinateur) de réaliser des tâches intellectuelles com-
plexes qui étaient jusque-là réalisées par l’Homme. »

208 https://www.techno-science.net/definition/6170.html
209 Vekia-Guide : Les 5 pré-requis pour la réussite de l’IA à grande échelle.
300 De l’IBM 360/75 au superordinateur Jean Zay

12.3.1 Rapport Cédric Villani


Une mission a été confiée le 3 septembre 2017, par le Premier ministre Édouard
Philippe à Cédric Villani, brillant mathématicien, lauréat de la médaille Fields :
Donner un sens à l’Intelligence Artificielle : pour une stratégie nationale et
européenne. Il la définit lui-même : Donner un sens, c’est-à-dire donner un cap,
une signification et des explications. Le rapport a été remis le 8 mars 2018 210. Il
insiste dès la première ligne sur la difficulté d’une définition :
« L’Intelligence Artificielle désigne en effet moins un champ de recherches
bien défini qu’un programme fondé autour d’un objectif ambitieux : com-
prendre comment fonctionne la cognition humaine et la reproduire, créer des
processus cognitifs comparables à ceux de l’être humain. »
Le rapport est divisé en six parties :
− partie 1 : Une politique économique articulée autour de la donnée ;
− partie 2 : Pour une recherche agile et diffusante ;
− partie 3 : Anticiper et maîtriser les impacts sur le travail et l’emploi ;
− partie 4 : L’intelligence au service d’une économie plus écologique ;
− partie 5 : Quelle éthique de l’IA ?
− partie 6 : Pour une Intelligence Artificielle inclusive et diverse.
Il pointe cinq focus sectoriels : transformer l’éducation, la santé à l’heure
de l’IA, faire de la France un leader de l’agriculture augmentée, une politique,
d’innovation et de rupture dans le secteur du transport au niveau européen, l’IA
au service de la défense et de la sécurité, avec respectivement, cinq secteurs :
éducation, santé, innovation, défense, sécurité ayant chacun plusieurs axes de
recherche.
Pour chacune des six parties, C. Villani prévoit toutes les questions que se
poseront les scientifiques et le grand public, et il indique les réflexions à mener
pour y répondre. Il s’inquiète de la place de la France dans cette révolution. Il va
jusqu’à écrire dans son introduction :
« Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure
de colonies numériques 211. »
C. Villani a consulté un grand nombre de personnes en France et à l’étranger
avant d’écrire son rapport. Son contenu a été connu dès sa remise. Lui-même
l’a rendu public le 28 mars. Il a inspiré directement le discours que le président
de la République, Emmanuel Macron a fait le 29 mars 2018 au Collège de
France. À cette occasion il a annoncé un plan de soutien à la recherche de plus
d’un milliard d’euros et la création d’un comité de pilotage pour l’Intelligence
Artificielle au plan national. La première réunion de ce comité, présidé par
deux ministres, s’est tenue à Toulouse en novembre 2018. L’état financera la

210
https://www.vie-publique.fr/sites/default/files/rapport/pdf/184000159.pdf
Cette expression traduite de l’anglais « cyber colonisation » employée par Catherine
211

Morin Desailly est faite au nom de la Commission européenne en 2013.


Période 2013-2021 301

recherche en Intelligence Artificielle à hauteur de 655 millions sur un total de


1,5 milliard 212 pour le plan dans son ensemble.
C. Villani a fait une véritable croisade pour défendre son idée devant des
enseignants, des médecins, des entrepreneurs, des financiers, des lycéens, etc. Il
a toujours insisté sur deux points cruciaux, l’engagement de l’état et la nécessité
d’avoir une puissance de calcul suffisante dans un centre dédié. Le gouverne-
ment l’a chargé de plusieurs autres missions, dont l’une sur l’enseignement des
mathématiques :
« Jean-Michel Blanquer a confié une mission sur les mathématiques 213 à une
équipe menée par Cédric Villani, député de l’Essonne, et Charles Torossian,
inspecteur général de l’Éducation nationale. Le rapport sur l’enseignement
des mathématiques en France a été remis au ministre de l’Éducation natio-
nale le lundi 12 février 2018. »

12.3.2 L’apprentissage profond avec Yann Le Cun


C. Villani, en tant que mathématicien, s’intéressait, à côté de la théorie de l’IA,
à son impact sur la société. Yann Le Cun, titulaire du prix Turing, l’équivalent
du prix Nobel pour l’informatique a une autre approche 214. Pour lui, c’est en
essayant de construire une machine intelligente qu’on apprend ce qu’est l’IA 215.
Il pose dès 1987 216, quand il débarque aux États-Unis en tant que « post doc »,
les premiers jalons de l’apprentissage profond, le « deep learning ». Il n’était
question que de reconnaissance vocale et de détection de fraudes sur les cartes de
crédit « car il n’y avait pas beaucoup de données pour entraîner les machines » et
les ordinateurs n’étaient pas assez rapides. De plus les logiciels, pour ce type de
problèmes, sont difficiles à écrire. Il a fallu attendre 2012 et l’arrivée des cartes
graphiques GPU pour les données soient assez nombreuses et la vitesse de calcul
suffisante 217. Yann Le Cun a écrit plus de 200 articles et documents, à la fois
pour expliquer comme l’IA bouleversait notre quotidien et en même temps la
démystifier. Il explique que ce n’est pas parce qu’on a écrit pour un ordinateur
des algorithmes qui lui ont permis d’être champion au jeu de go qu’il est devenu
intelligent. La dernière étape n’est pas encore franchie.
« On n’a pas encore mis au point les techniques de base qui nous per-
mettraient de construire une machine vraiment intelligente. Les dangers
immédiats concernent davantage l’invasion de la vie privée que l’émergence

212 https://www.enseignementsup-recherche.gouv.fr/cid136649/la-strategie-nationale-
de-recherche-en-intelligence-artificielle.html
213 21 mesures pour l’enseignement des mathématiques, https://www.education.gouv.fr/

21-mesures-pour-l-enseignement-des-mathematiques-3242
214 Quand la machine apprend, Yann Le Guen, éditions Odile Jacob.
215 Le Nouvel observateur, n° 2867 du 17/10/2019.
216 https://www.wedemain.fr/inventer/qui-est-yann-lecun-ce-francais-qui-a-decroche-le-

prix-turing-le-nobel-de-l-informatique_a4008-html/
217 https://www.lesechos.fr/tech-medias/intelligence-artificielle/yann-lecun-recoit-le-

prix-turing-cest-une-histoire-pleine-de-rebonds-1004128
302 De l’IBM 360/75 au superordinateur Jean Zay

d’une armée de machines intelligentes qui décideraient de se débarrasser des


humains. Mais ces dangers ne sont pas propres à l’Intelligence Artificielle, ils
ont plutôt à voir avec le Big Data et l’apprentissage automatique de base. »
Il s’attache lui-même et son équipe à écrire un modèle du cerveau avec ses
neurones et ses synapses artificiels. Il rappelle inlassablement que l’IA inter-
vient dans tous les domaines, en particulier qu’elle assiste, avec tous les objets
connectés, qu’elle soigne avec l’aide au diagnostic, en particulier médical, qu’elle
est active en recherches pharmaceutiques, qu’elle compose quand on lui demande
de continuer la Symphonie inachevée, qu’elle traduit, qu’elle conduit avec les
automobiles autonomes, qu’elle compose, qu’elle vend avec l’e-commerce etc.
Dans un de ses articles, Yann Le Cun fait part de ses réflexions sur le temps
que met une idée nouvelle à être acceptée. Il martèle toujours la même idée
(cf. note 215).
« J’ai été un peu surpris du temps que ça a pris pour que ces idées décollent.
Il y a eu une espèce de décennie perdue entre le milieu des années 90 et le
milieu des années 2000 où très peu de gens travaillaient sur la question, et
ça nous a amenés parfois à douter de nous-mêmes.
En fait, beaucoup d’idées ont été maintenues sous pression et quand la
cocotte-minute a explosé, ça a été une révolution dont la rapidité nous a sur-
pris. Les processus de la science ont fonctionné d’une certaine manière, c’est
normal qu’il y ait des résistances aux idées nouvelles. »
La lenteur de la prise de conscience de l’importance d’une idée nouvelle est
développée plusieurs fois dans les chapitres précédents. Le même phénomène se
produit dans des domaines d’activité autres que l’informatique. Le processus
aboutissant à la prise de la décision de la construction du tunnel sous la Manche
en est un bon exemple 218.
Bien entendu, il n’est pas dans nos ambitions, ni nos compétences de
recenser tout ce qui se fait à l’IDRIS, ou ailleurs dans le domaine de l’Intel-
ligence Artificielle. Mais on peut juste remarquer que les définitions qui sont
proposées par C. Villani et Yann Le Gun seront peut-être révisées dans le futur.
Les travaux récents sur le blob 219, cette cellule géante apparue sur Terre il y
a 3,8 milliards d’années, bien avant les végétaux et les animaux et a fortiori
l’homo sapiens, se révèle capable de boire, de manger, de choisir sa nourriture,

218 Note de l’auteure : En 1950, le cours de Georges Connes, professeur de littérature

anglaise, portait sur l’étude de l’année 1929 en Angleterre. Une proposition de construc-
tion d’un tunnel sous la Manche avait été faite. La majorité du département travail-
liste était favorable. Puis, une commission a été nommée. Sir William Bull et le baron
d’Erlinger, champions infatigables de la bonne cause, remuaient ciel et terre. Un ingénieur,
M. Collard, a rédigé les projets techniques avec la construction d’une ligne nouvelle à
traction électrique. Il a même donné des horaires Paris-Londres en 2 h 45. Les partisans
l’étaient sans aucune réserve. Les autres invoquaient de multiples raisons sans fondement
et contradictoires pour le refuser. G. Connes dit qu’il est certain que le bon sens finira par
l’emporter, mais qu’il ne sait pas quand.
219 Le blob, une cellule qui apprend, le journal du CNRS,16 juillet 2020, Reportage

CNRS, vidéo.
Période 2013-2021 303

de se reproduire, de se déplacer, d’apprendre, de trouver le plus court chemin


pour sortir d’un labyrinthe et tout cela et bien d’autres choses, sans cerveau ni
système nerveux. On pense déjà à mettre à profit ces mécanismes quand on les
aura élucidés pour arrêter la prolifération des cellules cancéreuses et améliorer
nos robots. Où nous conduiront les neurosciences et les informaticiens ?

12.3.3 La Chine avec Kai-Fu Lee


Kai-Fu Lee 220 est considéré, entre autres, comme expert dans deux domaines,
l’Intelligence Artificielle et l’histoire la Chine. Pour lui : L’IA sera plus fou-
droyante que l’électricité.
Avec la différence que pour distribuer l’électricité il a fallu établir des lignes
et planter des poteaux alors que pour l’IA les différents réseaux sont tous prêts.
Elle va supprimer de nombreux emplois routiniers. Les investisseurs sont par-
tout dans le mode à prendre des risques, alors que Thomas Edison a dû faire
des emprunts à une banque. La Chine est passée en dix ans du stade de copieur
à celui d’innovateur.
« L’Intelligence Artificielle va provoquer des changements majeurs et rapides
comme aucune autre révolution industrielle ne l’a fait jusqu’ici, ouvrant la
voie à un nouvel ordre mondial bipolaire. »
Et bien sûr, il est certain que la révolution viendra de la Chine. Dans son
livre China, Silicon Valley and the newWorld Order, il distingue l’IA en ligne,
l’IA professionnelle, l’IA avec le deep learning, l’IA perceptive avec la proliféra-
tion des capteurs, l’IA autonome qui donne la capacité de manipuler, de bouger,
comme les robots ou l’appareil qui apprécie la maturité des fraises et avance un
bras articulé pour les cueillir.
Kai-Fu Lee démontre à quel point l’IA va changer nos modes de vie et
transformer l’économie, en privilégiant les individus les plus adaptables et les
plus créatifs. Il propose d’utiliser les ressources financières considérables ainsi
générées afin de soutenir les métiers où l’humain est irremplaçable : l’éducation,
l’artisanat, les services à la personne.

12.3.4 Convergence HPC-IA


Il s’agit à la fois des convergences des architectures et des usages. 221
Le HPC a besoin de l’IA pour traiter les masses de données sortant des grands
instruments scientifiques, pour traiter les résultats des simulations numériques.
L’IA a besoin du HPC pour :
− le passage à l’échelle apprentissage des réseaux de neurones (réseaux plus
complexes, plus de données, plus de classes…) ;

220 https://www.lesechos.fr/tech-medias/intelligence-artificielle/kai-fu-lee-cerveau-
de-lintelligence-artificielle-en-chine-1023047
221 http://orap.irisa.fr/wp-content/uploads/2018/11/5-Orap-F42-GENCI-Stephane-

Requena.pdf
304 De l’IBM 360/75 au superordinateur Jean Zay

− l’automatisation du choix des modèles (AutoML) ;


− l’explicabilité et traçabilité de l’IA (XAI).
En mars 2018, à la suite du rapport de C. Villani, le MESRI a demandé à
GENCI d’intégrer une composante dédiée à l’IA dans le projet de la nouvelle
machine pour l’IDRIS. Il en est résulté l’installation du prototype Ouessant :
− pile 12 nœuds OpenPOWER quadri GPU nVIDIA P100 ;
− logiciel PowerAI sous Docker.
L’IDRIS a participé dès sa mise en service à un projet de grande envergure
sur la reconnaissance de la flore mondiale. Les performances ont été très bonnes
sur un nœud, mais un problème est survenu pour le passage à l’échelle avec
plusieurs nœuds.
L’installation du prototype a été un succès dès le début. On a vu précédemment
que l’arrivée d’un nouveau supercalculateur dans un des trois centres nationaux
est toujours un événement. Avec sa structure massivement parallèle et ses accéléra-
teurs GPU, le Jean Zay apportait de la puissance à la Très Grande Infrastructure
de Recherche GENCI (TGRIG-GENCI). Les utilisateurs qui faisaient de grosses
simulations dans tous les domaines déjà explorés, chimie, astronomie, astrophy-
sique, pharmacie, médecine, etc. l’attendaient. Mais c’était d’autant plus excitant
que ce n’était pas qu’une augmentation de puissance. Son architecture était en
rupture avec celle de la génération précédente et elle annonçait la génération
future. Ce n’était pas une machine quantique, mais elle pouvait dans certains cas
la simuler. Elle fait du calcul intensif, mais elle peut aussi exécuter des travaux
d’IA222. Comme c’était à son installation la seule en Europe et qu’il n’y en avait
pas beaucoup d’exemplaires dans le monde, son installation a été accompagnée
d’un « contrat de progrès » entre les équipes du centre de calcul et celles de HPE.
Elles ont travaillé ensemble au portage de six applications « phares », représen-
tatives de la diversité des usages, avec l’aide de leurs développeurs. Couronnée de
succès et unanimement saluée, cette idée novatrice servira d’exemple.
Une autre convergence HPC/HPDA s’est établie entre l’IDRIS centre de calcul
intensif et le CC-INN2P3, expert en gestion de données massives, pour le traite-
ment des grands volumes de données.223

12.4 Résultats obtenus


Rappeler les matériels et logiciels mis en place ne suffit pas. L’important est de
savoir ce qui en a été fait. Un an après son inauguration, Jean Zay répond aux
besoins de 1600 chercheurs au travers de plus de 600 projets de recherche issus de
la communauté de la simulation numérique et de l’Intelligence Artificielle. Ce n’est
pas notre sujet d’en faire une analyse. Notre but n’est pas de les présenter tous,
mais simplement à travers quelques exemples de montrer comment le centre s’est
adapté avec les outils commercialisés, pour répondre aux besoins d’une commu-
nauté scientifique qui explosent. Ils seront divisés en trois parties : un rappel très

222 http://orap.irisa.fr/wp-content/uploads/2018/11/5-Orap-F42-GENCI-Stephane-
Requena.pdf
223 https://jcad2019.sciencesconf.org/data/JCAD_Toulouse_2019MDayde.pdf
Période 2013-2021 305

succinct de ce qu’on appelle l’Intelligence Artificielle, une présentation très réduite


de ce qu’on en attend dans les différentes disciplines, et enfin deux exemples
propres à l’IDRIS, la réponse au Grand challenge Jean Zay 2020 et la participation
du centre à la lutte contre la Covid-19.
Les domaines d’applications théoriquement envisagés pour l’ordinateur quan-
tique sont prometteurs, parce que la machine learning et plus spécifiquement
le deep learning se prêtent parfaitement au côté probabiliste de l’informatique
quantique.
On attend des progrès dans :
− les prévisions plus exactes de la météo ;
− l’apparition d’une IA forte ayant conscience d’elle-même ;
− la génomique ;
− la maîtrise de la matière.

12.4.1 Enjeu de programmation


L’installation et la mise en service du supercalculateur Jean Zay ont été réa-
lisées avec le soutien de GENCI par les équipes de l’IDRIS et de HPE. Elles
ont démontré leur savoir-faire dans la mise en œuvre dans les délais prévus
d’une grande infrastructure de calcul. Et c’était capital. La collaboration étroite
entre les équipes de chercheurs et des spécialistes informaticiens de haut niveau
permet bien souvent d’optimiser la mise au point des logiciels de simulation et
de régler les problèmes de mise en production du supercalculateur. Ainsi sont
réalisées des simulations numériques qui poussent aux limites non seulement
les capacités de la machine mais aussi les logiciels de simulation eux-mêmes et
l’ensemble de l’environnement informatique pour en exploiter les résultats. Elles
sont ainsi essentielles pour franchir les changements d’échelle, aussi bien appli-
catifs que scientifiques, rendus possibles par les avancées technologiques dans le
domaine du calcul intensif et de l’Intelligence Artificielle. La présence pendant
cette période de rodage, des équipes du centre de calcul (spécialistes systèmes et
applicatifs), de GENCI et des experts du constructeur informatique, mobilisés
pour résoudre les difficultés éventuelles de démarrage de la machine, est la clé
du succès. Le CNRS a d’ailleurs bien reconnu l’excellence du travail accompli
puisque, dans son ensemble, l’équipe a reçu la distinction du Cristal d’or.
Un exemple de cette collaboration est donné par Philippe Wautelet 224.
Ingénieur, responsable du support applicatif des machines massivement
parallèles de l’IDRIS, il est un exemple type de l’ingénieur de haut niveau qui
fait un travail de chercheur dans un secteur de pointe, mais dont les sujets de
recherche lui sont dictés par sa fonction. Il les détaille dans une interview donnée
au CNRS, publié en juin 2014 dans une lettre de l’IDRIS 225. En voici un extrait.
« Par le biais des difficultés remontées par nos utilisateurs, je me suis
donc intéressé à l’IA. J’ai d’abord travaillé sur le portage et l’optimisation
des applications sur nos systèmes. Je me suis également impliqué sur la

224 Philippe Wautelet a reçu en 2014 le Cristal du CNRS.


225 IDRIS. Interview de Philippe Wautelet, La lettre de l’IDRIS n° 4, juin 2014.
306 De l’IBM 360/75 au superordinateur Jean Zay

programmation hybride et sur la problématique des entrées-sorties parallèles,


essentielles dans la gestion des grandes masses de données (Big Data). J’ai
également développé un outil (libhpcidris) de mesure de performances et de
l’utilisation de la mémoire sur Blue Gene/P, également disponible à présent
sur notre Blue Gene/Q.
J’ai également réalisé des tests de performance sur les systèmes d’entrées/
sorties de différentes machines européennes et en particulier sur les machines
prototypes PRACE pour l’exascale. »

12.4.2 Biologie et bio-informatique


L’Institut Français de Bio-informatique (IFB) est issu d’une proposition du
réseau national des plates-formes (PG) de bio-informatique (ReNaBi) en
réponse à l’appel à projets « Infrastructures Nationales Biologie et Santé » du
programme « Investissements d’Avenir ».
La bio-informatique, dans une conception large, est définie comme l’ensemble
des méthodes informatique permettant de gérer et d’analyser les données pro-
duites par les sciences du vivant. Cependant, il faut noter qu’historiquement la
communauté bio-informatique s’est développée à partir de l’analyse des données
de séquences (d’ADN, d’ARN et de protéines), de leurs structures et de leurs
interactions et n’inclut pas l’analyse des images qui constituent aussi des don-
nées biologiques très importantes.
Une caractéristique essentielle des analyses bio-informatiques est qu’elles
sont, le plus souvent, facilement distribuables. Si on dispose de N processeurs,
il suffit de découper les produits en N lots qui seront exécutés indépendamment
sans que les processeurs aient besoin de communiquer entre eux. Une grande
majorité des traitements bio-informatiques ne nécessite donc pas l’utilisation des
machines HPC des grands centres de calcul ou les processeurs coopèrent grâce à
de coûteuses liaisons large bande passante et faible latence telle qu’InfiniBand.
Le CNRS, IBM, l’INRIA, l’Institut français de bio-informatique et la start-up
innovante SysFera déploient E-Biothon, une plateforme expérimentale mise à la
disposition des chercheurs en bio-informatique pour accélérer et faire progresser
la recherche en biologie, santé et environnement. Cette plateforme, hébergée à
l’IDRIS, est constituée d’une partie de l’ancienne configuration Blue Gene/P et
est accessible au travers d’un portail applicatif dédié.

12.4.3 Climat
Le climat est étroitement lié à la météorologie et pour les différencier on peut
dire de façon schématique que la météorologie est l’étude déterministe du temps
qu’il fait, avec le détail de sa chronologie, alors que le climat est l’étude des
caractéristiques statistiques du temps qu’il a fait ou qu’il pourrait faire. Le
climat comporte plusieurs particularités, certaines étant communes avec la
météorologie, d’autres étant spécifiques : on ne peut en isoler une sous-partie,
on ne peut pas faire d’expériences contrôlées, c’est un système chaotique ou de
Période 2013-2021 307

nombreux phénomènes interagissent avec des échelles caractéristiques tempo-


relles et spatiales qui varient continûment sur plusieurs ordres de grandeurs, etc.
La modélisation numérique permet d’aborder ces différentes difficultés et joue
un rôle central dans l’étude du climat, l’interprétation et la mise en cohérence
de nombreux résultats aussi bien théoriques qu’issus d’observations.
Le développement des modèles climatiques est intimement lié à celui des
ordinateurs. Dans les années 50, John Von Neumann et ses collègues ont conçu
le premier modèle numérique de météorologie sur le premier calculateur pro-
grammable existant. Quelques années plus tard, Norman Philips et son équipe
ont réalisé une simulation de l’atmosphère Nord sur une période de 31 jours, qui
peut être considérée comme la première simulation « climatique ».
Les modèles numériques de climat sont en premier lieu des modèles de circu-
lation générale (MCG) de l’atmosphère et de l’océan : ils sont basés sur les équa-
tions de la mécanique des fluides (équations de Navier-Stokes) qui expriment la
conservation de masse, de la quantité de mouvement et de l’énergie pour un fluide.
Les résultats montrent que ce raffinement de maillage permet de réduire
d’importants biais des modèles, mais pas tous. En effet, on est encore très loin
d’avoir des maillages assez fins pour résoudre toutes les échelles. Il faudra encore
attendre probablement des dizaines d’années pour que de telles simulations
soient possibles sur de longues périodes. Ainsi, il demeurera nécessaire pendant
encore longtemps de modéliser ces phénomènes sous-mailles (c’est-à-dire non
explicitement résolus) et de les coupler au noyau dynamique. Cette modélisation
doit tout d’abord représenter la turbulence tridimensionnelle et les écoulements
dont les dimensions caractéristiques sont inférieures à celles de la maille. Pour
l’atmosphère, cette modélisation doit également prendre en compte la condensa-
tion de la vapeur d’eau en gouttelettes d’eau et de glace, leur organisation sous
forme de nuages, la formation de précipitations éventuelles, etc. Ces phénomènes
jouent un rôle clé pour les études climatiques et les prévisions météorologiques.
Le développement de cette modélisation repose beaucoup sur des résultats de
modèles numériques à très haute résolution mais ne couvrant qu’une surface très
limitée de la Terre. Ce sont par exemple les simulations :
− des grands tourbillons Large Eddy Simulation, (LES) avec un maillage de
la dizaine de mètres ou les modèles d’orages ;
− du Cloud Resolving Models (CRM) avec un maillage de la centaine de
mètres ou du kilomètre qui peut résoudre des circulations méso-échelles
associées aux nuages convectifs ;
− de la simulation numérique directe, Data Numerical Simulation (DNS)
qui ne permet de couvrir que des échelles très limitées.
Jusqu’à peu, les échelles numériques de ces trois familles de modèles, GCM,
CRM et LES, étaient disjointes. Grâce à l’accroissement des puissances de
calcul, les configurations d’étude de ces modèles commencent à se recouvrir, ce
qui facilite l’utilisation de modèles à très haute résolution pour développer la
modélisation des phénomènes sous-mailles des modèles à résolution plus faible.
Les simulations sont de plus en plus nombreuses et plus longues et plus
proches des observations. Le développement des modèles climatiques nécessite
des moyens importants aussi bien informatiques qu’humains, des collaborations
très fortes sont nécessaires entre les développeurs.
308 De l’IBM 360/75 au superordinateur Jean Zay

12.4.4 Étude de l’écoulement des fluides


Elle intervient dans beaucoup de domaines qui vont de l’aéronautique à la méde-
cine. On peut citer :
− analyse de performance pour la simulation de la propagation d’ondes en
milieu hétérogène en sismique ;
− simulation aux grandes échelles et validation pour les écoulements dans
les compresseurs aéronautiques ;
− application de faisceaux laser ultra-court dans un plasma ;
− effets hydrodynamiques sur l’agrégation d’amyloïde : l’agrégation de pro-
téines amyloïdes solubles mal repliées en fibrilles insolubles bien organi-
sées est la marque de plusieurs maladies neuro-dégénératives telles que les
maladies d’Alzheimer, de Parkinson et de Huntington.
Dans le 8e plan cadre européen, dit Horizon 2020, la commission européenne
a organisé la structuration de son soutien au calcul de haute performance et
au traitement des grandes masses de données autour de trois piliers : un pilier
technologique, avec le projet ETP4HPC qui regroupe aujourd’hui 72 organi-
sations, un pilier infrastructure avec l’infrastructure et les projets PRACE
auxquels l’IDRIS participe depuis leur origine en 2008 et un nouveau pilier
scientifique constitué de centres d’excellence qui regroupent chacun un ensemble
de partenaires.
Huit projets ont été sélectionnés dans ce cadre en 2015, couvrant des domaines
scientifiques majeurs, comme les énergies renouvelables, la conception de nou-
veaux matériaux, la chimie atomique et moléculaire, le changement climatique
et les outils informatiques pour accroître les performances des applications HPC.
Sur ces huit projets, l’IDRIS a été impliqué dans deux d’entre eux, renforçant
ainsi son engagement européen : EoCoE (Energy oriented training ans consul-
tancy in simulation and modelling) qui réunit 22 partenaires dans huit pays
sous le pilotage de la Maison de la simulation et E-CAM (An e-infrastructure
for software training and consultancy in simulationand modelling), qui réunit 17
partenaires choisis dans 12 pays autour de l’organisation du CECAM (Centre
Européen pour le Calcul Atomique et Moléculaire) dans le domaine de la phy-
sico-chimie des matériaux.

12.4.5 Chaîne d’approvisionnement


Les PME sont invitées à réorganiser leur chaîne d’approvisionnement 226 qui
doit devenir intelligente. C’est la cheville ouvrière de leur activité. Elle doit être
guidée par l’Intelligence Artificielle logistique qui aide à gérer les ruptures et
accélère la croissance.

226https://www.lenovo.com/fr/fr/smarter/smart-supply-chain-solutions?utm_source=−
Google&utm_medium=Search&utm_campaign=MasterBrand_Supply_Chain_Theme
&cid=fr:sem:4cva69&gclid=CjwKCAjwyIKJBhBPEiwAu7zll9kea_TXcN6A2-voe2y_
4g46jaghY9v-Znb6KzWRKU8mGaUWU3rm-hoC6TMQAvD_Bw
Période 2013-2021 309

12.4.6 Grands challenges 2020


Une période particulière de trois mois, dite Grands challenges 2020 dédiée au
démarrage, aux tests et à la mise au point d’une architecture complexe, a été
réservée à quelques utilisateurs, acceptant par principe les aléas de conditions
opérationnelles pas totalement stabilisées, en contrepartie d’une occasion unique
d’accéder à des ressources de calculs pouvant aller jusqu’à l’intégralité du super-
calculateur, pour la réalisation de simulations ou de traitements exceptionnels.

Figure 139 – Projets pour les Challenges 2020

Après un appel à candidatures lancé par GENCI auprès des différents comités
thématiques représentant les disciplines utilisatrices, 30 Grands challenges (18 en
310 De l’IBM 360/75 au superordinateur Jean Zay

simulation numérique et 12 en Intelligence Artificielle) ont donc été retenus et


ont partagé le supercalculateur principalement entre juillet et octobre 2019. Côté
recherche académique, la majorité des domaines utilisateurs étaient représentés.
L’ensemble des sujets retenus se classaient dans les 9 thèmes des comités théma-
tiques227 (figure 139).
À l’issue de cette phase, la machine Jean Zay a été ouverte à tous les utilisa-
teurs le 1er novembre 2019. Son extension, opérationnelle depuis l’automne 2020,
constitue elle-même l’opportunité de nouveaux Grands challenges.
Les résultats sont publiés dans une brochure du CNRS intitulée Grands
challenges 2020, Jean Zay 228 de GENCI-CNRS.
Cet apport de la simulation numérique et de l’Intelligence Artificielle à la
recherche ouverte, induit une activité stratégique au service de la compétitivité
scientifique et économique. Il est combiné à l’utilisation, pour la première fois
dans le parc de machines de GENCI, d’une machine massivement accélérée.
C’est une nouvelle étape du déploiement d’une offre combinée calcul intensif/
traitement de données massives appuyée sur les deux centres de calcul d’enver-
gure nationale du CNRS, IDRIS et CC-IN2P3. Elle est à destination des grandes
infrastructures de recherche, une communauté encore absente des utilisateurs
des ressources offertes par GENCI. Nul doute que cette action donnera lieu à
des nouveaux projets toujours plus passionnants.

12.4.7 Recherches sur la Covid-19


En charge de mettre à disposition des moyens de calcul et de traitement de don-
nées massives performants, GENCI a pour mission, au niveau national et euro-
péen, de favoriser l’usage du calcul intensif associé à l’Intelligence Artificielle
au bénéfice des communautés de recherche académique et industrielle. Dans le
cadre des efforts de recherche menés au niveau national pour endiguer l’épidémie
de Covid-19, il met à disposition des chercheurs académiques et industriels fran-
çais ses moyens de calcul et de stockage pour leurs travaux de modélisation/
simulation, traitement de données et usage de l’Intelligence Artificielle 229. Ils y
étaient invités par des annonces comme celle-ci :
« Si vous êtes un chercheur intéressé par l’utilisation immédiate des ressources
de GENCI situées dans les trois centres nationaux de calcul (TGCC pour le
CEA, IDRIS pour le CNRS et CINES pour les universités) mais aussi par
l’accompagnement de vos équipes de support. Demandez un accès prioritaire. »
Cela s’applique notamment à la recherche au niveau moléculaire pour com-
prendre les mécanismes utilisés par le virus à développer des vaccins et des
thérapies, à la recherche épidémiologique pour comprendre et prévoir la pro-
pagation de la maladie, et à d’autres approches connexes visant à comprendre

227 http://www.idris.fr/media/jean-zay/grands-challenges/grands-challenges-idris-2020.pdf
228 http://www.idris.fr/media/jean-zay/grands-challenges/grands-challenges-idris-2020.pdf
229 https://www.genci.fr/sites/default/files/RA2011-Genci-VF-opt2_0.pdf - RacE pre-

miers pas
Période 2013-2021 311

et à stopper la pandémie. L’annexe 42 donne quelques exemples des travaux sur


le sujet, effectués dans les trois centres nationaux français et des temps alloués.
L’optimisation d’outils d’analyse de données d’imagerie médicale des poumons
grâce à des technologies d’Intelligence Artificielle, pilotée par Émilie Chouzenoux
au sein de l’équipe-projet OPIS (Optimisation, Imagerie et Santé) du centre de
recherche INRIA Saclay-Île-de-France et de CentraleSupélec-université Paris-Saclay.
Depuis le début de la pandémie de Covid-19, cette équipe a travaillé au dévelop-
pement de plusieurs outils mettant en œuvre des techniques avancées de deep lear-
ning pour l’aide au pronostic de patients atteints de la Covid-19. Citons l’outil
AI-Severity (projet ScanCovIA, partenariat Institut Gustave Roussy, Kremlin-
Bicêtre, Owkin), visant à anticiper, dès la première visite, si un patient développera
une forme légère ou sévère de l’infection, et l’outil MASC-Net (partenariat avec
University Politehnica of Bucharest), permettant aux médecins de localiser fine-
ment et automatiquement les lésions pulmonaires dans les scanners thoraciques des
patients Covid-19. L’équipe souhaite maintenant tirer parti des ressources de calcul
du serveur AMD pour améliorer les performances de MASC-Net en intégrant des
nouvelles bases de données mises récemment à disposition du public académique.
Dans ce cas, PRACE a été particulièrement actif pour coordonner les recherches
au niveau de l’Europe. Il signale230 : Several other European actors are opening up
their facilities for urgent/priority access to the HPC systems and other resources
to support the research to combat the coronavirus.
La carte d’Europe qu’il publie pour montrer les liaisons entre les centres de
recherches travaillant sur la Covid-19 est impressionnante.

Figure 140 – Centres de recherche européens travaillant sur la Covid-19. Crédit : Shutterstock/
Inna Bigun

230 https://prace-ri.eu/hpaccess/hpcvsvirus
312 De l’IBM 360/75 au superordinateur Jean Zay

12.5 La sécurité
La sécurité a été sérieusement pensée par les constructeurs et les développeurs
des systèmes d’exploitation qui ont su l’intégrer pleinement dans leurs cahiers
des charges et définir des modèles innovants aussi bien d’un point de vue maté-
riel que logiciel. L’introduction de la mémoire flash complexifie l’extraction
des données en mémoire car, contrairement au cas des disques durs, de solides
compétences en électroniques sont requises ainsi que du matériel spécialisé.
Du point de vue l’architecture logicielle, les noyaux robustes du monde UNIX
et les concepts de virtualisation ont su être judicieusement réutilisés pour
mettre en œuvre le principe du cloisonnement des applications. Ces précau-
tions s’accompagnent d’autres mesures de sécurité comme la gestion fine des
privilèges accordés aux applications ou la signature numérique des applica-
tions installées.
La communauté des chercheurs en IA, n’était pas habituée aux pratiques
des utilisateurs traditionnels du calcul intensif, ni aux contraintes d’accès d’un
centre national. GENCI, a dû faire évoluer les modes d’accès aux ressources,
dans le respect de règles de sécurité indispensables, étant donnés la valeur et
le caractère stratégique des matériels mis à disposition. Il a fallu aller vers plus
de flexibilité et de souplesse, ce dont profitent aussi tous les autres utilisateurs.
Parallèlement, l’IDRIS a mis en place un environnement logiciel adapté et un
support dédié de très haut niveau.

12.6 Le calcul et l’ordinateur quantique


La documentation qui se veut sérieuse sur le calcul et l’ordinateur quantique
est extrêmement volumineuse. Elle va d’un livre sur l’informatique quantique en
60 minutes 231 (on vous prévient quand même qu’il vaut mieux avoir quelques
notions, ce n’est pas l’informatique pour les nuls), au cours de master dans
nombre d’universités en France et à l’étranger. Depuis trois ans, une très vaste
documentation : comprendre l’informatique quantique est disponible sur Internet
et mise à jour annuellement 232. Tous les journaux scientifiques, et même la
grande presse essaient de ne pas manquer une nouveauté. Afin de pouvoir éli-
miner de ce déluge de déclarations tout ce qui n’est que fantasme, il faut rap-
peler quelques notions basiques du calcul quantique. Le CEA 233 le fait très bien
dans un article qui vient d’être publié en mai 2021.
Dans l’informatique classique, l’information est portée par des bits qui
peuvent prendre la valeur 0 ou 1. Ils sont stockés dans des cases mémoires
groupées en registre. Le qubit peut être dans les deux états à la fois. Comme
c’est le cas avec le chat de Schrödinger, qui dans sa cage peut être ou mort ou

231 Informatique quantique, Franck Franchini, Amazon Italia, Logistica.


232 Comprendre l’informatique quantique, 3e édition, Olivier Ezratty.
233 https://www.cea.fr/comprendre/Pages/nouvelles-technologies/essentiel-sur-ordina-

teur-quantique.aspx
Période 2013-2021 313

vivant. On ne le saura qu’en ouvrant la cage. Grâce aux principes de super-


position et d’intrication, un registre de N qubits est à un instant donné dans
une superposition de 2 N états. Un registre de N bits ne se trouve que dans
N d’entre elles. Toute opération appliquée à un registre de N qubits s’effectue
donc en parallèle sur les 2N états. On peut dire aussi que l’ordinateur quan-
tique double sa puissance à chaque qubit ajouté. Avec 10 qubits la puissance
est multipliée par 210 soit 1024. Mais l’état du registre est très fragile. Il est
détruit après un temps très court dit de décohérence. Une partie des pro-
blèmes techniques peut être levée dans une certaine mesure, par la simulation
d’un ordinateur quantique sur un ordinateur classique massivement parallèle.
Les possibilités sont tellement prometteuses que les associations public-privé
fleurissent, pour être les premières à sortir un appareil programmable et com-
mercialisable. Pour le moment, il y a quatre sortes de qubits à l’étude. Trois
fonctionnent à très basse température : le qubit supraconducteur, le qubit
silicium, le qubit à ions piégés. Le quatrième le qubit photonique travaille à la
température ambiante.
Les recherches se font à l’échelle mondiale 234. La théorie du contrôle optimal 235
fait appel à l’IA, et ceci depuis très longtemps. Elle consiste à rechercher une
solution sous la forme mathématique d’un problème d’optimisation qu’on peut
résoudre numériquement. Les trajectoires ainsi calculées en 1960 pour les mon-
tées en altitude des avions de chasse sont contraires à l’intuition. La même
technique a été utilisée plus tard pour trouver la trajectoire utilisant le moins
de carburant possible dans la mission Apollo.
En France, Emmanuel Macron a annoncé en janvier le plan quantique fran-
çais, dont le programme et l’équipement sont pilotés par le CEA, le CNRS et
l’INRIA. L’IDRIS avec sa machine massivement parallèle acquiert une bonne
expérience.

12.6.1 Offre en 2019


L’ENS française Umanis a fait un benchmark sur les offres d’Intelligence
Artificielle tirant partie de l’informatique quantique le 12 septembre 2019 236.
À cette date, D-Wave était le seul à disposer d’une solution d’IA quantique
industrialisable. Mais c’était sous la forme d’un supercalculateur à installer et
pas d’un service cloud managé utilisable.

234 https://lejournal.cnrs.fr/dossiers/dans-les-coulisses-de-la-nouvelle-revolution-quan-
tique
235 https://lejournal.cnrs.fr/articles/les-promesses-du-controle-quantique
236 https://www.journaldunet.com/solutions/dsi/1444084-matrice-umanis-de-l-ia-quan-

tique-d-wave-ibm-et-rigetti-en-tete/
314 De l’IBM 360/75 au superordinateur Jean Zay

Points forts des offres d’IA quantique analysées (2019)

Acteurs Maturité Momentum


(critères analysés : hardware, (critères analysés : potentiel,
software, intégration) communauté, investissements)

D-Wave Propose des solutions industrielles Concurrence de Fujitsu sur le


concrètes. Ne peut pas traiter même créneau (même si la solu-
tous les problèmes (se limite à tion de Fujitsu n’est pas purement
l’optimisation et la prédiction). quantique)
Alliances avec des éditeurs de Problèmes de scalabilité à moyen
logiciels quantiques terme et donc de concurrence par
rapport aux autres acteurs

Google Depuis quelques années, collabo- Suprématie quantique en


ration avec Rigetti & Intel. approche avec le processeur
Est en train de créer ses propres Bristlecone (de 72 qubits)
chipsets

IBM Offre industrielle proche de Momentum important de la


la quantique utilisable par la part de la communauté. Outils
communauté et plateforme parmi les plus
pratiques et commercialisables.
Processeurs et présence d’une
interface graphique. Gros investis-
sements dans la recherche

Intel En retard sur d’autres technolo- En recherche de co’alliances avec


gies. Fort investissement essentiel- les acteurs du cloud
lement côté hardware

IonQ Vient du monde universitaire et Amazon parmi les investisseurs


est orienté hardware plutôt que
software

Microsoft Travaux débutés en 2005 (Station Bonne implémentation pour toute


Q). Pas de communication sur la la communauté Microsoft et open
partie hardware qui est plus pro- source. Simulateurs pratiques à
metteuse que les autres (stabilité). l’utilisation
A suivre de près

Nokia Laboratoire de recherche hérité Faible momentum et peu de


des Bell Labs. Partie hardware communications pour l’instant, à
essentiellement suivre

Rigetti Bonne maturité des outils de Bon momentum de part un


Computing développement. Préparent d’une bagage scientifique important, la
solution full-stack roadmap et les alliances

Xanadu Petite échelle pour l’instant mais Bon momentum côté machine
souhaite concurrencer les grands learning (avec les composants
acteurs StrawberryFields, Pennsylvanie)

Figure 141 – Points forts des offres d’IA quantiques en 2019


Période 2013-2021 315

12.6.2 Quelle est la situation en septembre 2021 ?


La compétition est féroce entre d’anciens constructeurs et ceux qui émergent.
Tous les fabricants de cartes graphiques et de processeurs ne sont pas en reste Ils
ont tous une section développement-recherche très en avance sur leurs produits
disponibles en magasin. Le processeur AMD a le vent en poupe 237.
Robert Freyman avait imaginé au début des années 1980 le principe d’un cal-
culateur quantique. Ce concept devient réalité. Tristan Meunier, du laboratoire
Néel de Grenoble constate 238 :
« Nous vivons actuellement une époque charnière où les industriels, comme
Google ou IBM, s’emparent du sujet qui était resté jusqu’ici l’apanage des
laboratoires de recherche et cela promet de nous faire passer des caps tech-
nologiques majeurs. »
L’année dernière, c’était Google qui arrivait en tête avec son Sycamore,
2,8 fois plus puissant que le Hummingbird d’IBM, il n’y avait pas d’offres d’or-
dinateurs quantiques clés en main avec système d’exploitation. Mais la situation
change de jour en jour. Des exemples pris chez trois constructeurs donnent une
petite idée de cette lutte pour la suprématie. Elle porte sur la nature du qubit,
le nombre de qubits, leur stabilité (temps de décohérence) et sur les problèmes
de refroidissement, donc le taux d’erreur
« L’idée des codes correcteurs a été une petite révolution dans le domaine.
Avec elle, même les plus pessimistes ont commencé à croire en la possibilité
d’un ordinateur quantique », confie Sébastien Tanzilli.
Le problème de la correction des erreurs limite le nombre de qubits utili-
sables et par conséquent la puissance 239. Dans leur principe les codes correcteurs
sont simples. Mais ils sont très gourmands, ce qui limite leur emploi. Avec 1000
ou 10 000 qubits physiques, on code un seul qubit logique utilisable pour le
calcul. Ainsi un ordinateur de 1000 qubits logiques comporte au moins 1 million
de qubits physiques.
Les problèmes de réfrigération sont cruciaux 240.

237 https://blog.materiel.net/amd-sur-tous-les-fronts/#more
238 https://www.techno-science.net/actualite/ordinateur-promesses-aube-quantique-
N18376.html
239 https://lejournal.cnrs.fr/articles/ordinateur-les-promesses-de-laube-quantique
240 https://usbeketrica.com/fr/article/comment-ordinateur-quantique-pourrait-transfor-

mer-notre-monde
316 De l’IBM 360/75 au superordinateur Jean Zay

Figure 142 – Unité de refroidissement – Réfrigérateur à dilution de l’ordinateur quantique


à circuits supraconducteurs construit par IBM. Reprint Courtesy of IBM Corporation ©

12.6.3 IBM
IBM 241 est bien décidé à tenir sa place dans le peloton de tête des géants
de l’informatique quantique. Son premier microprocesseur quantique, le Falcon
traitant 27 qubits en 2019 s’est vu adjoindre en 2020 le Hummingbird qui mon-
tait jusqu’à 65 qubits. Les prévisions fort ambitieuses tablent sur un proces-
seur à 127 qubits dans l’année, puis 433 qubits en 2022. Il espère dépasser les
1123 qubits d’ici 2023 avec le IBM Condor. Ce serait une vraie révolution.
IBM a déjà de multiples quantum systèmes avec les 27 qubits Falcon proces-
seurs aussi bien que des systèmes avec les 65 qubits Hummingbird processeurs,
accessibles aux membres de l’IBM quantum network. En attendant, IBM vient
d’inaugurer son premier ordinateur quantique sur territoire européen. Plus pré-
cisément dans ses Data centers d’Ehningen, près de Stuttgart, le « Q System
One » de 27 qubits. Il est basé sur le Falcon. Pour soutenir l’énergie délivrée
par un tel processeur, IBM a déjà pensé et construit un système de refroidis-
sement de trois mètres de haut. Sur le long terme, le constructeur imagine des
processeurs contenant des millions de qubits, tous reliés à d’immenses systèmes
de refroidissement pour permettre une puissance capable de changer le monde.
C’est de la science-fiction car il faudrait que les logiciels puissent les utiliser.
« Le Q system one est d’ores et déjà à la disposition des entreprises, start-up,
instituts de recherche et universités. Il s’agit d’un tournant dont l’économie,
l’industrie et la société allemandes tireront un grand profit. Les ordinateurs
quantiques promettent de résoudre des catégories entièrement nouvelles de
problèmes qui sont hors de portée des ordinateurs conventionnels les plus
puissants d’aujourd’hui », a déclaré le CEO d’IBM Arvind Krishna.

241https://www.ictjournal.ch/news/2021-06-16/ibm-lance-le-plus-puissant-des-ordina-
teurs-quantiques-deurope
Période 2013-2021 317

12.6.4 Microsoft
Microsoft avait misé sur le fermion Majorana ndlr plus stable, permettant d’aug-
menter le nombre de qubits. L’annonce 242 au début de l’année incluait des outils
de développement. Un article était paru dans Nature. Mais des difficultés sont
survenues et le projet a été arrêté momentanément.

12.6.5 Honeywell
Un nouvel acteur de poids 243 émerge dans le domaine de l’informatique quan-
tique. Le groupe industriel Honeywell et la start-up Cambridge Quantum
Computing ont créé une joint-venture dont le nom reste à déterminer. Objectif
annoncé : proposer le portefeuille de technologies et de solutions d’informatique
quantique le plus complet du secteur.
Cambridge Quantum est l’un des leaders mondiaux en matière de logiciels et
d’algorithmes quantiques.
L’équipe pluridisciplinaire d’Honeywell se consacrant à l’informatique quan-
tique (160 personnes) va rejoindre la joint-venture, qui comptera au total
quelque 300 collaborateurs. Le CEO d’Honeywell, Darius Adamczyk, sera le
président de la nouvelle société, qui sera dirigée par le CEO de Cambridge
Quantum Ilyas Khan. Honeywell investira entre 270 et 300 millions de dollars
dans la nouvelle société et disposera d’un accord à long terme pour participer à
la fabrication des pièges à ions critiques nécessaires à l’alimentation du matériel
quantique. Reuters précise que Cambridge Quantum détiendra le reste avec ses
investisseurs, dont fait partie IBM, l’un des acteurs clés de l’informatique quan-
tique. Cambridge Quantum continuera à collaborer avec Big Blue ainsi qu’avec
d’autres fabricants du secteur, a précisé à Reuters le CEO Ilyas Khan.

12.6.6 Le Sycamore de Google


Les équipes de Google viennent de démontrer que, sous certaines conditions,
la correction des erreurs fonctionne sur le processeur quantique Sycamore de
l’entreprise et peut même évoluer de manière exponentielle. De quoi mener à
une nouvelle étape vers la construction d’un ordinateur quantique tolérant aux
pannes. Cette avancée est susceptible d’attirer l’attention des scientifiques tra-
vaillant sur la correction d’erreurs quantiques, un domaine qui ne s’intéresse pas
au nombre de qubits mais plutôt à leur qualité.
Si l’augmentation du nombre de qubits pris en charge par les ordinateurs
quantiques est souvent présentée comme le facteur clé permettant de débloquer
la puissance de calcul sans précédent des technologies quantiques, il est tout
aussi important de s’assurer que ces qubits se comportent de manière à obtenir
des résultats fiables et sans erreur. C’est l’idée qui sous-tend le concept d’un

242https://experiences.microsoft.fr/articles/quantique/informatique-quantique-pari-fou
243https://www.ictjournal.ch/news/2020-03-05/honeywell-affirme-avoir-cree-le-plus-puis-
sant-des-ordinateurs-quantiques
318 De l’IBM 360/75 au superordinateur Jean Zay

ordinateur quantique tolérant aux pannes, mais la correction d’erreurs quan-


tiques n’en est encore qu’à ses débuts.
Pour l’instant, les scientifiques s’efforcent toujours de contrôler et de mani-
puler les quelques qubits dont ils disposent, en raison de la nature extrêmement
instable de ces particules, ce qui signifie que les calculs quantiques sont encore
truffés d’erreurs. Selon Google, la plupart des applications nécessiteraient des
taux d’erreur aussi bas que 10-15, en comparaison, les plateformes quantiques de
pointe ont actuellement des taux d’erreur moyens proches de 10-3.

12.6.7 La Chine bat le record de Google Sycamore


En juin 2021, Pan Jianwei 244 de l’université de Hefei en Chine annonce un
record : l’ordinateur Zuchongzhi n’a pris que 72 minutes pour résoudre un pro-
blème alors qu’il aurait fallu en moyenne huit ans sur un supercalculateur de
haute volée.
C’est dans cette même université que sera construit le premier ordinateur
à puces photoniques qui, dans certains cas, permettent des gains de vitesse de
plusieurs ordres de grandeur, et ceci à températures ambiantes.

244Lebigdata.fr, « Informatique quantique : la Chine bat le record de Google Sycamore ».


https://www.lebigdata.fr/informatique-quantique-chine-depasse-google
Chapitre 13
Épilogue

Toute l’histoire écrite dans les chapitres précédents est celle d’un centre de
calcul français créé il y a cinquante ans, phénomène très limité dans le temps,
dans l’espace, et finalement par le nombre de personnes directement impliquées.
Elle a permis de faire la liste des matériels installés de plus en plus rapides, des
logiciels de plus en plus sophistiqués et performants, et plus important des pro-
blèmes scientifiques de plus en plus ardus qu’ils ont permis d’aborder. L’occasion
était donnée de rendre hommage à l’équipe technique dont la continuité et le
travail ont permis la réussite de l’entreprise. Mais elle a surtout mis en évidence
plusieurs phénomènes sociétaux dont certains sociologues commencent à faire
des objets d’études. Ils sont de plusieurs ordres. Le plus évident est qu’à côté
de l’histoire des réalisations, il existe une histoire parallèle relatant les diffi-
cultés de tous ordres qui ont abouti à des choix et des compromis. Un autre est
que l’acceptation d’une proposition novatrice prend toujours du temps. Il y a
une phase de rejet pour de fausses raisons techniques, puis de reconnaissance
du principe accompagnée de multiples objections plus rationnelles mais sans
rapport avec l’objet. Suit une prise de conscience de l’intérêt du projet, accom-
pagnée de l’appropriation de l’idée de départ avec un enthousiasme tout nou-
veau pour mettre en œuvre des solutions. On parle beaucoup pour le moment
de prise de conscience dans tous les domaines. Dans celui de l’informatique,
c’était vrai jusqu’à l’arrivée de l’informatique photonique, mais c’est peut-être
en train de changer. Enfin, cette histoire a souligné la nécessité première de
rester vigilant à toutes les découvertes et idées nouvelles qui se font chaque jour
autour de nous. Il n’y a pas si longtemps, quand une expérience avait été faite
à l’étranger, il fallait attendre une publication pour la connaître. Maintenant,
avec les nouveaux moyens de communication, la planète entière peut être mise
au courant instantanément. Alors le danger vient d’être noyé sous les informa-
tions. Heureusement, nous sommes assistés par des instances qui font le tri pour
nous. Dans notre cas, un site du GENCI informe journellement de ce qui s’est
découvert depuis la veille, avec en plus des historiques mensuels. 245

245 http://www.prace-ri.eu/2021/
320 De l’IBM 360/75 au superordinateur Jean Zay

Mais le phénomène est plus subtil. Nous suivons au jour le jour l’installation
de machines toujours plus puissantes dans le monde, au Pakistan, en Slovénie
ou ailleurs. Elles se multiplient. Nous nous rassurons en voyant le réseau de tous
les ordinateurs qui travaillent à des recherches sur la Covid-19. Nous sommes
admiratifs des moyens déployés. Il existe depuis toujours une histoire parallèle
du développement de l’informatique, non pas à l’échelle d’un petit centre de
calcul, mais à l’échelle mondiale. Avec une énorme différence : la temporalité a
changé. L’histoire parallèle est connue au moment où elle se crée et on pourrait
parler d’histoire hybride comme on parle d’ordinateurs hybrides.
Nous nous heurtons aux limites de notre conception classique des ordinateurs
conventionnels. Une première révolution a eu lieu avec l’arrivée des ordinateurs
quantiques à puces électroniques, mais ils avaient encore des limites. Cependant
ils ont permis la démonstration de l’avantage quantique pour certains types de
programmes. Mais il y a encore beaucoup de difficultés à vaincre pour passer à
un usage courant et à l’industrialisation. Le problème de l’échauffement pour les
grandes puissances n’est pas résolu, encore moins pour les ordinateurs classiques
quantiques que pour les conventionnels. Le Jean Zay chauffe déjà tous les labo-
ratoires du plateau de Paris-Saclay.
Le 3 décembre 2020, une publication a stupéfié le monde informatique, celle
de la parution dans le très sérieux journal Science d’un article d’une équipe
chinoise de l’université Science & Technology of China de Hefei 246. Sous la direc-
tion de Chao-Yang Lu, elle a démontré l’avantage quantique, le fameux quantum
advantage, en résolvant le problème de l’échantillonnage du boson gaussien,
problème de combinatoire, sur un ordinateur à puces photoniques, le Jiuzhang,
en 200 secondes au lieu de 2,5 billions d’années qu’aurait duré le calcul sur leur
ordinateur conventionnel le plus puissant le SunwayThahuligh (classé quatrième
au TOP500) (figure 143).
L’idée de cette possibilité avait été émise en 2011 par S. Auromson et
A. Arkhipov 247, mais la réalisation constitue une prouesse dans un temps si
court. La photo qui suit a fait le tour du monde et depuis quelques mois illustre
beaucoup de publications sur le sujet.
Radio Canada a donné l’information le 4 décembre 248. La nouvelle a été
immédiatement reprise par toute la presse académique, dont Nature qui titre :
Light on Quatum Advantage 249 et Integrated Avalanche Photodetectors for
Visible Light 250 et par des journaux industriels 251. Chacun essaie de faire une
vulgarisation compréhensible, mais suffisamment exacte pour frapper les esprits.

246 Noms des membres de l’équipe : Han-Sen Zhong, Hui Wang, Yu-Hao Deng, Ming-
Cheng Chen, Li-Chao Peng, Yi-Han Luo, Jian Qin, Dian Wu, Xing Ding, Yi Hu, Peng
Hu, Xiao-Yan Yang, Wei-Jun Zhang, Hao Li, Yuxuan Li, Xiao Jiang, Lin Gan, Guangwen
Yang, Lixing You, Zhen Wang, Li Li, Nai-Le Liu, Chao-Yang Lu, Jian-Wei Pan.
247 S. Aaronson & A. Arkhipov In Proc. 43rd Annual Symposium on Theory of Computing,

333-342 (ACM, 2011).


248 https://ici.radio-canada.ca/nouvelle/1754684/scientifique-chine-etats-unis-quantique
249 https://www.nature.com/articles/s41563-021-00953-0
250 www.nature.com/articles/s41467-021-22046-x
251 https://www.zdnet.fr/actualites/suprematie-quantique-chinoise-avec-un-ordinateur-

quantique-a-emission-de-lumiere-39914415.htm
Épilogue 321

Figure 143 – Jiuzhang à l’université de Hefei. © AFP

Dès le lundi 7 décembre, les actualités du journal DZNET insistent sur l’im-
portance de la réalisation de l’échantillon de boson gaussien qui est peut-être un
véritable tournant dans le monde de l’informatique. La nouveauté, et elle est de
taille, c’est que les photons ont remplacé des particules de métal et qu’il n’y a
plus besoin de réfrigération extrême. Dans son article, Delphine Leprince-Ringuet
prévient que la valeur de l’expérience réside plutôt dans la preuve que les ordina-
teurs quantiques basés sur la lumière pourraient être aussi prometteurs que leurs
homologues basés sur la matière. Le 8 décembre, c’est au tour du site Micronews
de titrer : Photon based quantum computer does a calculation that ordinary com-
puters might never be able to do. En Chine, la nouvelle est annoncée dans deux
émissions en ligne du Quotidien du Peuple les 7 et 21 décembre 2020252. Elle
précise que le prototype d’ordinateur quantique chinois Jiuzhang est leader mon-
dial en matière de capacités de calcul. Il a exécuté en 200 secondes un travail qui
aurait pris 600 millions d’années sur l’ordinateur le plus puissant du monde.253
Aussitôt, une avalanche d’articles est apparue dans les milieux académiques
et industriels pour discuter les résultats. Les deux champions, Google avec son
Sycamore et IBM avec Humingbird avaient déjà démontré l’avantage quan-
tique, dans une moindre proportion, mais qu’ils prétendaient pouvoir améliorer.
L’expérience chinoise était une deuxième vérification obtenue cette fois avec des
puces photoniques. Les discussions résident sur la portée de cet exploit. Très
modestement, l’équipe chinoise explique qu’ils ont démontré l’avantage avec un
superordinateur construit pour résoudre certains problèmes.
Quels sont les développements prévus et en cours ?
Depuis plusieurs années, on connaissait la course à l’exascale avec les ordi-
nateurs traditionnels et le fameux classement au TOP500. Puis il y eu une pre-
mière évolution quantique avec des qubits intégrés dans des puces électroniques
par Google et IBM. Les découvertes s’accélèrent. La course à la puce photonique
est maintenant lancée. Des possibilités énormes de gains l’accompagnent 254.

252 http://www.focac.org/fra/zjfz_2/dcfz/t1838379.htm
253 Le Fugatu japonais.
254 Zong, H.-S. et al., Science https://doi.org/10.1126/science.abe8770(2020)

http://www.focac.org/fra/zjfz_2/dcfz/t1841485.htm
https://www.bcv.ch/pointsforts/Marches/2021/L-informatique-photonique-quantique-
un-saut-de-puce-gigantesque
322 De l’IBM 360/75 au superordinateur Jean Zay

D’après un article du GENCI sur les marchés du 23 mars 2021 intitulé


« L’informatique photonique quantique, un saut de puce gigantesque » :
« Le Royaume-Uni finance la recherche dans l’informatique quantique depuis
2013 et les États-Unis depuis 2015. Le Canada y a investi plus d’un milliard
de dollars, et la Chine aurait déjà dépensé plus de 10 milliards de dollars.
En 2018, l’Union européenne a débloqué un milliard d’euros pour stimuler
la recherche dans les technologies quantiques. En début d’année, la France a
annoncé l’investissement de 1,8 milliard d’euros sur cinq ans pour stimuler
la recherche et le développement de l’informatique quantique 255. »
Avec cette dernière annonce, le président Emmanuel Macron a affirmé pen-
dant sa visite à l’université Paris-Saclay le 21 janvier 2021 qu’il veut positionner
la France aux côtés des États-Unis et de la Chine. Il avait déjà mis en place en
2018 un plan d’investissement de 1,3 milliard d’euros pour le développement de
l’Intelligence Artificielle.
Les industriels ne sont plus suiveurs, mais participent à la recherche fondamen-
tale et industrielle. Des start-ups européennes sont présentes dans la course. Comme
une start-up vaudoise, Light Generating Technology (LGT) liée à l’École Fédérale
Polytechnique de Lausanne (EPFL). Elle a créé une puce quantique photonique
qui a été développée par la firme canadienne Xanadu qui faisait déjà partie des
18 entreprises recensées en 2018 travaillant sur l’Intelligence Artificielle quantique.
Aussi une start-up francilienne Quandela, fondée en 2017 (https://quandela.com/)
qui vient en 2020 de créer un émetteur de photons uniques, essentiel pour lutter
contre les photons perdus, et en vendra cette année entre 5 et 10 pour un chiffre
d’affaires de près d’un million d’euros. Elle poursuit son ascension ; le 5 janvier
2022, ses succès techniques sont unanimement salués dans la presse :
https://www.actuia.com/actualite/levee-de-fonds-de-15-millions-deuros-pour-
le-premier-ordinateur-quantique-de-quandela/
https://www.frenchweb.fr/quandela-leve-15-millions-deuros-pour-proposer-
un-premier-ordinateur-quantique-photonique-en-2022/430136
Elle perfectionne son processeur Prometheus, première brique de son ordina-
teur quantique, avançant à la fois dans la recherche en fondamental, technique
et commercial. Un article sur son avance photon par photon, vient de paraître
le 9 février 2022 : Ref. : https://www.industrie-techno.com/article/calcul-quan-
tique-le-francais-quandela-avance-photon-a-photon.63723. Un autre se penche
sur l’évolution d’un chercheur qui, au sein de cette société, devient entrepreneur :
Ref. : https://www.bpifrance.fr/nos-actualites/quandela-valerian-giesz-de-cher-
cheur-a-entrepreneur. Quandela réussit le défi à la fois d’avoir des idées et de les
réaliser dans un domaine hautement compétitif.
Les créateurs de Jiuzhang annoncent eux aussi qu’ils poursuivent son per-
fectionnement. Et travaillent maintenant à Jiuzhang 2.0. Ils espèrent que leurs
recherches vont en stimuler beaucoup d’autres dans les deux domaines électro-
nique et photonique. Et là leurs souhaits ont été pleinement exaucés. On trouve
peu de publications sur l’ordinateur chinois photonique, mais une foule sur l’or-
dinateur quantique à puces électroniques copiant celles du Sycamore de Google.

255https://www.usinenouvelle.com/editorial/pour-son-ordinateur-quantique-quandela-
mise-sur-les-photons-uniques.N1095889
Épilogue 323

C’est moins novateur et surtout les constructeurs espèrent rentabiliser tout leur
travail précédent sur les ordinateurs conventionnels. IBM fait dans ce sens un
effort particulier et dit renaître de ses cendres. Une chercheuse française du CNRS
travaillant en France et aux États-Unis, Eleni Diamanti,256 a fait avec d’autres
chercheurs une démonstration expérimentale du quantum advantage à l’aide d’un
système expérimental photonique, combiné avec un algorithme interactif com-
plexe qui permet de résoudre un certain type de problèmes mathématiques avec
des informations limitées.
Ces dernières lignes avaient été écrites en juin 2021. Mais le paysage a évolué
encore plus vite qu’on ne l’avait anticipé. Le 28 octobre, la Chine257 annonce à la
fois que Jiuhzang 2 a réalisé en 1 milliseconde ce qui aurait pris 30 billions d’années
sur un ordinateur classique et que Zuchongzhi 2 avec ses 66 qubits est 10 millions
de fois plus rapide que le Sycamore de Google. La Chine a donc maintenant la
suprématie aussi bien dans le domaine quantique supraconducteur qui fonctionne
à température proche du zéro absolu que dans le domaine quantique photonique
qui travaille à la température ambiante. Toute la presse s’en fait l’écho.
Des superordinateurs photoniques ont vu le jour et ils se développeront à
l’avenir. Mais reste le problème du Big Data et des Data centres qui se multi-
plient et sont d’énormes consommateurs d’énergie parce qu’il faut les refroidir.
Une technique révolutionnaire, a été proposée en novembre 2020 : stocker les
données sur l’ADN. Toutes les données du monde tiendraient dans la main258.
Le 30 novembre 2021 à 18 h 30, Alice Vitard publie dans L’Usine digitale un
article : « Grâce à l’IA, l’Institut Curie veut prédire l’efficacité des traitements
contre le cancer du sein ». Pouvoir prédire s’il y aura récidive ou pas, si les trai-
tements seront efficaces ou pas, serait un progrès immense.
Combien d’heures de calcul seront-elles nécessaires pour les études à venir sur
le comportement du blob ?
Le site GENCI 259 donne les informations parues en 2021 :
y le 16 novembre sur le nouvel ordinateur Adastra qui sera installé au CINES ;
y le 17 novembre sur :
− une nouvelle participation dédiée à l’IA pour le supercalculateur
Jean Zay, particulièrement intéressante puisqu’elle détaille l’upgrade
qui sera fait du Jean Zay en 2022. Le GENCI, l’IDRIS et NVIDIA
annoncent une augmentation massive des ressources du Jean Zay
consacrées à la recherche en Intelligence Artificielle, boostées par les
performances du dernier accélérateur NVIDIA 100.
Figurant déjà parmi les supercalculateurs convergés les plus puissants en
Europe, Jean Zay va voir sa configuration encore évoluer pour atteindre
au début de l’année 2022 un total de plus de 3 152 GPUs, comprenant à
la fois des GPU NVIDIA V100 et des GPU NVIDIA A100 Tensor Core.

256 Une nouvelle démonstration expérimentale de l’avantage quantique, Federico Centrone,


Niraj Kumar, Eleni Diamanti and Iordanis Kerenidis. Nature Communications, le 8 février
2021. DOI : https://www.cnrs.fr/fr/une-nouvelle-demonstration-experimentale-de-lavan-
tage-quantique
257 https://www.lebigdata.fr/chine-ordinateur-quantique-google
258 https://lejournal.cnrs.fr/articles/stockage-de-donnees-la-revolution-sur-adn
259 https://www.genci.fr/fr/articles-categories/actus
324 De l’IBM 360/75 au superordinateur Jean Zay

La puissance des premiers devrait permettre de doubler l’actuelle capa-


cité de calcul dédiée à l’Intelligence Artificielle sur Jean Zay.
Cette extension proposera 52 serveurs HPE Apollo 6 500 Gen 10 com-
portant chacun 8 NVIDIA A100 (un total de 640 Go de mémoire HBM2
par serveur), particulièrement bien adaptés pour les grands modèles de
TAL ou en vision ;
− le rappel des master classes à la FrenchTech Paris Saclay. Elle propose
un programme d’accompagnement pour les PME ;
y le 1er décembre sur :
− HPCQS260, vers un écosystème de supercalculareurs de classe mondiale,
pionnier du calcul hybride quantique fédéré en Europe. Il vise à déve-
lopper, déployer et coordonner une infrastructure européenne fédérée,
en couplant étroitement deux simulateurs quantiques contrôlant chacun
plus de 100 qubits avec des supercalculateurs situés dans deux centres
HPC européens. Il est coordonné par le professeur Kristel Michelsen du
centre de calcul Jülich, l’un des cinq centres participants : « HPCQS
représentera un premier “petit pas” pour les équipes scientifiques euro-
péennes, préparant néanmoins le “pas de géant” attendu dans un futur
proche vers le calcul à performance exceptionnellement haute. Nous
sommes extrêmement heureux de construire cet avenir avec nos parte-
naires européens ». Le projet pilote HPCQS, d’une durée de quatre ans,
offrira un environnement de programmation du simulateur quantique,
basé sur deux développements logiciels européens, le Quantum Learning
Machine (QLM) d’@Atos et le Parastation ModuloTM de @ParTec.
Ensemble, ces technologies permettront l’intégration fine (faible latence)
de simulateurs quantiques dans des systèmes HPC modulaires clas-
siques, une première en son genre.
Cette même information sur HPCQS est accessible sur plusieurs autres sites261.
Comme la puissance d’un ordinateur quantique varie exponentiellement avec
le nombre de qubits, les constructeurs se font une guerre commerciale féroce. En
novembre 2021, toute la presse parle de l’annonce qu’IBM a faite de son processeur
EAGLE de 127 qubits à la conférence Quantum Summit 2021262. Il devance ainsi
le processeur du Sycamore de Google avec ses 53 qubits et celui du Zuchongzhi 2.1
de la Chine qui en a 66. Des logiciels hybrides permettent de simuler un ordina-
teur quantique sur un ordinateur classique pour un nombre de qubits limité qu’on
essaie d’augmenter.
IBM analyse sa politique en informatique quantique263. Il rappelle qu’ils ont été
les premiers à mettre l’informatique quantique sur le cloud en 2016. La dernière

260 https://www.genci.fr/fr/node/1157
261 https://www.ins2i.cnrs.fr/fr/cnrsinfo/hpcqs-vers-un-supercalculateur-quantique-
federe-en-europe
Et https://www.hpcqs.eu/
262 https://www.actuia.com/actualite/ibm-annonce-larrivee-de-son-nouveau-processeur-

quantique-supraconducteur-de-127-qubits-eagle/
263 https://research-ibm-com.translate.goog/interactive/system-one/?_x_tr_sl=en&_

x_tr_tl=fr&_x_tr_hl=fr&_x_tr_pto=sc
Épilogue 325

version de leur Quantum System One est tellement complexe et fragile qu’elle
est encapsulée dans une enceinte scellée et hermétique de 30 sur 30 cm de verre
borosilicaté de 1,5 cm d’épaisseur. Le cryostat du système est composé de deux
cadres indépendants en aluminium et acier. Le premier système pour les essais
mécaniques a été assemblé et testé en Italie. Maintenant ils ont des installations
en Amérique du Nord, en Allemagne et au Japon, avec disent-ils bien d’autres
à venir. Les nouveaux centres de calcul abritent des systèmes accessibles aux
membres d’IBM Quantum Network via l’IBM cloud. Les projets que ces instal-
lations permettront dans tous les domaines concernent toutes les disciplines264.
La France veut rattraper son retard et une partie de la somme de 1,8 milliard
que le président Macron a annoncée pour le secteur ira probablement à deux
startups françaises sous forme de subventions de l’État. Il s’agit de Pasqal qui
développe un ordinateur quantique de 100 qubits avec pour objectif 1000 qubits
pour la fin de 2023 et Quandela qui promet un premier ordinateur quantique
photonique complet en 2022. Avec son générateur de photons uniques intégré,
Prometheus, premier ordinateur quantique, trône dans le showroom de Quandela.

Figure 144 – Le générateur de photons uniques Prometheus intègre des lasers, des filtres,
de l’électronique et un petit cryostat. © Cyril Frésillon / CNRS / Quandela

Dans ce contexte complètement bouleversé, il est difficile d’imaginer les


moyens de calcul qu’auront les utilisateurs dans le futur. Par quoi sera remplacé
le Jean Zay dans quelques années et que deviendra notre organisation en centres
nationaux et mésocentres ?
Espérons que les futurs présidents de la République sauront d’une façon
ou d’une autre préserver une place en Europe au centre d’Orsay ou à ce qui le
remplacera. Cette annonce des progrès flamboyants de Quandela relatés ici le
9 février 2022 clôt ce livre. L’histoire continue.

264https://www.guideinformatique.com/actualites-informatiques/ibm-deploie-le-quan-
tum-system-one-au-japon-1867.html
Table des illustrations

Figure 1 – Salle machine du CIRCÉ en 1975....................................................... 11


Figure 2 – Ordinateur Jean Zay installé au CIRCÉ en 2019................................ 11
Figure 3 – Comparaison des missions du JPL en 1963 et MICADO
en février 2015....................................................................................................... 22
Figure 4 – Équipement du CEA civil jusqu’en 1972............................................ 35
Figure 5 – Tableau d’ensemble des années 1969 à 2020....................................... 51
Figure 6 – Tableau d’ensemble des années 1969 à 1993....................................... 52
Figure 7 – Tableau d’ensemble des années 1993 à 2019....................................... 53
Figure 8 – Tableau des noms des ministres et secrétaires d’État de tutelle......... 55
Figure 9 – Tableau des noms des directeurs généraux du CNRS......................... 56
Figure 10 – Transition des systèmes d’exploitation des superordinateurs
d’Unix vers Linux.................................................................................................. 59
Figure 11 – Stockage sur disque et mémoire de masse......................................... 59
Figure 12 – Mémoires auxiliaires......................................................................... 60
Figure 13 – Liste non exhaustive d’utilisateurs extérieurs pendant la première
quinzaine de juin 1975........................................................................................... 62
Figure 14 – Organigramme du centre de calcul................................................... 63
Figure 15 – Principaux rapports sur l’informatique pour la recherche................. 68
Figure 16 – Liste des tests exécutés par Roy Longbottom................................... 73
Figure 17 – Vitesse de calcul (Rmax) du top des superordinateurs sur 80 ans.... 75
Figure 18 – Évolution de la puissance de calcul des ordinateurs.......................... 76
Figure 19 – Régression des croissances du TOP ordinateurs de 1955 à 1996....... 77
Figure 20 – Extrapolation des courbes de Brenner par la National Navy
à Washington........................................................................................................ 78
Figure 21 – Extrapolation des courbes de croissance de Brenner......................... 79
Figure 22 – Étude du TOP500 de 1990 à 2020.................................................... 81
Figure 23 – Évolution du parc machine du centre de calcul, 1969-2020............... 82
Figure 24 – Chronologie du parc machine de 1969 à 1993................................... 83
Table des illustrations327

Figure 25 – Évolution du parc machine du centre de calcul, 1994-2020............... 84


Figure 26 – Puissances installées au centre de calcul et TOP de 1969 à 2020..... 86
Figure 27 – Comparaison des puissances installées en mégaflops au centre
de calcul et celles du TOP500 de 1969 à 2020....................................................... 87
Figure 28 – Chronologie des installations de 1969 à 1993.................................... 88
Figure 29 – Chronologie des installations de 1993 à 2013.................................... 89
Figure 30 – Courbes de régression des puissances des cinq périodes étudiées...... 91
Figure 31 – Puissances installées et TOP500 et leurs courbes de régression........ 92
Figure 32 – Machines installées de 1969 à 1980................................................... 100
Figure 33 – Régression des puissances de 1969 à 1981......................................... 101
Figure 34 – William Norris, président de Control DATA,
au pupitre du CDC 3600....................................................................................... 105
Figure 35 – Schéma d’ensemble des IBM 360/75 et 360/50................................. 106
Figure 36 – IBM 360/75...................................................................................... 106
Figure 37 – Cheminement des travaux dans l’ensemble 360/50, 360/75
travaillant sous MVT/ASP................................................................................... 107
Figure 38 – Schéma de traitement par lots.......................................................... 108
Figure 39 – Dépôt au dispatching....................................................................... 109
Figure 40 – Terminal 2740................................................................................... 109
Figure 41 – Organigramme du personnel du CIRCÉ pendant la première
décennie................................................................................................................ 111
Figure 42 – L’équipe système au travail.............................................................. 116
Figure 43 – L’ingénieur système Annie Potin...................................................... 117
Figure 44 – Article Magazine Ordinateur, Françoise Perriquet, mai 1983............ 118
Figure 45 – Exemple de calendrier de cours........................................................ 119
Figure 46 – Exemple de sommaire d’Interface..................................................... 120
Figure 47 – Numéro spécial d’Interface sur les bibliothèques.............................. 121
Figure 48 – Évolution du matériel du CIRCÉ..................................................... 123
Figure 49 – Le parc machines du centre de calcul............................................... 124
Figure 50 – Évolution des matériels et systèmes en 1973-1974............................ 124
Figure 51 – Pupitre IBM 370/165....................................................................... 125
Figure 52 – Salle machine CDC et IBM/370....................................................... 125
Figure 53 – Salle TSO......................................................................................... 126
Figure 54 – L’attente devant l’écran IBM 3270, affichage de l’avancement
de la file d’attente des travaux.............................................................................. 126
Figure 55 – Console graphique IBM 2250............................................................ 133
Figure 56 – Listings d’un laboratoire de Sciences humaines................................ 134
Figure 57 – Dépenses en 1979............................................................................. 135
Figure 58 – Financement du remplacement d’un 168 par un 3033....................... 136
Figure 59 – Ventilation des moyens de financement............................................ 136
Figure 60 – Schéma des deux 168 et de leurs auxiliaires...................................... 138
328 De l’IBM 360/75 au superordinateur Jean Zay

Figure 61 – IBM 3330......................................................................................... 139


Figure 62 – IBM 3330......................................................................................... 139
Figure 63 – Janine Connes au milieu des bandes magnétiques............................ 139
Figure 64 – Terminaux parisiens......................................................................... 141
Figure 65 – Terminaux de province..................................................................... 142
Figure 66 – Gene Amdahl................................................................................... 143
Figure 67 – Organigramme du personnel............................................................. 143
Figure 68 – Répartition du personnel dans les groupes de travail....................... 144
Figure 69 – Réunion à la Gaude en 1968............................................................. 145
Figure 70 – Colloque d’ASPEN en 1970.............................................................. 146
Figure 71 – Brochure sur l’informatique outil de recherche au CNRS................. 147
Figure 72 – Tableau chronologique des installations réalisées et de celles
souhaitées et préparées.......................................................................................... 159
Figure 73 – Temps mesurés de mai 70 à mai 71.................................................. 161
Figure 74 – Récapitulation mensuelle des temps pondérés par discipline
de mai 1970 à mai 1971......................................................................................... 162
Figure 75 – Calendrier du changement de matériel............................................. 167
Figure 76 – Barème de notation des configurations proposées............................. 169
Figure 77 – Classement des trois configurations retenues.................................... 169
Figure 78 – Prix de revient du centre de 1971 à 1974.......................................... 174
Figure 79 – Dépenses maximales à prévoir.......................................................... 177
Figure 80 – Éventail des solutions envisagées pour les relations
CIRCÉ 1 et CIRCÉ 2............................................................................................ 184
Figure 81 – Armoire des projets pilotes, dossier Cyclades, 1975.......................... 185
Figure 82 – Cheminement d’un dossier dans les diverses commissions................. 189
Figure 83 – Ensemble des villes reliées et installations des centres
de calcul recensés.................................................................................................. 191
Figure 84 – Une des options du schéma directeur du 23 mai 1978
(exposé de Mme Connat)...................................................................................... 192
Figure 85 – Note manuscrite d’Y. Maillaux du secrétaire de la COMI................ 193
Figure 86 – Machines installées de 1980 à 1989................................................... 202
Figure 87 – Courbes des régressions des puissances de 1981 à 1989.................... 202
Figure 88 – Le fronton du CNUSC...................................................................... 203
Figure 89 – CRAY 1............................................................................................ 208
Figure 90 – Lettre d’intention de proposition d’un nouveau projet..................... 209
Figure 91 – Seymour Cray à une présentation du CRAY 2, 1982........................ 211
Figure 92 – CRAY 2............................................................................................ 213
Figure 93 – Parc des machines 1984-1989............................................................ 214
Figure 94 – Frontalisation du CRAY au CCVR.................................................. 216
Figure 95 – Configuration du DPS8/62............................................................... 218
Figure 96 – IBM 3090......................................................................................... 219
Table des illustrations329

Figure 97 – Caractéristiques des ordinateurs IBM............................................... 220


Figure 98 – IBM 3350......................................................................................... 223
Figure 99 – IBM 3380......................................................................................... 223
Figure 100 – Schéma de la configuration matérielle 1988.................................... 223
Figure 101 – Disponibilité des ordinateurs du CIRCÉ en 1988............................ 224
Figure 102 – Vue du magasin des cartouches....................................................... 225
Figure 103 – Le robot du STORAGETEK.......................................................... 226
Figure 104 – Les baies du STORAGETEK......................................................... 226
Figure 105 – Temps de calcul d’une transformée de Fourier de 1 million
de points............................................................................................................... 230
Figure 106 – Analyseur harmonique de Michelson............................................... 231
Figure 107 – Appareils Nicolet pour FTIR.......................................................... 231
Figure 108 – Appareils pour spectroscopie par Transformée de Fourier
dans l’infrarouge des sociétés Bruker, Hewlett-Packard, Digilab
et Perkin-Elmer..................................................................................................... 232
Figure 109 – État du réseau REUNIR en juillet 1986......................................... 234
Figure 110 – État du réseau du SEU en novembre 1989...................................... 235
Figure 111 – Nettoyage des câbles....................................................................... 237
Figure 112 – Baies après la remise en service...................................................... 238
Figure 113 – Ordinateurs en service entre 1989 et 1992...................................... 241
Figure 114 – Régression des puissances installées et du TOP500
de 1989 à 1992...................................................................................................... 243
Figure 115 – Lettre de François Kourilsky sur l’urgence de l’audit...................... 244
Figure 116 – Topologie de la plateforme réseau CIRCÉ en 1989......................... 248
Figure 117 – Topologie du réseau NSFNET en 1989........................................... 248
Figure 118 – Commandes connues de super-computers en 1989.......................... 253
Figure 119 – Caractéristiques des supercalculateurs installés
à l’IDRIS 1993-2013.............................................................................................. 263
Figure 120 – Machines en service de 1993 à 2013................................................ 264
Figure 121 – Courbes de régression comparées pour la 4e période....................... 264
Figure 122 – Classement dans le TOP500 des ordinateurs français installés........ 265
Figure 123 – Livraison IDRIS CRAY C94........................................................... 267
Figure 124 – Schéma de configuration de l’IDRIS en novembre 1996.................. 269
Figure 125 – Le supercalculateur Jade du CINES............................................... 270
Figure 126 – NEC SX-5....................................................................................... 272
Figure 127 – Schéma des grappes du NEC SX5................................................... 273
Figure 128 – Architecture du cluster DEISA....................................................... 275
Figure 129 – Maison de la simulation (DR)......................................................... 282
Figure 130 – Machines Turing et ADA installées à l’IDRIS................................. 284
Figure 131 – Configuration de la plateforme en 2012.......................................... 289
Figure 132 – Ordinateurs en service entre 2013 et 2021...................................... 290
330 De l’IBM 360/75 au superordinateur Jean Zay

Figure 133 – Liste des mésocentres en 2018......................................................... 291


Figure 134 – Courbes de régression des puissances de 2013 à 2020..................... 292
Figure 135 – Caractéristiques techniques du Jean Zay........................................ 294
Figure 136 – Les machines du GENCI dans les trois centres nationaux.............. 295
Figure 137 – Missions de GENCI-PRACE........................................................... 295
Figure 138 – Cheminement d’une demande d’allocation d’heures........................ 298
Figure 139 – Projets pour les Challenges 2020.................................................... 309
Figure 140 – Centres de recherche européens travaillant sur la Covid-19............ 311
Figure 141 – Points forts des offres d’IA quantiques en 2019.............................. 314
Figure 142 – Unité de refroidissement – Réfrigérateur à dilution de l’ordinateur
quantique à circuits supraconducteurs construit par IBM..................................... 316
Figure 143 – Jiuzhang à l’université de Hefei...................................................... 321
Figure 144 – Le générateur de photons uniques Prometheus intègres des lasers,
des filtres, de l’électronique et un petit cryostat................................................... 325

Vous aimerez peut-être aussi