Académique Documents
Professionnel Documents
Culture Documents
De l’IBM 360/75
au superordinateur Jean Zay
Cinquante ans d’informatique
au centre de calcul du CNRS d’Orsay
Photos de couverture :
Salle machine, 1969 ©CIRCÉ/CNRS
Ordinateur Jean Zay installé au CIRCÉ en 2019 ©Cyril Fresillon/IDRIS/CNRS
Imprimé en France
Remerciements. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
PREMIÈRE PARTIE
Vue générale sur le développement
du centre de calcul d’Orsay 13
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Chapitre 1. Préhistoire du CIRCÉ, de 1954 à 1969 . . . . . . . . . . . . . . 17
1.1 En 1954 apparition en France d’un premier besoin de calcul
intensif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Le centre de calcul du JPL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Participation à l’implantation de la FFT (Fast Fourier Transform). . . 24
1.4 Conseils reçus pour la création d’un centre de calcul de service. . . . . . 26
1.5 Cinquante ans après. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Chapitre 2. La création du CIRCÉ. . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1 Brève récapitulation de l’histoire de l’informatique
de service en France avant 1969. . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2 La scission avec l’Institut Blaise Pascal (IBP)
de la rue du Maroc en 1969. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Réaction du CNRS et de l’Enseignement supérieur. . . . . . . . . . . . . . . 39
2.4 Relations CNRS-Enseignement supérieur. . . . . . . . . . . . . . . . . . . . . . 40
2.5 Comment résoudre ces difficultés. . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Chapitre 3. Vue d’ensemble du centre de calcul du CNRS
de 1969 à 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1 Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Tableau d’ensemble de la vie du centre sur la période 1969-2020. . . . . 50
3.3 Grandes lignes pour la formation des ingénieurs et des utilisateurs. . . . 61
3.4 Grandes lignes des relations à l’international. . . . . . . . . . . . . . . . . . . 63
3.5 Effectifs du personnel et sa formation. . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 Principaux rapports sur l’informatique outil pour la recherche. . . . . . . 68
Chapitre 4. Évolution des puissances installées au centre de calcul
de 1969 à 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1 Plusieurs chronologies en informatique . . . . . . . . . . . . . . . . . . . . . . . 72
4.2 Chronologie et loi de Moore au centre de calcul de 1969 à 2019. . . . . . 81
IV De l’IBM 360/75 au superordinateur Jean Zay
DEUXIÈME PARTIE
Étude détaillée de l’évolution du centre
de calcul d’Orsay de 1969 à 1981 95
Chapitre 5. Période 1969-1972. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.1 Évolution des puissances de 1969 à 1981. . . . . . . . . . . . . . . . . . . . . . 102
5.2 La période de mise en place du centre : 1969-1972. . . . . . . . . . . . . . . 103
5.3 Le système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.4 Service aux utilisateurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.5 Rôle des services d’exploitation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Chapitre 6. Période 1972-1981. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.1 Années 1972-1973. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.2 Années 1974-1975. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.3 Année 1976 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.4 Année 1977 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.5 Années 1978-1979. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.6 Année 1980 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.7 Personnel et formation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.8 Résultats obtenus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Chapitre 7. L’histoire parallèle du centre de 1969 à 1975 . . . . . . . . . . 149
7.1 Avertissement de P. Jacquinot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.2 Vue d’ensemble sur la vie parallèle du centre pendant
la première décennie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.3 Histoire parallèle du centre d’avril 1969 au 25 mars 1970 . . . . . . . . . . 163
7.4 Histoire parallèle du CIRCÉ du 25 mars 1970 au 4 avril 1972. . . . . . . 165
7.5 Histoire parallèle du centre d’avril à décembre 1972. . . . . . . . . . . . . . 173
7.6 Histoire parallèle de 1973 à 1975 . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Chapitre 8. Histoire parallèle de 1976 à 1980. . . . . . . . . . . . . . . . . . . 179
8.1 Le schéma directeur de 1976 pour l’ensemble CNRS-Enseignement
supérieur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
8.2 Nouvelle organisation du contrôle des achats informatiques. . . . . . . . . 187
8.3 Schéma directeur de l’informatique de l’Enseignement supérieur . . . . . 191
8.4 Vie pratique de CIRCÉ 1 pendant cette période. . . . . . . . . . . . . . . . 194
8.5 Mise en place des rémunérations du personnel. . . . . . . . . . . . . . . . . . 197
Chapitre 9. Période 1981-1989. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
9.1 Création du centre de calcul universitaire Paris-Sud. . . . . . . . . . . . . . 203
9.2 Création de la Division Informatique Scientifique (DIS) . . . . . . . . . . . 204
9.3 Arrivée du calcul vectoriel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
9.4 Évolution des matériels installés. . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
9.5 Évolution des services. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
9.6 Vie d’un algorithme et retombées industrielles. . . . . . . . . . . . . . . . . . 229
9.7 Réseau et télétraitement et sa reconnaissance officielle. . . . . . . . . . . . 233
9.8 Incendie de février 1988. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
9.9 Politique tarifaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
9.10 Histoire parallèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Chapitre 10. 1989-1992. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
10.1 Évolution du matériel installé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
10.2 L’audit de février 1989 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
10.3 Activité du groupe réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Table des matièresV
Janine Connes
Introduction
P. Salzedo, 1969
Lariboisière à Paris, a inséré dans les pages d’un journal de mode, distribué
gratuitement par la poste, un superbe dépliant sur papier glacé. Il y précise qu’il
met tous ses espoirs dans la neuro-informatique, avec l’exploitation des banques
de données et toutes les nouvelles techniques de modélisation disponibles.
Cette envolée des possibilités des nouveaux matériels a permis l’avènement
de l’ère de l’Intelligence Artificielle (IA) qui nous fait entrevoir des développe-
ments vertigineux 3. Dans un volumineux rapport remis au Premier ministre le
29 mars 2018, Cédric Villani avertit que la réalité va dépasser la science-fiction 4.
Cette révolution a besoin d’une puissance de calcul la plus grande possible et
d’un supercalculateur spécialisé. Le supercalculateur Jean Zay est alors installé
au centre de calcul du CNRS à Orsay, avec l’ambition de faire de la France « le
leader européen de la recherche en IA ».
Maintenant, les grands centres de calcul nationaux sont mutualisés et gérés au
niveau national par le GENCI (Grand Équipement National de Calcul Intensif),
mais leur mission est restée la même. En 2006, elle a été redéfinie exactement
dans le même esprit que celle donnée au centre à sa création, et avec des mots
quasi identiques à ceux de 1969.
« [Ces centres nationaux] donnent aux chercheurs français l’accès aux
moyens de calcul nécessaires pour mener des recherches au plus haut niveau
international 5. »
Actuellement, des annonces sur Internet invitent à des dépôts de projets
avec financement possible, dans le cadre européen. L’Agence Nationale pour
la Recherche (ANR) a publié dès 2010 une grande étude intitulée : Le calcul
intensif, technologie clé du futur 6.
La suprématie en informatique est devenue une affaire d’état. Le 2 juin
2017, à une conférence à destination des étudiants russes, le président Poutine
prédisait :
« L’Intelligence Artificielle représente l’avenir, non seulement de la Russie,
mais de toute l’humanité […]. Celui qui deviendra le leader dans ce domaine
sera le maître du monde. Et il est fortement indésirable que quelqu’un
obtienne un monopole dans ce domaine. Donc, si nous sommes les leaders
dans ce domaine, nous partagerons ces techniques avec le monde entier 7. »
Que de chemin parcouru depuis 1969 ! Mais la route a été longue et difficile.
Ce ne fut pas un long fleuve tranquille.
Elle a été rendue possible par l’excellence et la cohésion d’une équipe tech-
nique qui a su s’adapter à cette évolution fulgurante, et surtout à l’anticiper.
Elle a travaillé contre vents et marées sous la direction de Philippe Salzedo
pendant vingt ans, puis pendant les vingt années suivantes jusqu’en 2010 de
Serge Fayolle, qui lui-même, dans les vingt années précédentes, avait été res-
ponsable de l’équipe système. Tous deux ont été, en plus, directeur du centre à
plusieurs périodes.
Pierre Jacquinot m’avait confié la conception et la direction de la nouvelle
entreprise. Je savais ce qu’était, dès cette époque, un centre de calcul intensif.
J’avais travaillé aux États-Unis pendant des années dans le centre de calcul du
laboratoire qui venait de déposer un homme sur la Lune. Il préparait l’expédi-
tion VIKING qui vingt ans après allait explorer Mars. J’y faisais essentiellement
de la simulation. On y simulait tout : le départ de la fusée, les corrections de
trajectoire, la composition de l’atmosphère des planètes, avant d’y simuler l’im-
pact sur la Lune, d’y déposer le premier homme en 1969 et d’assurer son retour.
Encore actuellement, on pense à la NASA qu’il y a une part de miracle dans la
réussite de l’opération avec les moyens de calcul de l’époque.
Dès l’origine, l’organisation et le fonctionnement du centre de calcul d’Orsay
ont copié de très près ceux du centre de calcul intensif du Jet Propulsion
Laboratory (JPL) de la NASA à Pasadena et s’inspiraient de ceux de Livermore,
d’Argonne et du Lawrence Laboratory. À sa création en 1969, il aurait pu fonc-
tionner uniquement en centre de calcul intensif comme celui du JPL Dès le jour
de l’ouverture, il pouvait fonctionner 24h/24, 7j/7. Les chercheurs l’attendaient.
Les cinq groupes : administration, exploitation, système, assistance technique
aux utilisateurs, assistance mathématique ont évolué un affinement de leurs mis-
sions. Au cours des années, l’exploitation 8 est passée dans les mains du construc-
teur qui l’effectue à distance. En revanche, elle s’est étoffée d’un administrateur
réseau. Les groupes d’assistance aux utilisateurs et d’assistance mathématique
ont considérablement grossi et leur qualification a évolué. Maintenant, ils tra-
vaillent essentiellement à l’adaptation des programmes des utilisateurs aux nou-
velles architectures. Au fil des décennies, et surtout maintenant, l’emphase a
glissé du matériel et des systèmes d’exploitation qui, bien qu’encore de pointe
et complexes, sont devenus plus matures, vers le logiciel applicatif et les outils
de développement. D’où l’importance encore accrue de l’assistance aux utilisa-
teurs et des efforts à mener à l’échelon mondial pour adopter les algorithmes,
méthodes et paradigmes de programmation et explorer de nouvelles voies. Avoir
la technologie, c’est bien, pouvoir l’utiliser, et efficacement de préférence, c’est
indispensable. Le parallélisme massif et les architectures hybrides – sans parler
du quantique – nécessitent de repenser les outils pour les rendre utilisables en
dehors d’un nombre limité de spécialistes et d’applications. C’est sans doute ici
que continue de résider le défi.
Parmi les évolutions, un aspect devenu important est celui de la sécurité
informatique. La démocratisation de l’accès aux matériels et à la connaissance
(un PC sous linux permet d’étudier et de développer des outils malfaisants qui
pourront ensuite être introduits et exécutés sur les gros serveurs) et le partage
des réseaux (en opposition aux réseaux privés en étoile des débuts) fait que
n’importe qui – voire les agences spécialisées des états eux-mêmes – peut tenter
de s’attaquer aux centres informatiques. Des services spécialisés sont mis en
place au sein de l’état pour la lutte (et sans doute aussi l’attaque ?), Des res-
sources sont dédiées à ce la résolution de ce problème dans les centres.
À la création, les utilisateurs attendaient impatiemment la mise en service du
centre. Plusieurs domaines de recherches en cours auraient pu assurer le plein
emploi avec leurs lourds besoins de calcul. On peut citer entre autres ce que
J. Yoccoz appellera plus tard le champ des spectroscopies de Fourier appliquées
en astronomie, en exploration spatiale, en spectroscopie atomique et molécu-
laire, et ceux de l’hydrodynamique des fluides, de la météorologie, et dès le
début celui de la chimie. Son besoin de calcul s’est concrétisé par l’installation
simultanée, dans les locaux mêmes du centre de calcul, d’un Centre d’Étude
de Chimie Atomique et Moléculaire (CECAM) émigré aujourd’hui à Lausanne.
Il a en conséquence célébré son cinquantenaire quelques mois avant celui du
centre. Il faut noter aussi les besoins des mathématiciens purs qui sont affichés
dès 1971 9. Par exemple, le calcul au degré 3 de la conjoncture de Serre aurait
demandé 1000 heures de la machine alors disponible au centre.
Mais la vocation du centre de pouvoir y faire ce qu’on ne peut pas faire
ailleurs l’a amené à partager ses activités entre le calcul intensif et les besoins
d’une large clientèle aux profils très variés, qui n’avait accès à aucun autre
moyen de calcul, y compris celle des débutants de toute discipline qu’il a fallu
initier, former et suivre pas à pas. Cette émancipation guidée des utilisateurs
s’est étalée sur vingt-quatre ans à mesure que les progrès techniques en tous
genres, la mini-informatique, la micro-informatique, permettaient des traite-
ments locaux pour tout ou partie de leurs besoins. Non seulement le centre de
calcul les formait à l’usage des nouveaux matériels, qui permettaient un travail
en local, mais il les aidait aussi à rédiger leurs demandes pour trouver les fonds
nécessaires à l’acquisition de ces machines locales. En revanche, ils ont pro-
gressivement libéré le centre de calcul des tâches qui pouvaient se faire ailleurs
pour qu’il se consacre de plus en plus uniquement à sa mission initiale : faire
ce que maintenant on ne pouvait pas faire ailleurs, c’est-à-dire uniquement du
calcul intensif. Cette migration s’est étalée un peu plus longtemps que nécessaire
car les utilisateurs concernés appréciaient au centre de calcul, pas seulement
la puissance de calcul, mais aussi les services de sauvegarde, l’assistance et la
formation. Quand il y a été mis fin, en décembre 1993, il a été vérifié qu’aucun
utilisateur n’était laissé sans moyen de calcul de remplacement.
L’histoire du centre de calcul, comme d’ailleurs celle du CNRS, et celle de
toute entreprise sortant des chemins battus, n’a pas été un long fleuve tranquille.
Il a grandi dans un contexte difficile où, pour des raisons diverses de nature poli-
tique, plusieurs étapes importantes ont été différées. Nous les appellerons dans
la suite ses échecs. Pourquoi, par exemple, malgré tous ses efforts, n’a-t-il pas
pu installer un ordinateur CRAY dès la fin des années 70 comme dans tous les
centres homologues en Europe ? Cependant l’élan était donné et dès le lende-
main du refus d’installation d’un nouveau matériel, choisi et demandé, le centre
rassemblait les moyens disponibles dans le contexte politique du moment pour
servir au mieux ses utilisateurs.
De nombreux problèmes ont marqué ses débuts : compétitions supposées
Paris-province, mathématiques pures contre mathématiques appliquées, CNRS
contre Enseignement supérieur. Ils ont considérablement diminué avec la créa-
tion d’une structure au niveau national, le Grand Équipement National de Calcul
Intensif (GENCI) 10. Il s’agit d’une société civile française créée en janvier 2007 et
détenue à 49 % par l’État français représenté par le ministère de l’Enseignement
supérieur et de la Recherche, 20 % par le Commissariat à l’Énergie Atomique
(CEA), 20 % par le CNRS, 10 % par les universités et 1 % par l’Institut
National de Recherche en Informatique et en Automatique (INRIA). Il a pour
objectif officiel de démocratiser l’usage de la simulation numérique et du calcul
intensif pour soutenir la compétitivité française, dans tous les domaines de la
science et de l’industrie.
Le GENCI représente la France dans l’infrastructure européenne PRACE,
Partnership for Advanced Computing in Europe. Il a été l’un des quatre
membres hébergeurs du premier groupe de PRACE, aux côtés de GCS pour
l’Allemagne, CINECA pour l’Italie et BSC pour l’Espagne. PRACE est une
Association Internationale Sans But Lucratif (AISBL) de droit belge, créée en
2010 et rassemblant 25 partenaires. Elle a pour mission la mise à disposition
de ressources de classe mondiale en termes de calcul intensif et de gestion des
données pour les chercheurs académiques et industriels européens. Les nouveaux
problèmes se posent au niveau européen. L’initiative EuroHPC (European High-
Performance Computing) fondée en 2017 se mobilise pour mutualiser de futurs
super-calculateurs reliés par un réseau de transmission super-performant. Où
faut-il les installer ? Pour le moment c’est la Finlande qui est supposée recevoir
le suivant.
Qu’est-ce qui a permis une telle évolution malgré les embuches ? Elle n’a
été possible que grâce à l’excellence et la cohésion d’une équipe technique tou-
jours préparée à mettre en œuvre les nouvelles possibilités techniques quand
les décisions politiques le lui permettaient. Le centre de calcul d’Orsay n’est
aujourd’hui qu’un des hypercentres de calcul installés en Europe, hypercentres
qui sont accessibles par les réseaux. Mais ce qui est primordial pour les cher-
cheurs, c’est que le but initial fixé par Pierre Jacquinot soit atteint. C’est un
cinquantenaire qui consacre une évolution réussie L’informatique de service non
seulement est reconnue comme indispensable, mais elle est devenue une affaire
d’état. Les chercheurs ont le choix des moyens dans la communauté européenne.
Pour écrire l’histoire présentée ici, les auteurs ne disposent pas des archives
du CIRCÉ ni de la majorité de celles privées de la première direction, qui,
à une certaine époque de la vie du centre de calcul, ont été détruites, ni des
archives personnelles de Philippe Salzedo disparues aussi dans une inondation.
10 https://www.enseignementsup-recherche.gouv.fr/cid99656/grand-equipement-natio-
nal-de-calcul-intensif-genci.html
10 De l’IBM 360/75 au superordinateur Jean Zay
Il peut paraître étrange de remonter aux années 1950 pour comprendre comment
le Centre Inter-Régional de Calcul Électronique (CIRCÉ) a été créé en 1969 sous
la forme qu’il a prise à cette époque, et plus encore qu’elle ait commencé aux
États-Unis et non en France.
Deux évènements d’importances disproportionnées ont décidé de son identité.
Le premier est minuscule : le sujet de thèse que me proposa Pierre Jacquinot
en 1954.
1953.
20 P. Grivet et A. Blaquière, Le bruit de fond, Masson & Cie, Paris, 1958.
21 M. Duffieux, L’Intégrale de Fourier et ses applications à l’optique, Masson & Cie,
1970.
22 Y. Bazanov, Processus Aléatoire, Éditions MIR, Moscou, 1975.
23 A. Tikhonov, V. Arsenine, Méthode de Résolution de problèmes mal posés, Éditions
2717/01.pdf.
20 De l’IBM 360/75 au superordinateur Jean Zay
J’ai obtenu du temps calcul directement d’IBM à la seule condition que mes
futurs programmes soient déposés dans la bibliothèque scientifique d’IBM. J’ai
pu mener cette fois la simulation numérique du traitement des interférogrammes
et des effets de toutes les imperfections et erreurs dont on pouvait imaginer qu’ils
seraient entachés quand ils existeraient. Cette facilité faisait partie de la politique
d’IBM chez qui c’étaient les utilisateurs qui développaient les logiciels utilitaires
qu’IBM distribuait selon une pratique proche de ce qui se passe aujourd’hui pour
les logiciels libres. Ainsi le FORTRAN dont une version moderne tourne sur l’or-
dinateur le plus puissant en 2020, a été développé pour le 704 d’IBM.
Ce travail aboutit, malgré la faible puissance du 704, en 1958 à l’obtention de
deux spectres inaccessibles par les méthodes classiques : celui des raies d’émission
du ciel nocturne dans le proche infrarouge (IR) et celui de la lumière de recom-
binaison émise par un cristal de germanium, dans lequel un excès de porteurs
minoritaires était créé par injection optique, et tout cela à la température de
l’air liquide dans l’entrefer du gros électroaimant du laboratoire Aimé Cotton
à Bellevue. Ce dernier problème avait été proposé par Pierre Aigrain de l’ENS.
Mais la numérisation des interférogrammes était faite de façon primitive : mesure
manuelle des ordonnées sur la courbe enregistrée, à la règle graduée, à des posi-
tions de points jugés équidistants, sur le rouleau de papier sortant de l’enregis-
treur analogique. Et plus grave, les temps de calcul attribués restaient beaucoup
trop faibles pour attaquer des problèmes à résolution nettement plus élevée qui
étaient nécessaires pour une meilleure compréhension des phénomènes étudiés.
Cependant les résultats sur le ciel nocturne devaient attirer à un congrès à
Liège l’attention d’un atmospheric physicist de la NASA, Lewis Kaplan. Il m’in-
vita avec Pierre Connes à venir développer notre méthode à Pasadena, au Jet
Propulsion Laboratory (JPL) de la NASA où nous aurions toutes les facilités de
calcul imaginables à cette époque.
martien. Plusieurs films montrent les rétrofusées qui s’allument sous le module
et l’ouverture du parachute lors de la mission InSight du 26 novembre 2018 25.
Mais pour l’heure nous n’avions que des plans pour réaliser un interféromètre
imité de ceux que nous avions construits au Laboratoire Aimé Cotton et des pro-
grammes testés sur un 704. Il fallait échantillonner l’interférogramme aux points
déterminés par le théorème d’échantillonnage de Shannon ; le but ultime était
d’en tirer une Transformée de Fourier d’un million de points pour lequel le 704
de Paris aurait exigé un siècle de calculs pour un seul spectre. De plus, Gerard
Kuiper, célèbre astronome, qui avait produit, avec un spectromètre à réseau, les
meilleurs spectres infrarouges des planètes avait démontré dans un article récent
que la technique de Fourier était vouée à l’échec. C’est le cas typique de ce qui
se passe toujours soixante ans plus tard chaque fois que le problème scientifique
qu’on a à traiter nécessite des puissances de calcul supérieures à celles qui sont
disponibles. Mais il faut se préparer pour le jour où elle existera.
Le centre de calcul me fut aussitôt ouvert. Je découvris des étages entiers
d’ordinateurs 7094 avec des 7040 en frontal, des étages de dérouleurs de bandes
magnétiques et des étages de disques magnétiques de stockage.
Le lendemain de mon arrivée, après examen de passage, j’étais une utilisa-
trice sans restriction de temps, d’un centre de calcul qui tournait vingt-quatre
heures sur vingt-quatre et sept jours sur sept, apparemment sans pannes grâce
à la redondance des machines. C’est là que j’ai travaillé pendant un an d’affilée,
puis pendant de longues périodes au cours des années suivantes.
Mon bureau était situé entre la tour dans laquelle on faisait le vide pour
simuler les conditions de vol, et le centre de calcul où l’on simulait à peu près
tout : le départ de la fusée, le pilotage de son vol, les pannes possibles, les cor-
rections de trajectoire en temps réel, les expériences à bord, l’enregistrement des
données avec leur récupération et leur traitement. Le tout, le plus rapidement
possible. Chaque mission coûtait des centaines de millions de dollars et nécessi-
tait des moyens énormes ; on ne pouvait les multiplier pour voir et apprendre.
Il fallait que la première réalisation de ce qu’on simulait depuis des années, dix
ou vingt ans suivant les cas, soit la bonne 26.
25 https://www.numerama.com/sciences/441748-insight-comment-va-se-derouler-latterris-
sage-sur-mars-etape-par-etape.html, https://www.youtube.com/watch?v=C0lwFLPiZEE et
Nasa Insight Mission https://mars.nasa.gov/insight/entry-descent-landing
26 Note de l’auteure : « Il y a soixante ans, au Jet Propulsion Laboratory (JPL), tous les ordi-
nateurs ne faisaient que de la simulation et pour cause, moi y compris. J’avais un programme
prêt à être digéré immédiatement par toute machine IBM. Il traitait un certain nombre de
données, disons N. En France j’avais limité N à 15 000 car le calcul prenait déjà des heures
et les temps de calcul croissaient en N². Dès la semaine de notre arrivée, le vendredi soir, j’ai
ajouté un 0 de plus et perforé sur une carte N = 150 000. Je surveillais le traceur de courbe
(autre merveille) et au lieu d’une fonction de Gauss, bien fine, isolée, élégante, je vois appa-
raître sous mes yeux une forêt de pics tous déformés, certains la tête en bas. C’était le résultat
d’une erreur théorique dont les effets s’accumulaient quand N augmentait et qui m’avait
échappé lors de mes simulations précédentes. Heureusement le centre de calcul n’arrêtait
jamais et le lundi aux aurores, après corrections, je retrouvais ma fonction de Gauss toujours
aussi élégante. J’en ai à jamais gardé l’idée qu’il fallait faire des simulations en vraie grandeur
et pour ça avoir des machines puissantes, ce qui m’a été très utile par la suite et l’est encore.
J’ai découvert qu’il ne faut pas confondre simulation avec essai de modèle réduit.
22 De l’IBM 360/75 au superordinateur Jean Zay
Puissance Machines massivement paral- Avec les machines les plus puis-
de calcul lèles (dizaines de milliers de santes disponibles à l’époque
processeurs) Multiplication des 7094 avec des
7040 en frontales
sans quelques aléas pittoresques 28. La collaboration avec le JPL restait aussi
étroite, mais une partie de la mise au point des programmes de calcul était effec-
tuée sur le 7040 du centre de calcul de l’Observatoire de Meudon, réservé aux
astronomes. L’interféromètre se perfectionnait pour arriver, un jour, aux hautes
résolutions prévues, mais le problème du temps de calcul des TF restait entier
et bloquait la méthode.
Si j’ai aussi insisté sur cet épisode c’est que le JPL a été une formidable
école. À condition de résister au rythme de travail, on y trouvait à l’époque tout
ce qui s’est mis en place laborieusement dans les centres nationaux ; machines
puissantes dédiées à la recherche interdisciplinaire et fonctionnant 24h/24, 7j/7,
distribution d’heures gratuites sur projet, assistance de haut niveau pour dia-
logue indispensable et constructif avec les chercheurs.
Restait le problème algorithmique.
28 Note de l’auteure : Incident lors d’un transport entre le LAC et le mont Palomar
tenant à la politique internationale. Depuis le retour en 1964 la situation internatio-
nale avait évolué et le président de Gaulle avait mis les Américains à la porte ! Il fallut
donc dès lors expédier l’interféromètre jusqu’à leur base la plus proche, soit Francfort.
L’optique remplissait une grande et lourde caisse dûment capitonnée, l’électronique
quelques caisses plus petites, plus de substantielles provisions d’outillage et de visserie,
car à ce stade le système métrique n’avait que partiellement remplacé l’américain. De
Francfort, les caisses devaient gagner l’Andrew Air Force Base, un vaste complexe mili-
taire situé dans la banlieue de Washington, mais du jour au lendemain Andrew devint
une base de départ pour un pont aérien ininterrompu en direction d’Israël pendant la
guerre du Kippour. Disparues, les caisses et plus aucune nouvelle, on imaginait l’inter-
féromètre rôtissant sous le soleil sur les bords du canal de Suez, ou (pire encore) de la
Mer Morte, (gare au chlorure de sodium concentré !). Finalement un gradé inconnu dut
avoir la brillante idée mettre le tout sur un camion et le matériel arriva en Californie avec
seulement une semaine de retard.
29 Cooley James W. & Tukey John W. (1965), « An algorithm for the machine calcula-
C’était la saturation, non pas d’un centre de calcul, mais de toute l’infor-
matique dans le monde. L’idée était venue que pour sortir de l’impasse il fallait
faire des progrès aussi bien en logiciel et algorithmique qu’en matériel et pour
cela réunir les meilleurs chercheurs dans le domaine de l’algorithmique.
Ma surprise en arrivant à Yorktown Heights fut aussi grande que lorsque
j’avais débarqué au JPL en novembre 1963. J’ai découvert une assemblée de
mathématiciens de haut niveau, venant de Columbia, du MIT, de Princeton et
qui s’attaquaient aux problèmes jusque-là insolubles qui se posaient dans toutes
les disciplines et qu’on pourrait aborder avec le calcul numérique. Cette attitude
était complètement à l’opposé de celle des mathématiciens français de l’époque
qui étaient extrêmement forts en théorie, mais peu avaient un intérêt pour les
problèmes pratiques ; c’est ce que dans la littérature spécialisée, on appelle le
« contexte français ». À Yorktown, tous étaient familiers avec les nouvelles théo-
ries et techniques de traitement du signal et avaient de l’expérience (et quelle
expérience !). On avait fait appel à eux pendant la seconde guerre mondiale.
Dans ce domaine, par exemple R. Gardwin, théoricien qui siégeait aussi au
Président Kennedy’s Scientific Advisory Commitee travaillait à l’amélioration
de la surveillance sismique à distance des explosions nucléaires russes. Un autre
de ses sujets d’étude était la possibilité de détection à distance des sous-marins.
Tous avaient besoin de calculer des transformées de Fourier.
J.W. Cooley travaillait à Yorktown. Le fameux article sur la découverte de
l’algorithme de Fast Fourier Transform (FFT) connu sous le nom « algorithme de
Cooley-Tukey » fut publié en 1965, et a eu immédiatement un énorme retentisse-
ment. Le gain de temps pour une transformée de Fourier de 1 million de points
(le problème posé) est théoriquement de N/LogN = 51 200. C’est 41 % du chiffre,
125 000 qui est le facteur d’augmentation de puissance des machines installées en
vingt ans à l’IDRIS de 1993 à 2013. Mais pratiquement, l’algorithme fonctionnait
bien pour de relativement petits nombres quand tout tenait en mémoire centrale
ce qui ne résolvait pas mon problème. C’est pourquoi James Cooley écrit :
« One of the first really good application brought to me was too large (1 mil-
lion of samples). It was a calculation being planned by Janine Connes who
was programming the calculation of FT of interferometric Data 30. »
À ce moment-là, les laboratoires Bell créent un comité présidé par un des res-
ponsables d’IBM pour développer des algorithmes de FFT. Son nom plus tard
deviendra IEEE acoustic Speech and Signal Processing Society. James Cooley
leur demanda de m’envoyer une invitation à un workshop sur les FFT organisé
par ce comité à Arden House et présidé par IBM. Il y avait cent invités exposant
leurs problèmes de FFT. Parmi eux, des chirurgiens du cœur, des statisticiens,
des géologues, des professeurs d’universités, des océanographes, etc. C’est mon
problème qui a été retenu pour étude et un étudiant du MIT, Forman, fut
désigné pour y travailler avec moi.
Cette collaboration a aussi été une très bonne école sur le rôle d’un centre de
calcul. Elle s’est concrétisée dans la thèse d’état d’Hervé Delouis faite au CIRCÉ
sous ma direction, soutenue en 1972 et qui donna lieu au manuel : Le Parfait
petit Fouriériste. Elle s’est traduite par l’exigence d’avoir toujours dans le per-
sonnel du centre au moins un mathématicien de haut niveau qui avait déjà une
formation complémentaire en informatique ou acceptait de la faire.
Une vingtaine d’années plus tard James Cooley avait gardé grand souvenir
de notre collaboration. Intervenant lors de la conférence Fourier Transform
Spectroscopy à Vienne en 1987, il écrira son émerveillement lorsqu’il avait décou-
vert l’énormité du problème de calcul posé par la spectroscopie optique :
« An extraordinary thing about this was that a single record of Data was
about 512 000 points and all values of the spectrum were needed 31. »
Et peu après le workshop d’Arden House, il devait découvrir et apprécier
l’Atlas planétaire :
« A monumental effort by Janine Connes resulted in the calculation of the
infrared spectra of the planets which has become a standard reference 32. »
Depuis 1970, il y a eu douze conférences internationales sur la spectros-
copie par transformée de Fourier, la dernière en 2018 à Singapour. Lors de la
sixième qui s’est tenue à Vienne en 1987, James Cooley fut invité à parler à 500
chimistes utilisant son algorithme implanté dans l’appareil d’analyse spectrale
qu’ils avaient acheté dans le commerce et qui pour eux était une boîte noire.
Peu leur importait qu’elle contienne un interféromètre et un calculateur. Ils met-
taient l’échantillon en place, appuyaient sur un bouton et le spectre s’affichait
sur l’écran.
Cette découverte de Cooley a aussi complètement transformé la recherche
pétrolière.
31 Note de l’auteure. Traduction : « Ce qui est extraordinaire, c’est qu’un seul enre-
gistrement de données comprenne 5 120 000 points et que toutes les valeurs du spectre
soient nécessaires. »
32 James W. Cooley, article cité. Note de l’auteure. Traduction : « L’effort monumental
de Janine Connes a abouti au calcul des spectres infrarouges des planètes, qui est devenu
une référence. »
Préhistoire du CIRCÉ, de 1954 à 1969 27
33 « On va enfin savoir s’il y a de la vie sur Mars », Le Point, n° 2499, du 16 juillet 2020,
p. 82.
34 « Objectif Mars », L’Observateur, n° 2008, du 23 juillet 2020, p. 36.
Chapitre 2
La création du CIRCÉ
Ce n’est pas parce que les choses sont difficiles que nous n’osons pas,
c’est parce que nous n’osons pas qu’elles sont difficiles.
Sénèque
Pierre Jacquinot, directeur général du CNRS, n’avait pas utilisé lui-même l’infor-
matique dans ses travaux personnels. Mais il avait donné un sujet de recherche
qui s’est avéré demandeur de calculs intensifs. Et il a vu, dans toutes les disci-
plines, des chercheurs partant à l’étranger pour faire leurs calculs. Il en a déduit
qu’il fallait que le CNRS se dote d’un centre de calcul « dans lequel les chercheurs
de toute discipline pourraient faire ce qu’ils ne pouvaient pas faire ailleurs ».
Il m’en a confié le projet et la direction au milieu des années 1968. Je mis
plusieurs conditions à mon acceptation. Je savais que depuis de nombreuses
années le CNRS abritait à l’Institut Blaise Pascal (IBP) des théoriciens des
mathématiques, de l’informatique, des spécialistes d’applications (telles la
traduction automatique) certainement fort savants mais travaillant dans des
domaines où je n’étais pas experte et dont je savais que les activités, telles qu’ils
les pratiquaient alors, étaient incompatibles avec le centre de service que je vou-
lais mettre en place. Leurs préoccupations concernant l’informatique de service
étaient à l’opposé de celles que j’avais acquises par expérience. D’autre part, je
prévoyais les problèmes de personnel, les conditions de travail dans les centres
de calcul que j’avais pratiqués, étant fort différentes de celles en usage dans la
plupart des laboratoires français. Il existait un plan fort avancé de transfert de
l’Institut Blaise Pascal à Orsay, dont la construction était bien avancée.
J’émis le vœu de ne faire que ce pourquoi j’avais été formée par l’expérience,
à savoir : faire fonctionner un centre de service multidisciplinaire copié sur celui
du JPL. Sa finalité serait de fournir un outil aux recherches de pointe deman-
dant du calcul intensif, et de collaborer à des recherches en traitement du signal
et algorithmique, et en techniques de simulation, avec les constructeurs et les
centres américains avec lesquels je travaillais déjà. J’étais consciente, au vu de
l’état de pénétration de l’informatique chez les chercheurs, qu’il faudrait, pen-
dant un temps dont je ne prévoyais pas la durée, consacrer une partie des res-
sources du centre à l’initiation et à la formation de nombreux utilisateurs qu’il
fallait amener à découvrir un outil, avant qu’ils ne puissent prendre en charge
eux-mêmes tout ou partie de leurs besoins.
30 De l’IBM 360/75 au superordinateur Jean Zay
2.1.1 Au CNRS
Dès après la fin de la deuxième guerre, le CNRS voit surgir de nouveaux besoins
et le plus impérieux concerne les moyens de calcul 35.
Après la guerre, deux missions de scientifiques français, dont certains reve-
naient de leur exil volontaire aux États-Unis, vont l’une en Angleterre, l’autre
en Allemagne pour se remettre à niveau après le désert dans lequel les scienti-
fiques français se sont trouvés pendant la guerre. La mission en Allemagne est
bien décidée à récupérer du matériel volé pendant l’occupation et à ne pas le
laisser aux mains des alliés. Frédéric Joliot-Curie crée au CNRS un « Service
des affaires allemandes » qui comprend en particulier A.L. Wolf, A. Berthelot,
L. Cagnard et Louis Couffignal (1902-1966), particulièrement chargé de la récu-
pération et de l’attribution des machines-outils et de machines comptables 36.
« La mission scientifique a récupéré en Allemagne un matériel de calcul
important, comprenant notamment plusieurs équipements de machines à
cartes perforées. Les perfectionnements apportés depuis quelques années aux
calculatrices à cartes perforées qui vont permettre à ces équipements d’être
utilisés pour des calculs scientifiques. »
Une partie de ce matériel est affectée au laboratoire de calcul mécanique
directement rattaché au CNRS 37. Joseph Pérès, directeur adjoint du CNRS et
président du comité de mécanique, prend l’initiative d’y associer son laboratoire
de calcul analogique. Ainsi est créé l’Institut Blaise Pascal (IBP) en novembre
1945 sous l’autorité de Couffignal. Le CNRS pense que la remise à niveau de la
France passe par la construction d’une machine française.
« Le CNRS veut consacrer les crédits nécessaires à l’étude et la réalisation
d’une machine universelle tenant compte des réalisations faites aux États-
Unis, mais sans les copier ; grâce aux travaux de M. Couffignal nous gardons
une avance du point de vue théorique 38. »
35 Denis Guthleben, Histoire du CNRS de 1939 à nos jours, septembre 2013, éditions
Armand Colin, p. 200.
36 Pierre-Éric Mounier-Kuhn, L’informatique en France, de la seconde guerre mondiale
quelques notables américains 43. Ce colloque ne lui ouvre pas les yeux. Mais
Gaston Dupouy, alors directeur du CNRS, prend conscience à ce colloque du
fait que les étrangers vont bientôt sortir des machines commerciales alors que
l’ordinateur de l’IBP n’en est encore qu’à la conception de quelques-uns de ses
éléments. Mais il ne réagit pas, car il a toute confiance dans Pérès. En 1956,
la machine française doit toujours battre celles de Harvard, Amsterdam ou
Stockholm. Mais quand elle fait son apparition en 1957, elle ne tient aucune des
promesses faites il y a dix ans. On a beaucoup écrit sur les causes de l’échec du
CNRS dans son entrée dans le domaine informatique. Quelques-unes des plus
évidentes sont la méconnaissance et l’incompréhension de ce qui se faisait à
l’étranger, un antiaméricanisme qui a perduré plusieurs années, le fait que notre
excellence en mathématiques théoriques nous faisait négliger les mathématiques
appliquées, qu’on a mis tous les espoirs en un seul chercheur, et que le dit savant
n’était pas familier de l’électronique.
Le nouveau directeur du CNRS, Jean Coulomb, met fin aux fonctions de
Couffignal, dissout son laboratoire et se résout à acheter des machines parmi les
plus performantes. En 1957, il impose René de Possel (1905-1974) à la tête du
laboratoire de calcul numérique de l’Institut Henri Poincaré (IHP) puis comme
successeur de Couffignal à l’IBP. Il y restera jusqu’en 1969. C’est un brillant
mathématicien passé du bourbakisme aux mathématiques appliquées. Il ne
connaît rien aux ordinateurs, mais il est imaginatif. Il partage les premiers cours
d’informatique avec Jean Ville statisticien probabiliste. C’est à deux des élèves
de celui-ci, que de Possel confie les services de calcul de l’IBP, Jean Porte, sta-
tisticien lui aussi qui poursuit des travaux de logique mathématique et L. Nolin.
Ce dernier dispense d’excellents cours de programmation aux chercheurs et aux
techniciens du centre 44. L’IBP reçoit la tutelle de deux nouveaux laboratoires :
ceux de traduction et de documentation automatiques.
Enfin, en 1959, tous les chercheurs de l’IBP assistent au premier congrès de
l’International Federation for Information Processing (IFIP) où ils découvrent
les axes de recherches américaines en informatique. René de Possel ouvrira l’IBP
à l’Enseignement supérieur et fondera en 1963 l’Institut de programmation. Avec
toute une série de chercheurs, Jean Ville, Louis Nolin, Marcel-Paul Schutzenberger,
Jacques-Louis Lions, Jacques Arsac, J. Porte, Maurice Nivat, il créa un ensei-
gnement de l’informatique. À son âge d’or, l’IBP a eu jusqu’à 140 membres.
Il fut équipé de l’ancien 704 d’IBM de la place Vendôme, remplacé par la suite
par un Control Data 3600. Parmi les réalisations en recherche informatique, on
peut citer un système d’exploitation en temps partagé développé par Nolin, des
compilateurs etc. Mais le projet de machine à lire les caractères de de Possel est
arrêté et le Trésor de la Langue Française est transféré à Nancy. La machine à
traduire a de bonnes performances, mais est dépassée par une technologie plus
nouvelle 45.
Loup Verlet avec un Univac 1108. Il est d’abord consacré à la physique nucléaire
et à mesure que son utilisation par cette discipline décline, il s’ouvre à d’autres
utilisateurs de la faculté.
Performances
Année Type d’équipement approximatives en MIPS
(méga instructions par seconde)
IBM 650
1957 0,1
MERCURY
dont ce centre a fait l’objet il n’est signalé que c’était d’abord le centre de ges-
tion du CNRS. Il est surtout connu comme centre de recherches. Son directeur
R. de Possel 48.
« Celui-ci [R. de Possel] confie d’ailleurs les services de calcul de l’IBP à deux
élèves de Ville, qui commencent aussitôt à y développer des recherches. »
R. de Possel était un brillant savant, mais un mauvais gestionnaire. Il voulait
faire de la recherche fondamentale lourde, mais sans subir les contraintes qu’elle
impose. Il avait aussi des difficultés dans ses relations avec les industriels qui
ont besoin de réalisations concrètes et quand il a eu affaire à un industriel il a
fait un mauvais choix 49.
« Monsieur de Possel a d’ailleurs un grand nombre d’idées qu’il n’a malheu-
reusement jamais rédigées ou rassemblées dans des articles ou dans des notes
donnant lieu à une prise de brevet. Il en parle à tout le monde et certaines
de ses idées ont été reprises ailleurs sans aucune protection. »
Mais l’IBP était censé être le centre de calcul du CNRS. Il est obligé malgré
lui d’offrir des services à un flux de scientifiques demandeurs 50.
« [Les personnels de l’IBP] ont commencé à initier les chercheurs de toutes
disciplines à la programmation, afin de favoriser une forme de libre-service
et de dégager du temps pour leur propre recherche. »
On met ici en évidence le fait que l’objectif principal était la recherche en
informatique et pas le service, avec le souci de consacrer à cette recherche le
plus de temps de recherche personnelle et d’exploitation et d’énergie possibles.
C’était très difficile à gérer et incompatible avec la satisfaction des besoins en
calcul des chercheurs pour lesquels l’informatique était l’outil indispensable.
D’ailleurs cette situation n’est pas propre à l’IBP et Pierre-Éric Mounier-Kuhn
indique que les mêmes difficultés se présentaient dans les centres de calcul
universitaires 51.
« Le conflit est permanent dans l’emploi du temps des informaticiens entre
service de calcul pour répondre à la demande, toujours plus pressante, et
recherche génératrice de publications et de satisfactions professionnelles. »
Cet auteur, rend hommage au travail que de Possel a accompli avec son
équipe à cette époque.
« L’IBP de René de Possel a constitué une petite communauté où se sont
rapprochés pendant quelques années décisives, des scientifiques venus de tous
les horizons, habités de différentes convictions religieuses ou politiques dans
lesquelles ils ont pu puiser une énergie et peut-être une foi nécessaire pour
construire “nouvelle science”. »
Ils étaient bien préparés. Certains avaient déjà fait des stages prolongés chez
IBM. Tous travaillèrent ardemment dès que les ordinateurs ramenés de Blaise
Pascal furent remis en marche après la grève de 1968. IBM les avait pris sous
son aile : visite des usines de Corbeil, séminaires, cours etc. Salzedo surveillait
les travaux à Orsay chaque semaine.
Côté exploitation, Georges Taieb et Robert Binisti et quelques opérateurs
vinrent de la rue du Maroc, ainsi que Madame Jouannaud, la secrétaire générale
et deux mécanographes.
Peu de temps avant le déménagement, à Orsay, ils ont appris qu’il y aurait
une directrice « scientifique » à la tête du Centre qui venait de l’observatoire
de Meudon. Certains ne m’avaient pas encore rencontrée, mais tous accordaient
une totale confiance à Salzedo et étaient prêts à le suivre.
Mon décret de nomination comme directrice et celui de Philippe Salzedo
comme sous-directeur sont datés d’avril 1969. Lui-même connaissait très bien le
bâtiment puisqu’il en avait suivi la construction. Je suis arrivée au moment des
finitions et ne suis intervenue que sur un point, la consolidation du plancher de
la salle machines qui n’avait pas été prévu pour le poids des nouveaux ordina-
teurs à venir. Pour le prouver il n’a été besoin que de lancer, pour le traverser,
un chariot très lourdement chargé de blocs de ciment. Il est passé au travers
de la dalle. Il a fallu la consolider en toute dernière minute. D’où la forêt de
poteaux qui la soutiennent et surprennent les visiteurs des locaux techniques.
Je n’ai pas promis au personnel du centre de calcul, comme Churchill l’a fait
aux Anglais en 1940, du sang et des larmes, mais beaucoup de travail et de nuits
blanches. J’étais consciente de la tâche qui les attendait. J’arrivais avec une
longue expérience de travail dans un centre de calcul intensif aux États-Unis.
Ma recherche personnelle nécessitait des calculs lourds. Mes contacts de travail
aux États-Unis dans une équipe multidisciplinaire m’amenaient à la conclusion
que beaucoup d’équipes en France devaient avoir les mêmes besoins. Il fallait
les leur faire découvrir. Et depuis cinq ans, je dirigeais le centre de calcul de
l’Institut National d’Astronomie et Géophysique (INAG).
retourne à son laboratoire de Toulouse. Il craint, lui, que « le CNRS n’empiète trop
sur les prérogatives de l’Université et ne finisse par lui dicter ses recherches62. »
Cette mésentente s’attise souvent aux moments de changement de majo-
rité qui amenait des changements de l’équipe gouvernementale. À la fin des
années 80, elle est devenue critique.
« […] les relations entre l’organisme et sa tutelle, le nouveau ministre des
universités confié à Alice Saunier-Seïté sont exécrables, et la ministre n’a,
selon P. Creyssel, qu’une obsession : le CNRS est un gros machin, une grosse
administration 63… »
Les alternances de majorité dans les gouvernements ont entraîné automati-
quement la nomination d’un nouveau directeur du CNRS qui souvent avait sur
la politique de l’institution des vues différentes de celles de son prédécesseur.
Serge Feneuille, en 1987, prend le contre-pied de la réforme préconisée par
Hubert Curien quelques mois plus tôt, mais il entretient lui aussi des relations
exécrables avec son ministre de tutelle Jacques Valade (le mot « exécrable » est
employé pour la deuxième fois par Denis Guthleben) 64. S’il a été autant insisté
sur l’histoire du CNRS, c’est parce qu’il y sera fait référence dans les chapitres
suivants pour montrer que souvent les décisions prises pour le centre de calcul
du CNRS ont été politiques et comment il a su pendant cinquante ans surmonter
les incohérences, gardant pour seul objectif le service aux utilisateurs.
Comment ces problèmes ont-ils évolué dans les décennies suivantes pour les
équipements de l’informatique de service ? Une solution au problème de coha-
bitation constructive des deux institutions dans notre domaine, très longue à
élaborer, a été apportée par la création du GENCI. En revanche, les problèmes
de rémunération du personnel dans le contexte actuel ne sont pas résolus et se
posent d’une manière plus pressante encore avec le besoin de spécialistes très
pointus. Les solutions bricolées qui ont été mises en place au cours des années ne
sont plus suffisantes. De nouvelles doivent être trouvées pour l’avenir.
Le panorama des difficultés qu’a dû affronter le centre de calcul du CNRS
pour devenir ce qu’il est aujourd’hui, un des trois grands centres nationaux, ne
serait pas complet si l’on ne mentionnait pas l’instauration du ticket modérateur,
qui a donné cours à des situations ubuesques qui seront étudiées dans la suite.
Mais l’une d’elles est particulièrement illustrative des difficultés dans lesquelles
des décisions ministérielles mettaient la DIS, censée les faire appliquer dans les
quatre centres financés par le CNRS : IDRIS, CCVR pour sa part de participa-
tion au GIE, IN2P3. À un moment critique de la vie du centre de calcul Vectoriel
(CCVR) installé à Polytechnique, la DIS recevait du ministère l’injonction de
modifier le ticket modérateur dans ses quatre centres. Il s’agissait de comptabi-
liser pour pouvoir les facturer le nombre de pages sortant des imprimantes.
Et il était bien spécifié que cela devait s’appliquer sur la part CNRS du
CCVR alors que plus ou moins officiellement, le calcul y était gratuit pour ses
utilisateurs depuis la création du GIE. La confusion était complète.
Pour avoir une vue d’ensemble de la vie du centre de calcul du CNRS qui, pen-
dant vingt ans, s’appellera CIRCÉ (Centre Interrégional de Calcul Électronique),
il faut non seulement passer en revue les parcs de machines installés, mais aussi
les systèmes d’exploitation disponibles en hardware et software, et cela depuis
soixante ans. Des bouleversements techniques ont fait passer les composants de
la lampe au transistor puis au circuit imprimé, au développement prodigieux.
Les architectures scalaires, vectorielles puis parallèles puis massivement paral-
lèles ont fait évoluer les puissances pour les calculs scientifiques et les volumes
de stockage de données d’une façon exponentielle. Leurs représentations gra-
phiques se font toujours à l’échelle logarithmique. Ceci en attendant les ordina-
teurs quantiques qui donneront « théoriquement » une puissance aussi grande
qu’on veut quand tous les problèmes annexes auront été résolus. Simultanément,
l’explosion de la demande, la formation des chercheurs scientifiques à l’informa-
tique, la banalisation de la mini-informatique et de la micro-informatique, le
développement des réseaux, le travail à distance, l’invasion du numérique dans
la vie quotidienne ont constamment modifié les possibilités de traitement de
l’information dans toutes les formations scientifiques. Mais pour que ces for-
midables avancées techniques soient accessibles aux chercheurs, il faut qu’elles
soient accompagnées d’avancées concomitantes au niveau décisionnel, en ges-
tion des perspectives et des moyens. Or, nous verrons que ce fut une opération
difficile.
Il faut revoir les schémas directeurs, les évolutions proposées, celles qui ont
pu être réalisées, celles qui ont été rejetées et pour quelles raisons. Il faut aussi
examiner les avancées scientifiques que le CIRCÉ a permis d’effectuer. L’idée
fondamentale est qu’un centre de service est un outil indispensable pour faire
une recherche de pointe. Cette idée a été partagée par les directeurs généraux,
et au début, pour aussi longtemps qu’il a été en exercice, par le directeur admi-
nistratif Gabriel qui a été jusqu’à demander quelques leçons particulières pour
mieux comprendre les démarches. C’est C. Gabriel qui m’a introduite auprès
des contrôleurs financiers avec lesquels j’ai toujours eu par la suite des rapports
constructifs. Il était habité par l’idée que l’administration du CNRS était là
pour aider les chercheurs et m’en a fait connaître les rouages dans la mesure où
48 De l’IBM 360/75 au superordinateur Jean Zay
cela pouvait servir mes projets. Mais d’autres instances supérieures n’étaient
pas dans le même esprit et au mieux ignoraient le centre de calcul, avec quelques
rares exceptions comme Messieurs Lagasse, Charpentier, Rocher, Combarnous,
Gagnepain, pour le département Sciences Physiques pour l’Ingénieur (SPI) et
Vermelin pour la chimie. Le centre de calcul avait plusieurs péchés rédhibi-
toires : il coûtait cher et on ne savait pas exactement ce qu’il faisait. Question
rituelle, l’informatique est-elle vraiment une science ? D’ailleurs on ne faisait
même pas de recherche en informatique au CIRCÉ. Alors on ne savait pas dans
quelle discipline le classer. Au début, il a été rattaché aux mathématiques, puis
ce fut au SPI, puis à la Direction de l’Informatique Scientifique (DIS). Celle-ci
rapportait directement à la direction générale et participait au comité de direc-
tion du siège quand il y était question du CIRCÉ, du centre de Strasbourg, de
celui de l’IN²P3, de la participation du CNRS au centre de calcul Vectoriel pour
la Recherche (CCVR), des réseaux et de l’informatique de service en général.
Puis le centre de calcul du CNRS est devenu une Unité de service (USI). Avec
les années, la prise de conscience de son utilité est arrivée au plus haut niveau et
maintenant le CNRS fait partie d’un GIE, le GENCI où les décisions sont prises
au niveau national et de plus en plus au niveau européen.
Comment ces problèmes ont-ils évolué dans les décennies suivantes pour les
équipements de l’informatique de service ? Une solution au problème de cohabi-
tation constructive des deux institutions dans notre domaine, très longue à éla-
borer, a été apportée par la création du GENCI. En revanche, les problèmes de
rémunération du personnel, dans le contexte actuel, n’est pas résolue et se pose
d’une manière plus pressante encore avec le besoin de spécialistes très pointus.
Les solutions bricolées qui ont été mises en place au cours des années ne sont
plus suffisantes. De nouvelles doivent être trouvées.
Avant de commencer l’étude de l’évolution des puissances installées, il faut
préciser quelques définitions et en particulier celle de l’unité de mesure.
3.1 Définitions
Le même ordinateur peut suivant les publications s’appeler calculateur, main-
frame, supercalculateur ou superordinateur et sa puissance peut être exprimée
suivant les besoins en MIPS (millions d’instructions
Nom FLOPS par seconde), en OPS (opération point par seconde)
yottaFLOPS 1024 ou en FLOPS (Floating Point Operations per second)
avec ses multiples (détails dans l’annexe 1).
zettaFLOPS 1021
Un ordinateur central ou un macro-ordinateur
exaFLOPS 1018 (mainframe computer), est un ordinateur de grande
pétaFLOPS 1015
puissance de traitement et qui sert d’unité centrale
à un réseau de terminaux.
téraFLOPS 1012 Un superordinateur ou supercalculateur est un
gigaFLOPS 109 ordinateur conçu pour atteindre les plus hautes
performances possibles (HPC) avec les techniques
mégaFLOPS 106
connues lors de sa conception, en particulier en ce qui
kiloFLOPS 103 concerne la vitesse de calcul.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 49
Nom du ministère
Sigle Nom du ministre Dates
de rattachement
ministère de l’Industrie, du
Commerce et de l’Artisanat
ministère de l’Industrie
MIR Michel d’Ornano août 1976 à mars 1977
et de la Recherche
ministère de l’Industrie
MIR Laurent Fabius mars 1983 à juillet 1984
et de la Recherche
ministère de la Recherche
MRT Hubert Curien Juillet 1984 à mars 1986
et de la Technologie
ministère de la Recherche
MRT Hubert Curien juin 1988 à avril 1992
et de la Technologie
ministère de la Recherche
MRE avril 1992 à mars 1993
et de l’Espace
ministère de l’Enseignement
MESR François Fillon 1993-1995
supérieur et de la Recherche
ministère de l’Enseignement
MESRI supérieur, de la Recherche Claude Allègre juin 1997 à mars 2000
et de l’Innovation
Roger-Gérard
MR ministère de la Recherche mars 2000 à mai 2002
Schwartzenberg
ministère délégué à la
MRNT Recherche et aux Nouvelles Claudie Haigneré juin 2002 à mars 2004
technologies
ministère délégué à la
MR François d’Aubert mars 2004 à mai 2005
Recherche
ministère de l’Enseignement
MESRI supérieur, de la Recherche Frédérique Vidal depuis mai 2017
et de l’Innovation
3.2.5 Architectures
Comme dans tous les grands centres de service pour la recherche, les architec-
tures, scalaire, puis scalaire avec processeur vectoriel, puis vectorielle, puis scalaire
et parallèle, puis massivement parallèle, se sont succédées.
3.2.6 Constructeurs
Les constructeurs qui ont été choisis suivant les époques pour équiper le centre sont
CDC, IBM, Amdahl, NAS, Fujitsu, CRAY, et maintenant HPE. En cinquante ans,
il n’y a eu que deux périodes où le centre n’ait pas exploité parmi ses machines au
moins une IBM. Ce n’était pas la plus puissante du parc. Elle coexistait avec une
machine Bull ou une compatible IBM comme Amdahl ou une machine japonaise ou
un CRAY. Depuis 2019, Blue Gene IBM a été remplacée par HPE 8600.
65 https://fr.wikipedia.org/wiki/Chronologie_des_syst%C3%A8mes_d%27exploitation
58 De l’IBM 360/75 au superordinateur Jean Zay
66 Les nœuds I/O des superordinateurs Blue Gene exécutent un système d’exploitation
différent : le noyau de nœud I/O (INK) est basé sur un noyau Linux modifié.
67 RHEL 6,8 « Red Hat Enterprise Linux » : Operating System Open Source.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 59
100 Linux
90 Unix
80 k.A./ver.
Windows
70
BSD
60
Mac
%
50
40
30
20
10
0
1995
2000
2005
2010
2015
FigureLinux
10 – Transition des systèmes d’exploitation des superordinateurs d’Unix (en
vers Linux (en
)Unix )Linux
k.A./ver. Unix
2010
2015
100
10
1
68 https://fr.wikipedia.org/wiki/Linux
69 https://fr.wikipedia.org/wiki/Chronologie_des_langages_de_programmation
60 De l’IBM 360/75 au superordinateur Jean Zay
Direction du CIRCÉ
Administration &
Intendance
Depuis, les effectifs n’ont cessé de diminuer en nombre, en partie parce qu’il
est toujours aussi difficile d’obtenir des postes avec les qualifications nécessaires
et surtout parce que les technologies de l’information et de la communication
ont considérablement évolué en un demi-siècle. Les machines sont beaucoup
plus fiables. Elles peuvent travailler en mode dégradé en cas de pannes par-
tielles. Beaucoup des tâches de maintenance se font désormais à distance, ce qui
diminue le nombre de personnes présentes sur le site.
L’introduction du travail de saisie des données sur écran a amené la dispari-
tion des mécanographes, la soumission et la récupération du travail à distance,
la disparition du personnel du dispatching. Puis ce sont les opérateurs qui ont
vu leur tâche disparaître avec le pilotage et l’administration des machines à
distance par le constructeur. En revanche, le nombre d’ingénieurs a augmenté,
ainsi que leur qualification. Dans l’ensemble le volume du personnel est passé
de 80 à 50 puis 35.
Les technologies évoluant, l’équipe système, le Groupe de Service aux
Utilisateurs (GSU), l’administrateur du réseau, tout a changé, mais pour tous,
le socle général est resté le même pendant cinquante ans, même si, à l’intérieur
de chaque groupe les tâches ont considérablement évolué.
Un autre changement important pendant cette période, est celui du statut du
personnel qui est devenu fonctionnaire.
Les benchmarks officiels comme Linpack 72 ne sont apparus qu’en 1993 et servent
aujourd’hui à mesurer les puissances de crête des supercalculateurs.
Maintenant la première partie utilise une bibliothèque de programmes en
FORTAN appelée LINPAC pour la résolution d’équations linéaires de n équa-
tions à n inconnues. Le temps de calcul utilisant la virgule flottante est propor-
tionnel à 2n3+n2. Donc il augmente très vite avec le nombre de points traités et
le programme est un très bon test de la vitesse de calcul. Puisqu’il est largement
utilisé, c’est en conséquence un bon test de comparaison des machines Alors que
pour la FFT on a pu passer de n² à nlogn, il a été démontré qu’ici on ne pourra
pas améliorer l’algorithme. Il fait partie de ce qu’on appelle les problèmes mal
posés. L’algorithme utilisé dans MATLAB permet de s’affranchir de la program-
mation en FORTRAN.
Pour suivre les innovations technologiques, les ingénieurs système entre-
tiennent des relations régulières avec les constructeurs, les éditeurs de logiciels
et avec l’opérateur de télécommunication.
Un exemple précis sera détaillé par la suite pour notre premier dossier pré-
senté aux commissions.
72 http://www.netlib.org/linpack/
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 67
73 Rapport sur la politique française dans le domaine du calcul scientifique par Michel
Héon et Emmanuel Sartorius, mars 2005. Inspection générale de l’Éducation nationale et
de la Recherche et Conseil général des technologies de l’information.
Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 69
Depuis soixante ans, une proportion de plus en plus importante des chercheurs
avait bien constaté que dans toutes les disciplines, la résolution des problèmes
de pointe demandait des masses de calcul qui dépassaient les possibilités des
ordinateurs auxquels ils avaient accès. Depuis l’apparition de la virgule flot-
tante, les constructeurs ont mesuré pour leurs modèles les puissances en FLOPS.
Officiellement, IBM les publie en MIPS, mais il en publie quelques-uns en
FLOPS et on trouve les autres en FLOPS dans leurs archives. D’ailleurs, on
peut les calculer en FLOPS avec la formule vue au chapitre précédent.
À partir de juin 1983, paraît deux fois par an en juin et novembre, la liste
des 500 ordinateurs les plus puissants installés au monde. C’est le TOP500, et
pour toute la période précédant sa publication, en juin 1993, nous appellerons
TOP la puissance de la machine la plus puissante du moment depuis le début
de l’apparition de l’informatique, que certains historiens font remonter de plus
en plus loin.
Ce qui suit dans ce chapitre est une comparaison pour la période 1969-2020
des puissances installées au centre de calcul et de celles du TOP. Comparer en
faisant des courbes de régression sur la période entière montrerait qu’il y a eu
une croissance continue, mais ne permettrait pas d’appréhender la vie du centre
et les causes techniques ou autres qui ont été à la source de son évolution. C’est
comme si on faisait l’histoire de la température de la Terre avec une seule droite
de régression depuis le début d’une période glaciaire jusqu’à aujourd’hui. On
dirait que la Terre s’est réchauffée, mais cela ne donnerait aucun renseigne-
ment sur les différentes étapes, périodes de refroidissement et réchauffement,
leurs différentes conditions et causes. Aussi notre étude est faite en distinguant
cinq périodes contiguës dans l’histoire du centre et en traçant les courbes de
régression pour chacune des périodes. Il n’a jamais été question d’installer LA
machine du TOP à Orsay, mais de donner, avec le budget dont on disposait,
un outil adéquat aux chercheurs de n’importe quelle discipline pour traiter leur
sujet de recherche qui demandait du calcul intensif. Pour cela, il fallait que la
courbe de régression du centre de calcul ne s’éloigne pas trop de celle du TOP.
Sinon, pour ces cas, la recherche ne pourrait pas se faire (nous en verrons des
exemples), ou bien le chercheur partait à l’étranger. Cela ne veut pas dire qu’on
72 De l’IBM 360/75 au superordinateur Jean Zay
ne pourrait pas faire de la bonne science. Mais nombre de problèmes parmi les
plus novateurs ne pourraient pas être abordés. Il s’agit par exemple de tous ceux
qui utilisent un algorithme pour lequel le temps d’exécution est proportionnel
à une puissance de N supérieure à 1, N étant le nombre de données à traiter.
74 https://cs.wterloo.ca/-shallit/courses/1234.history.html
75 https://plato.stanford.edu/entries/computing-history/
Évolution des puissances installées au centre de calcul de 1969 à 2020 73
Livermore Loops
Dhrystone Benchmark Linpack Benchmark
Benchmark
NEON-Linpack-MP
MP-Dhrystone Benchmark MP-BusSpeed Benchmark
Benchmark
NEON-MFLOPS-MP
MP-RandMem Benchmark MP-MFLOPS Benchmark
Benchmark
CPU Stress Tests Floating Point Stress Test Integer Stress Test
FPU Plus Integer Tests Errors and False Errors System Details
tique.pdf
81 https://fr.wikipedia.org/wiki/Superordinateur#Historique
82 https://top500.org
83 https://commons.wikimedia.org/wiki/File:Supercomputing-rmax-graph2.svg
Évolution des puissances installées au centre de calcul de 1969 à 2020 75
A. Brenner était alors Deputy director of the computer and software enginee-
ring division of the Institute for Defense Analysis in Alexandria, Virginia. Il
était le responsable des calculs au Fermilab en 1984. Puis, il resta conseiller pour
l’informatique auprès de la Défense jusqu’en 2000 et jusqu’en 2010 historien de
l’informatique 87. Dans son article de 1995, il publie un synoptique classant les
ordinateurs depuis 1955 jusqu’en 1996 (figure 19). Il ne fait pas le graphique des
puissances, mais leurs courbes de régression.
Dans notre étude sur les cinq périodes du centre de calcul d’Orsay, nous étu-
dierons à la fois, les puissances et leurs régressions.
Dans le graphique d’A. Brenner, les puissances de calcul des machines du
TOP sont tracées avec une échelle semi logarithmique. Elles s’inscrivent approxi-
mativement sur une droite. On en conclut que leur croissance est exponentielle.
Sur ces courbes de régression, il porte approximativement les noms des ordi-
nateurs qui en fait s’éloignent peu de cette droite. Mais quel coefficient pour
cette exponentielle ? C’est ici qu’intervient la loi de Moore, ou plutôt, les lois de
Moore. Ce sont des lois empiriques qui ont trait à l’évolution de la croissance de
la puissance de calcul des ordinateurs. La première prédisait un doublement
de la puissance de calcul tous les deux ans. Moore, un des ingénieurs spécia-
listes de semi-conducteurs chez Intel, constata en 1965 que la complexité des
semi-conducteurs d’entrée de gamme doublait tous les ans à prix constant. Et il
extrapolait que cela continuerait. Puis, la technologie de fabrication des puces et
des transistors évolua très vite et en 1975 la prévision du doublement à deux ans
fut réduite à 18 mois. Maintenant la vitesse de calcul d’un ordinateur dépend
de nombreux facteurs en plus de la densité de transistors sur une même puce.
Ce facteur devient critique à cause de son coût et du dégagement de chaleur.
Il est tel, qu’aujourd’hui certains centres de calcul se chauffent avec la chaleur
87 Les papiers d’Alfred E. Brenner, qui datent de 1962 à 2010, contiennent des docu-
ments techniques et commerciaux relatifs aux ordinateurs à haute performance.
NSF HPC program HPCC program
AA Sabre Arpanet Ethernet Bitnet Internet ISDN ATM
Brooks bill AT&T divestiture NII Telecom reform
FORTRAN BASIC UNIX DES Visicale WWW Mosaic
1955 1960 1965 1970 1975 1980 1985 1990 1995 2000
Cray T90 $12M
105
Cray C90 [Structural biology]
Figure 19 – Régression des croissances du TOP ordinateurs de 1955 à 1996 (© National Navy Laboratory, USA, libre de droits)
78 De l’IBM 360/75 au superordinateur Jean Zay
dégagée par leurs ordinateurs 88 et qu’IBM fait des recherches sur des puces
fonctionnant à la température de l’hélium liquide. D’autre part, les ordinateurs
les plus puissants sont souvent assemblés à l’unité. Ce qui est important dans
notre étude est de trouver pour le TOP500 et le centre de calcul l’évolution du
facteur de croissance de la puissance de calcul mesurée avec LINPACK 89 ou avec
ses prédécesseurs. Nos benchmarks comportaient, en plus, un test sur le temps
d’exécution d’un flux de travaux représentatif de notre exploitation et exécuté
avec nos priorités. C’est ce facteur de croissance que nous allons étudier.
La première utilisation qu’on peut faire de la méthode est la prolongation de
la droite de régression effectuée par le National Navy Laboratory à Washington,
qui l’a extrapolée jusqu’en 2030 en faisant des spéculations sur le calcul de haute
performance (High Performance Computing) :
88 La chaleur dégagée par les ordinateurs de l’IDRIS est tellement grande qu’un accord
vient d’être signé permettant sa récupération pour chauffer tous les bâtiments de l’en-
semble universitaire Paris-Saclay sur le plateau. C’est l’équivalent de ce qu’il faudrait pour
chauffer 1000 logements.
89 Le LINPACK est un test de performance qui sert à classer les ordinateurs les plus puis-
sants. C’est une bibliothèque de fonctions FORTRAN utilisées pour résoudre un système de
n équations et à n inconnues. Le temps de calcul croit avec n suivant la formule : 2/3 n3+n².
Évolution des puissances installées au centre de calcul de 1969 à 2020 79
Figure 21 – Extrapolation des courbes de croissance de Brenner (© National Navy Laboratory, USA, libre de droits)
80 De l’IBM 360/75 au superordinateur Jean Zay
90 Dans son document, J.-M. Gourio présente une chronologie de 1955 à 2010. https://www.
iutbayonne.univ-pau.fr/~dalmau/documents/cours/archi/Parallel2010.pdf
Évolution des puissances installées au centre de calcul de 1969 à 2020 81
Taille du
Type équipe- Puissance NB Compléments
Date mot en
ment MF MIPS CPU d’informations
bits
Déménagé depuis la rue
CDC 3600 0,3 48 1 du Maroc à Orsay, ordina-
1969-1972 teur à bandes
Première installation à
IBM 360/75 0,94 32 1
Orsay
Augmentation de la
IBM 370/165 2,7 32 1
mémoire à 3 MGo en 1973
1972-1974
décembre 1973 arrêt IBM
IBM 370/155 0,47 32 1
370/165
1974-1980 IBM 370/168 3,1 1
IBM 370/168 3,1 1
1976-1980 IBM 158 remplacé par un
IBM 370/168 3,1 1
second 168
Amdahl V7 Remplace le
1980-1983 Amdahl V7 5,5
premier 168
Amdahl V7 5,5 1 Arrêt du V7 en 1986
1983-1984 NAS 9060 puis NAS 9080 Frontal du
11,5 2
9080 CRAY 1 de la CISI
IBM 3090 200 Frontal du
IBM 3090 200 52 267 1
CRAY 2 CCVR en 1987
1984-1988 NAS 9080 21,5 2
Bull DPS /62 Multics
DPS8/62 M 1,5 2
opérationnel
IBM 3090 600, upgrade
IBM 3090 600 du 200 devient Frontal
134 800 6
+ VF du CRAY 2 XMP du
CCVR
1988-1990 Arrêt du Bull DPS 8 en
DPS8/62 M 1,5 6
1990
NAS 9080 21,5 2 Arrêt du NAS en 1990
VP-200 533 2 Supercalculateur vectoriel
IBM 3090 600 IBM 3090 600 VF arrêté
134 800 6
+ VF le 31.12.1993
1990-1993 TOP500 06/1993 Rang
VP-200 533 2 476 Pic théorique 533
MFLOPS
CRAY Y-MP
1993 8000 1 Création IDRIS
C90/8
Méthode de l’étude
Période 1969-2020
Un premier examen de ces deux graphiques montre que les puissances instal-
lées sont toujours inférieures à celles du TOP mais les tendances ne décrochent
pas. C’est dans la période 1980-1989 que les taux de croissance ont été le plus
voisins. De 1989 à 1992 a eu lieu une période de stagnation. Puis les puissances
installées et celles du TOP ont repris une évolution presque parallèle avec des
coefficients plus élevés tenant aux changements de technologie.
Bien entendu cette structure a évolué. Les effectifs relatifs des groupes ont
changé. Des services comme les réseaux sont venus se greffer. Mais les objectifs
principaux, qui ont bien été précisés dès l’origine ont perduré au fil des évolu-
tions. À l’inauguration du supercalculateur, Jean Zay, il a été rappelé que le
centre de calcul est un centre de calcul pour la recherche. Ce n’est pas un centre
de recherche.
Un constat s’est imposé qui est toujours valable après cinquante ans. Dès
l’installation d’une nouvelle machine, la puissance offerte est toujours inférieure
à celle qu’exigerait la résolution d’un des problèmes de pointe du moment. En
1969, l’un d’eux était la détermination de la pression à la surface de la planète
Mars grâce à des simulations et traitement de données tributaires de la trans-
formée de Fourier. Il aurait pris des années de temps machine. En 2020, lors de
l’inauguration du Jean Zay, c’est un chercheur en sciences humaines qui explique
que son problème demanderait 3000 heures du nouvel ordinateur installé.
La période de 1969 à 1990 sera traitée dans les quatre chapitres qui suivent.
Elle a vu l’émancipation de quelques équipes qui, après formation, ont pu traiter
en local une partie de leurs besoins. L’équipe technique a été, et reste toujours
de nos jours, en formation continue avec les constructeurs et d’autres centres
étrangers, pour anticiper l’apparition dans le paysage informatique des machines
toujours au fait de l’état de l’art en matière de calcul scientifique. Nous traite-
rons successivement de l’évolution des machines installées dans cette période,
du personnel qui les a servies, des projets qui n’ont pas abouti avec les causes
de ces échecs, des rapports de la direction du centre avec ses autorités de tutelle
et l’Enseignement supérieur.
Une étude détaillée de cette comparaison sera faite dans le chapitre 7 qui
traite de l’histoire parallèle du centre et les résultats présentés dans la figure 72,
p. 159.
Enfin et surtout, un bilan sera dressé des résultats scientifiques obtenus.
Chapitre 5
Période 1969-1972
La période 1969-1981 est celle pendant laquelle le CIRCÉ s’est affirmé dans la
panoplie d’outils pour la recherche. Elle a été à la fois enthousiasmante mais
difficile et riche d’enseignements.
Que se passait-il dans le monde informatique mondial en 1969, au moment
où démarrait le CIRCÉ, et dans la décennie suivante ?
Il existe, nous l’avons vu, de très nombreuses histoires de l’informatique. L’une
d’elles, déjà citée, (https://fr.wikipedia.org/wiki/Superordinateur#Historique),
est particulièrement intéressante : elle retrace, année après année, l’émergence
des idées nouvelles qui ont conduit à l’informatique d’aujourd’hui.
« 1940 : pour décrypter les messages de l’armée allemande, les Anglais mettent
au point sur le site de Bletchley Park les calculateurs Robinson et Colossus sous
la direction du mathématicien Alan Turing. Ce sont les premières machines
qui intègrent les concepts d’arithmétique binaire, d’horloge interne, de mémoire
tampon, de lecteurs de bande, d’opérateurs booléens, de sous-programmes et
d’imprimantes. Tout ceci restera inconnu car “Secret défense” jusqu’en 1975. »
C’est avec la machine ENIGMA que le problème de décryptage est résolu.
Il y a cinquante-sept ans, en 1963, au MIT, est développé le premier logiciel gra-
phique interactif utilisant un stylo optique pour faire sur écran des dessins techniques.
L’année 1964 est particulièrement riche en avancées. Chez Control Data
Corporation (CDC), Seymour CRAY lance le CDC 6600 et une bataille commerciale
commence avec IBM qui annonce une machine qui ne sera en service que quelques
mois après, l’IBM 90. La bataille continue quand CDC met en service la 7600. C’est
aussi en 1964 qu’après FORTRAN, IBM lance le langage de programmation PL/1
(Programming Language 1).
En mars 1964, IBM lance la série des 360 et inaugure le concept d’une lignée
d’ordinateurs compatibles entre eux. Cette série est un grand succès commercial.
Un autre grand projet voit le jour. Le MIT avec General Electric et les Bell
Laboratories s’investissent dans le projet MULTICS, avec un prototype de nouvel
ordinateur et d’un nouveau système d’exploitation pour ordinateur, parfaitement
fiable, capable de tourner 24h/24, 7j/7, utilisables par plusieurs personnes à la
fois, et capable en même temps de faire tourner des travaux en tâche de fond. Des
étudiants du Dartmouth College créent le langage BASIC (eBeginners All Purpose
Symbolic Instruction Code).
100 De l’IBM 360/75 au superordinateur Jean Zay
Les calculs de régression ont été faits avec EXCEL qui donne la formule de
la courbe de régression. Pour le centre de calcul on relève a = 0,1656 b = 7,088
d’où un coefficient multiplicatif de exp(0,1656) = 1,179.
Il y a deux conclusions :
y la période a été bien choisie car les droites de régression ne s’écartent pas
beaucoup des valeurs installées. Il n’y a pas de décrochements ;
y les puissances en un an ont été en moyenne multipliées par 1,179 pour le
centre de calcul et 1,235 pour le TOP, soit pour la loi de Moore un coefficient
d’augmentation de 1,39 pour le centre et 1,52 pour le TOP en deux ans.
Cette période sera divisée elle-même en deux parties. La première jusqu’en
1972 est celle du démarrage. La seconde de 1972 à 1980 incluse est celle de la
tentative pour instaurer un régime de croisière dans un environnement méfiant.
Ces années ont été celles de l’installation et de la confirmation du centre de
calcul. Il s’est construit autour de sa devise : centre de service où les chercheurs
de toutes les disciplines trouveront la possibilité de faire les calculs dont ils ont
besoin et qu’ils ne peuvent pas faire ailleurs. Elle était gravée dans le marbre et
tout le personnel l’a faite sienne.
Cette période décisive de mise en place de la structure a permis au centre de
remplir son objectif de service. Les résultats en calcul intensif sont arrivés très
vite, en chimie théorique, dynamique des fluides, spectroscopie et traitement
de données astronomiques. En effet les chercheurs étaient prêts et ont immé-
diatement commencé à faire au CIRCÉ les calculs qu’ils faisaient auparavant à
l’étranger faute de moyens chez eux. Beaucoup, à cette époque, avaient travaillé
à l’étranger sur du matériel IBM. De sorte que, un an après l’ouverture, 1000
utilisateurs appartenant à 250 laboratoires étaient recensés et soit faisaient du
calcul intensif, soit s’initiaient à l’informatique, tous sous la houlette du service
d’assistance aux utilisateurs. Après que les bases ont été posées et consolidées,
le régime de croisière s’est instauré. Cela ne veut pas dire que tous les problèmes
aient été résolus. Au contraire, ils commençaient. Mais le bateau était lancé. Il
survivra aux tempêtes.
Il a déjà été dit qu’au centre de calcul les documents concernant cette époque
avaient été détruits. Il en reste cependant quelques-uns, épars, en particulier un
exemplaire d’une plaquette présentant le CIRCÉ datant de 1970 à usage de ses
utilisateurs. Elle rend sensible le fait que, à sa création le CIRCÉ avait deux
catégories d’utilisateurs. Les uns avaient des programmes qui utilisaient toutes
les ressources de la machine, qu’ils satureraient volontiers. Les autres abor-
daient l’informatique et il fallait leur expliquer ce qu’étaient, un mot, un octet,
la mémoire vive, les mémoires auxiliaires etc. Faire coïncider ces deux mondes
et qu’ils soient satisfaits tous les deux était un difficile travail d’équilibriste. La
plaquette est touchante, parce que non seulement c’est un cours d’informatique
pour débutants, mais parce qu’elle tente de faire comprendre l’engagement de
tout le personnel 91. Son style marque une époque.
Et ça a marché ! Non seulement, nous l’avons vu, pour les utilisateurs
extérieurs, mais pour les sciences humaines. C’est le centre de calcul qui est
devenu le centre de rencontre des diverses spécialités de sciences humaines qui
se côtoyaient pour les premières fois.
5 .2 .1 Matériel
On retrouve beaucoup de ces renseignements techniques dans la première pla-
quette du CIRCÉ 94.
À sa création, le centre de calcul dispose du parc de machines suivant :
− un ordinateur 3600 Control Data « diskless » (à bandes magnétiques) ;
− un IBM 360/50, mémoire 512KB, cycle 2000 ns, environ 0,3 MIPS ;
− un IBM 360/75, mémoire 1MB, cycle 750 ns, environ 1 MIPS.
93 https://fr.wikipedia.org/wiki/IBM_360_et_370
94 Plaquette CIRCÉ de 1972.
Période 1969-1972 105
Figure 37 – Cheminement des travaux dans l’ensemble 360/50, 360/75 travaillant sous
MVT/ASP
108 De l’IBM 360/75 au superordinateur Jean Zay
96 Chaque lame contient des nœuds de calcul CPU ou 1 nœud de calcul CPU+GPU.
97 Les nœuds comprennent deux processeurs (ou sockets), et pour les nœuds GPU,
4 cartes graphiques accélératrices (GPU).
98 Chaque processeur est constitué de plusieurs cœurs physiques.
Période 1969-1972 109
5.2.5 Télétraitement
À l’ensemble 360/50 et 360/75 étaient reliés des terminaux. Les uns, dits
lourds ou passifs, au nombre de 4, ne faisaient que lire les cartes, les transmet-
taient à la file d’attente et restituaient les résultats. Les 24 autres, gérés par
110 De l’IBM 360/75 au superordinateur Jean Zay
99 Le système CRBE a été développé en interne par les ingénieurs système du CIRCÉ
et a été remplacé par TSO.
100 Les trois-huit ou 3×8 sont un système d’organisation d’horaires de travail qui consiste
à faire tourner par roulement de huit heures consécutives trois équipes sur un même
poste, afin d’assurer un fonctionnement continu sur 24h. Chaque semaine, les équipes
changent de tranche horaire.
Période 1969-1972 111
5 .2 .7 Problèmes de logistique
Des problèmes de logistique ont dû être résolus avant l’ouverture du centre aux
utilisateurs. Le centre était une copie de celui du JPL, mais ce dernier était situé
dans un très grand campus où étaient installés tous les services annexes néces-
saires à des chercheurs ayant des horaires décalés et quelquefois travaillant 24 h
d’affilée. Notre « usine à calcul » était et est toujours logée sur le territoire de
la faculté Paris-Sud, appelée le plateau, reliée à la vallée par une route sinueuse.
Une annexe de la cantine y ouvrait pour les laboratoires du plateau entre 11 h 30
et 14 h. En 1969, nous n’avions pour voisins que quatre laboratoires distants les
uns des autres d’une centaine de mètres et dont le personnel travaillait à des
heures normales. Il y avait bien des chercheurs qui travaillaient quelque fois la
nuit, mais ils étaient discrets. En dehors de ces heures, bordé d’un côté par la
forêt toute proche et à la limite de champs de blé, la zone construite du plateau
était un désert complet, loin de toute activité. Il est difficile d’imaginer le pla-
teau d’alors au moment où on y construit le campus Paris-Saclay avec ses seize
grues géantes, et un service d’autobus qui le dessert et bientôt un métro. Mais
en 1969, il fallait bien que le CIRCÉ vive.
Aussi a-t-il fallu dès l’ouverture organiser un service de navettes avec deux
chauffeurs, matin et soir pour le personnel et les utilisateurs. Au second étage,
ont été aménagées deux pièces communicantes pompeusement appelées café-
téria, ouvertes au seul personnel. Une personne de service, appartenant à la
société de nettoyage, s’y tenait pendant les heures ouvrables pour servir un café
à ceux qui voulaient faire une courte pause ou au retour de la cantine. C’était
une salle de réunion informelle, où elle préparait une simple collation à ceux
qui n’avaient pas le temps d’aller à la cantine. Elle faisait avec le chauffeur les
112 De l’IBM 360/75 au superordinateur Jean Zay
quelques courses nécessaires. Quand elle n’était pas en service, la cafétéria res-
tait ouverte au personnel. Les opérateurs disposaient d’un grand réfrigérateur
pour leurs provisions. Ils y prenaient leurs repas de nuit et leur petit déjeuner
avant de repartir le matin avec le chauffeur à la gare du Guichet à Orsay, la
première équipe de jour ayant déjà été amenée à pied d’œuvre 101.
101 La copie du centre du JPL avait été jusqu’à celle du mobilier de la cafétéria. Elle était
décorée de photos de Mars à côté de superbes fractales.
102 Wladimir Mercouroff, Témoignage : « L’informatique dans l’enseignement et au
Le rôle de cette assemblée grandira avec les années. Trois comptes rendus
de réunion de ces comités ont été retrouvés et seront discutés à leur place
chronologique.
5.3 Le système
Les dix ingénieurs système étaient soumis à un régime très dur, car les machines
d’alors tombaient souvent en panne, matériel ou logiciel. Un, ou si nécessaire,
plusieurs ingénieurs de maintenance du constructeur étaient sur place nuit et
jour. Mais les ingénieurs CIRCÉ connaissaient les travaux en attente au moment
de la panne. Ils avaient les éléments pour identifier l’origine de la panne : détec-
tion d’une erreur système imputable au constructeur ou due à des modifications
du constructeur ou du personnel.
est constaté qu’en moyenne, une année est nécessaire pour qu’un jeune ingénieur
devienne opérationnel au sein de l’équipe.
Compte tenu de la complexité de l’OS des grands systèmes IBM, MVT puis
MVS, et de l’ampleur des tâches à accomplir, chaque ingénieur se charge d’un
domaine fonctionnel tel que :
− OS/MVT : performances et mise à niveau des versions successives du
système, dimensionnement des configurations CPU, mémoire et unités de
stockage de données ;
− VM : environnent pour analyse et tests des nouvelles versions ;
− ASP : traitement par lots ;
− Temps partagé : connexion et choix des terminaux.
Pour suivre les innovations technologiques, les ingénieurs système entre-
tiennent des relations régulières avec les constructeurs d’ordinateurs, les édi-
teurs de logiciels et les opérateurs de télécommunication et constructeurs de
terminaux.
En cas d’incidents complexes entraînant l’arrêt des services, l’équipe sys-
tème est sur le pont pour analyser de bout en bout la situation. Elle effectue
les réparations logicielles afin de rétablir le service dans les meilleurs délais.
Il se peut que des correctifs soient attendus du constructeur pour corriger
définitivement l’incident. En attendant, l’ingénieur système développera une
procédure de contournement (Bypass) de l’erreur pour assurer la continuité
des services.
En cas de pannes matérielles, c’est la maintenance du constructeur qui inter-
vient suivant les modalités du contrat.
Chaque année la direction missionne des membres de l’équipe système pour
assister aux réunions des utilisateurs scientifiques de grands systèmes IBM. Ce
sont les associations :
− Share aux États-Unis ;
− SEAS en Europe.
Les réunions sont programmées deux fois par an, sur la côte Est et la côte
Ouest des États-Unis alternativement pour le Share. Elles comportent des
118 De l’IBM 360/75 au superordinateur Jean Zay
108Le LINPACK est un test de performance servant à classer les plus puissants superor-
dinateurs du monde dans le TOP500.
Période 1969-1972 119
De plus, des suggestions formulées par les utilisateurs et les réponses données
par les responsables des services du centre sont publiées dans la revue Interface.
Un exemple de sommaire est donné ci-dessous.
C’est à la suite des années 1969-1972 que le centre s’est affirmé et s’est aguerri
car il a dû lutter pour ne pas dévier de ses objectifs : devenir et rester le centre
de calcul intensif où on fait ce qui ne peut pas se faire ailleurs. Et aussi le lieu
où l’on initie à l’informatique des disciplines qui jusqu’à présent n’étaient pas
utilisatrices. Commença dès la création ce que Pierre Papon appellera plus tard
« la bataille du centre de calcul ». Celle-ci s’est déroulée sur deux fronts : d’un
côté renoncer au meilleur choix technique, faute de crédits et faire face à l’hos-
tilité d’instances qui redoutaient de nous voir devenir « trop gros », de l’autre
maintenir l’enthousiasme des chercheurs et celui du personnel, dont il était pri-
mordial de soutenir la motivation.
Les trois tableaux suivants donnent une idée générale de l’évolution des
matériels et des logiciels d’exploitation dans cette période. Elle sera commentée
année par année. Les problèmes de recrutement et de formation des équipes qui
l’ont servie, seront évoqués. Son étude ne serait pas complète sans un récapitu-
latif non exhaustif des résultats scientifiques qu’elle a permis.
Le synoptique ci-dessous extrait de la figure 29 montre l’évolution des
matériels.
PA R C M A C H I N E S C I R C É P É R I O D E 1 9 6 9 - 1 9 8 4
14
11.5
12
10
8
5.5 5.5
6
Puissance Mips
IBM 370/165
IBM 370/155
IBM 370/168
IBM 370/158
IBM 370/168
IBM 370/168
Amdahl V7
IBM 370/168
Amdahl V7
DPS8/62 M
CDC 3600
Plus précisément :
Annoncée pour fin 1973, elle a été différée par les PTT jusqu’au début mars.
Après quelques tâtonnements, les premières liaisons ont bien marché. Mais dès
qu’il y en a eu plusieurs, elles se sont perturbées mutuellement. Les choses n’ont
pas été facilitées par l’intervention nécessaire de plusieurs services PTT qui
s’ignoraient ou s’opposaient.
Et les retards dus aux pannes s’accumulaient sans pouvoir être vite comblés.
Les utilisateurs des terminaux ASP ont ainsi traversé une période où ils ne
savaient plus quoi ne fonctionnait pas du 168, d’ASP, des modems ou de la ligne,
Le résultat étant toujours le même : pas de service.
Ainsi, pendant trois mois, le service fourni par le CIRCÉ a été considérable-
ment perturbé. Cela a été ressenti d’autant plus vivement que le 168 a remplacé
un 165 dont le matériel et le système fonctionnaient bien 24h/24, 7j/7. Étant
à peine plus puissant que le 165 (unité centrale 15 à 25 % plus rapide, unités
périphériques identiques), le 168 a tourné à pleine charge dès les premiers jours :
1540,5 heures de production effective sur un trimestre, soit 514,5 heures par
mois, c’est près de deux fois plus que de nombreux ordinateurs installés depuis
plusieurs années. Dans ces conditions, on rencontre plus rapidement des cas
d’utilisation très particuliers qui mettent en évidence une panne du matériel
ou du système comme c’est le cas lorsqu’on dispose d’une réserve de puis-
sance à l’installation d’un nouveau matériel. Fin avril, les problèmes matériels
étaient progressivement descendus à un niveau normal. L’unité centrale semblait
saine, les unités périphériques fonctionnaient correctement. Bien que les canaux
paraissaient encore le point faible, l’ensemble de la configuration avait atteint
un régime de croisière correct.
113 Compte rendu du conseil de direction du 17 décembre 1976, p. 13, Archives de la DIS.
Période 1972-1981 133
plus puissant et que l’on puisse régler les problèmes de financement (par
autofinancement ou par coût constant), tous les problèmes actuels de nature
politique empêcheraient de le faire. »
C’est exactement ce qui s’est passé en 1979, 1981 et 1989.
Tout l’avenir du centre de calcul est contenu dans la conclusion de ce comité
de direction de décembre 1976. Pendant dix-sept ans, le centre de calcul aura à
se battre, jusqu’à ce que, poussé par la pression d’éléments extérieurs, il puisse,
jusqu’à aujourd’hui, poursuivre la mission pour laquelle il a été créé. Arrivé
à ce point de la discussion, j’ai rappelé une proposition faite depuis plusieurs
années : celle de créer en province un CIRCÉ 2 (annexe 9).
« Nous avons soumis, depuis un certain temps, une proposition de création
d’un CIRCÉ 2 qui devrait être équipé de matériel français. »
Mais on prévoit des oppositions, car ce serait augmenter les capacités de
calcul du CNRS.
115 Annexe 1.
Période 1972-1981 135
Or, dans la pratique, c’est cette appartenance du centre qui pose problème
à l’Enseignement supérieur et fait que dans le labyrinthe des commissions infor-
matiques, il met quelquefois son véto aux projets d’agrandissement du CIRCÉ,
bien que celui-ci ne soit pas sous son autorité. C’est en vue du passage devant
les commissions que le rapport remis à la commission au ministère, pour un
changement de machine, en fin de décennie, est composé de trois parties 116,
Financement
En 1978, la prévision du ticket modérateur, qui s’est révélée juste permettra
au CIRCÉ de contribuer aux dépenses de location et de maintenance (donc,
participation de l’achat déjà réalisé du 168 et à l’achat proposé de ses canaux et
La dotation directe du CNRS pour les ordinateurs du CIRCÉ est passée donc
de 19,1 MF en 1978 à 9,61 MF et 7,63 MF en 1980, cette diminution résultant
de l’achat de la première unité centrale 168, et des opérations de replacement
de périphériques.
Terminaux conversationnels
− 17 terminaux DIABLO
− 12 terminaux MEMOREX 1377
− 18 terminaux IBM 2741 - 3277 - 3287 - 5110 72CMC
− 5 terminaux HAZELTINE 1500 - 2000
− 17 terminaux TEKTRONIX 4006 - 4010 - 4012 - 4013 - 4014 - 4051 et
4081
− 10 terminaux I.T.T.
− 2 terminaux IMLAC TITN
− 2 terminaux DIGITAL
− 7 terminaux ANDERSON JACOBSON
− 1 terminal OLIVETTI TE 318
− 3 terminaux TÉLÉTYPE
− 11 terminaux TEXAS
− 1 terminal H.P. 30
− 1 terminal SETELEM
− 1 terminal DIGI-LOG
− 3 terminaux DELTA - WANG
− 1 terminal MODULAR ONE
− 2 terminaux REGENT - ADDS
− 1 terminal TERMINET 300
− 1 terminal DIGIT LA 36
− 1 terminal TEKTRONIX
− 1 terminal TELERAY
− 1 terminal TELETYPE
Soit un total de 119 terminaux conversationnels.
Période 1972-1981 141
Tout le centre était une ruche de formation à tous les niveaux, formation de
la direction, formation du personnel, formation des utilisateurs, formation des
dirigeants d’autres centres de calcul et de personnel pour ces centres.
Delouis, mais surtout où tous ont beaucoup appris. L’important était de ne pas
laisser passer un autre train sans monter dedans, le rôle d’un centre de calcul ne
se limitant pas à l’installation de matériel.
118 Note de l’auteure : Les membres restants de l’équipe de la première décennie sont
restés tellement soudés par leur aventure, qu’ils continuent de se réunir actuellement, et
même faire des voyages communs, bien que leur travail les ait transportés vers d’autres
horizons.
150 De l’IBM 360/75 au superordinateur Jean Zay
une copie intégrale de sa collaboration avec Kenneth Wilson qui utilisait aux
États-Unis les premiers array processors. Mais précisément à cause des liens
serrés et intimes que nous avions liés avec eux, nous leur avons épargné le récit
de toutes les mesquineries dont le centre était la cible. Ils ont quelquefois eu du
mal à comprendre des décisions absurdes que nous étions contraints de prendre
brusquement et qui contrastaient avec toutes les études que nous avions menées
avec eux. C’était assez que nous perdions notre temps, sans qu’ils perdent aussi
le leur. Nous ne les avons fait intervenir directement dans nos transactions poli-
tiques, qu’en dernier recours, quand c’était vraiment indispensable.
Il suffisait qu’ils comprennent que le personnel avait le même but qu’eux :
faire avancer la recherche. Avant de répondre à un appel d’offres ou d’envisager
une nouvelle application, ils venaient en débattre avec les diverses assistances
et nous-mêmes. C’était pour eux s’assurer que notre organisation du centre de
calcul, leur permettrait de remplir leurs engagements.
Mais il y a une autre réalité moins réjouissante. Comme il a déjà été écrit :
« On aurait pu faire beaucoup mieux et pour beaucoup moins cher, et on
aurait su le faire. Tout était prêt. »
Le constat est sans appel. À sa création en 1969, le CIRCÉ était le centre
d’informatique de service le plus puissant d’Europe. Une décennie après, il est le
seul centre d’Europe à ne pas avoir remplacé son 168 par un 3033 plus puissant
et moins cher. Quand il propose en 1980 d’installer un CRAY 1, il y en a déjà
11 installés dans les universités européennes et il lui sera refusé.
Comment expliquer cette régression ? Une mauvaise direction ? De mauvais
choix ? En France, on est très fort pour ce genre d’introspection qui cherche des
excuses a posteriori. On s’est posé et on se posera toujours les questions :
− Pourquoi l’Institut Blaise Pascal a-t-il été un échec ?
− Pourquoi le plan calcul n’a-t-il pas répondu aux attentes ?
− Pourquoi le CIRCÉ n’a-t-il pas remplacé son 168 existant par un 3033
plus performant et moins cher ?
− Pourquoi, malgré tous ses efforts, n’a-t-il pas installé un CRAY dès la fin
des années 70 comme dans tous les centres homologues en Europe ?
Dans les décennies qui ont suivi celle de la création, quelques directeurs
généraux, des ministres de la Recherche, de l’Industrie, de l’Enseignement supé-
rieur, inquiets du sentiment naissant d’un décalage par rapport à l’étranger, ont
demandé à des chargés de mission, à des groupes de travail, à des personnalités
reconnues, de leur faire un état des lieux et des propositions pour l’informatique
en France, comme si la rumeur d’un problème arrivait jusqu’à eux. Mais l’objet
de la requête a été interprété différemment, suivant le passé, la discipline ou
l’institution à laquelle appartenait celui qui la recevait. Tous ont été très cri-
tiques de l’état existant, mais pour des raisons différentes, et leurs propositions
étaient souvent antagonistes. En général, l’informatique de service ne faisait pas
l’objet de leurs préoccupations majeures et certains dans les ministères l’igno-
raient ou pire l’accusaient de tous les maux. En revanche, tous étaient d’accord
pour mettre en exergue deux des handicaps contre lesquels nous avons eu à nous
battre dès la création : l’inadaptation, pour nous, du matériel français et celle du
ticket modérateur telle qu’elle nous était imposée. Dans le chapitre Comprendre
L’histoire parallèle du centre de 1969 à 1975 151
de son rapport de 1983, J. Yoccoz 119 parle des multiples causes de notre retard
en général et donne son point de vue sans vouloir polémiquer :
« Mais il importe plus de chercher à les expliciter au mieux que de les
démêler pour pointer d’inintéressantes responsabilités. »
Il serait ridicule de vouloir refaire l’histoire ou de discourir sur ce qu’on
aurait dû faire ou d’émettre des jugements. La seule chose utile et rationnelle
est de montrer par l’analyse ce qui s’est effectivement passé pendant cinquante
ans dans un centre de calcul qui se débattait face aux difficultés qu’ont pointées
tous les rapports ultérieurs et à celles que tous ces rapports ne soupçonnaient
même pas. L’analyse aura deux objectifs principaux. Le premier, c’est rendre
sensible la vitesse à laquelle l’équipe technique et les utilisateurs ont intégré à la
fois, ce que leur apportait le calcul scientifique, mais aussi la somme de travail et
l’investissement individuel qui en découlaient pour eux. C’est très important et
nous allons le détailler. Le second est de montrer que le caractère inéluctable du
besoin de calcul intensif n’a pénétré que lentement nos autorités de tutelle. Le
Centre s’est tiré de toutes ses difficultés grâce à l’opiniâtreté de ses directeurs et
de son équipe technique, sans laquelle rien n’aurait pu être fait. Cette aventure
a tellement marqué et soudé les premières équipes que leurs membres restants,
bien que dispersés, ont continué, jusqu’à très récemment, à se réunir annuelle-
ment et même à organiser des voyages en commun (jusqu’au Japon). Car c’est
une histoire qui finit bien. Il a fallu quarante ans pour que l’outil calcul accède
dans les textes officiels au rang de grand instrument et cinquante pour que lui
soit confirmée sa place particulière dans la panoplie d’ensemble d’outils pour la
recherche de pointe en Europe, avant qu’il n’en devienne le fer de lance.
À la fin des années 70, on en était loin. L’installation en 1969 d’une usine à
calcul fonctionnant sans interruptions a créé dans la communauté un sentiment
de stupeur et d’incompréhension qui a mis des décennies à disparaitre. La stu-
peur a encore été plus grande de voir le centre saturé en six mois. Toutes les
précautions avaient pourtant été prises pour rassurer en affirmant que surtout il
ne s’agissait pas de toucher à ce qui existait, marchait bien, et devait continuer
à fonctionner sans changement, tels le centre de calcul de la Physique Nucléaire
(CCPN) de l’IN2P3 ou le centre de calcul de la faculté Paris-Sud (PSI). Les
autorités de tutelle, autres que le directeur, ont été mises devant le fait accompli
et ont mis bien des années à être converties. Ce qui est intéressant à montrer,
c’est comment le centre a lutté mois après mois, année après année, à certaines
époques jour après jour et par quelles étapes il est passé pour remplir la mission
qui lui avait été confiée. Pourquoi est-ce intéressant ? Parce que cette lutte a
laissé des traces, mais que c’est une belle histoire pour le CNRS. Il lui a été
reproché d’avoir raté tous les tournants en informatique, de ne pas avoir tiré
de leçons de ses échecs en la matière. Au moins a-t-il été pionnier, en France,
dans la mise en service d’une usine de calcul intensif pour toutes les disciplines,
à mesure qu’elles en ont découvert l’absolue nécessité. C’est-à-dire connaître
suffisamment bien les besoins des utilisateurs, pour qu’une veille technologique
120 Denis Guthleben, Histoire du CNRS de 1939 à nos jours, septembre 2013, éditions
notre entreprise, qu’il aurait fallu faire dans une formation antérieure. Mais là il
n’y avait plus le temps d’apprendre. Plongés dans le problème, il fallait trouver
les solutions immédiatement.
Philippe Salzedo est devenu un maître en la matière. Il a transformé en outil
de gestion le ticket modérateur qui, tel qu’il était conçu dans notre environne-
ment était un désastre. Il s’est ingénié à trouver des matériels compatibles à des
prix tels qu’ils rentraient dans le budget abondé par les recettes. C’était une
acrobatie qui demandait beaucoup de travail de toutes les équipes toujours en
perpétuelle installation pour maintenir la qualité du service. Moyennant quoi, il
n’avait pas besoin pour augmenter la puissance ou les volumes de stockage de
demander des augmentations de crédit dont il savait qu’elles lui seraient refu-
sées. Dès les premiers mois, la direction du centre savait bien qu’il y aurait une
part de travail « administratif ». Mais j’ai dû intégrer, dès l’installation, que
notre tâche serait divisée en deux parties distinctes. La première consistait à
faire fonctionner le centre à la satisfaction des utilisateurs, avec le meilleur choix
possible d’ordinateurs que permettaient les contraintes, et de préparer l’avenir.
En somme, nous disions aux utilisateurs : dites-nous ce que vous voudriez faire
et travaillez. Et ils attendaient du centre des miracles. C’était pour nous la
récréation, ce à quoi notre formation et notre expérience nous avaient préparés.
L’autre partie, de loin la plus dévoreuse de temps et d’énergie, consistait à
se battre contre ce qui à ce stade était appelé l’extérieur, pour arracher aux
instances de tutelle de haut niveau, les avis favorables d’acquisition. C’était la
première étape, pas suffisante, mais indispensable, pour la fourniture du service
souhaité.
Le second objectif qu’il a fallu assimiler très vite, c’est que dans la lutte
pour la croissance du centre, il ne fallait pas se tromper dans l’identification des
obstacles. Il aurait été facile au début d’attribuer nos difficultés à la direction
du CNRS au sens large, parce qu’ils étaient les plus proches. Mais à l’examen,
le CNRS lui-même a fait ce qu’il a pu. Il lui a été plus facile d’être généreux
pendant les Trente Glorieuses 122. Dans un article de presse, en 1948, le directeur
de l’Enseignement supérieur le remercie de l’avoir sauvé 123.
« Ces dernières années, c’est en fait le Centre National de la Recherche
Scientifique 124 (CNRS) qui a suppléé à notre manque de crédits. Il a ainsi
été détourné de sa mission (...) subventionner les grandes créations scien-
tifiques, promouvoir les disciplines nouvelles grâce à sa grande souplesse
administrative. »
Mais cet âge d’or n’a pas duré. Dès le début des années 70, le CNRS est
entré dans son « premier trou d’air » d’après D. Guthleben et n’a plus jamais eu
les moyens de toutes ses ambitions. Régulièrement depuis cette époque, jusqu’à
aujourd’hui cette situation est pointée par des personnalités. Encore actuellement,
le 9 janvier 2021, Antoine Petit, actuel directeur général du CNRS, écrit125 :
« La recherche française a besoin d’argent et de simplifications,
La situation budgétaire n’est plus tenable. »
Cela dépasse de beaucoup la question du centre de calcul. Quand il s’agit
d’administrer la pénurie, chacun a tendance à protéger son secteur. C’est la
règle générale. Il ne reste plus qu’à descendre dans l’arène, pour, au minimum,
contribuer à l’information générale, en faisant connaître ce que l’on fait. C’est
un problème que le CEA ne semble pas avoir eu, ni la société TOTAL, ni EDF,
toujours en mesure de commander, pour leurs besoins propres, la machine la
plus puissante commercialisée à un moment donné.
P. Jacquinot m’a très précisément mise en garde contre les difficultés que
j’allais rencontrer avec l’Enseignement supérieur. Mais je n’y ai pas prêté une
attention suffisante, faute de compréhension. Pourtant il a été très explicite et
m’a tenu très exactement à cette époque les propos qu’il reprendra lors de son
interview de 1984.
Type Puis-
Puissance NB
Date équipement sance Compléments informations
MIPS CPU
MF Mflops
Déménagé depuis la rue du
CDC 3600 0,30 1
Maroc à Orsay
1969-1972
IBM 360/75 0,94 1 Installé à Orsay en 1969
IBM 360/50 0,30 1 Installé à Orsay
08/05/1970 Projet de CDC 7600
24/09/1971 CDC 7600 REFUSÉ
1972 Proposition de création de CIRCÉ 2
Augmentation de la mémoire
IBM/370/165 2,70 1
1972 à 3 MGo en 1973
1973 Décembre 1973 arrêt IBM
IBM 370/155 0,47 1
370/165
IBM 370/168 3,10 1 Installation IBM 370 158 en
1974-1976
IBM 370/158 0,70 1 remplacement du 370 155
Type Puis-
Puissance NB
Date équipement sance Compléments informations
MIPS CPU
MF Mflops
IBM
89,00 6 696 IBM 3090 600 E + 6 VF
3090 600E
Frontal du CRAY 2 CCVR
NAS 9080 21,50 2
1986-1990 en 1987
VP200 1 533 Calculateur Vectoriel
Arrêt du Bull DPS 8 en 1990
DPS8/62 M 1,50 2
et du NAS 9080
IBM 3090 600
100,00 6 800 IBM 3090 600 S + 6 VF
S VF
Frontal du CRAY 2 CCVR
NAS 9080 21,50
1990-1993 jusqu’en 1993
Noté au TOP500 06/1993.
VP200 1 533 Rang 476 Pic Théorique 533
Mflops
CRAY Y-MP Création IDRIS. Arrêt IBM
Juin 1993 1 8000
C90/8 3090
étayer leur décision. L’un d’entre eux a été la mise en service d’une comptabilité
complète et sophistiquée, digne d’une entreprise de notre taille. Il fallait, à la fois,
être capable de sortir facilement, à la demande, des documents permettant aux
directeurs scientifiques ou de laboratoires de suivre leurs chercheurs, et de répondre
aux critiques dont nous étions l’objet sur notre coût et nos capacités de gestion-
naire. Pour justifier nos projets, il était indispensable de présenter des comptes non
seulement complets, mais clairs. D’où, dès l’ouverture, l’implantation d’un service
qui a occupé un ingénieur à plein temps, et une secrétaire, puis un agent supplé-
mentaire à l’instauration du ticket modérateur en juin 1972.
La saturation d’une configuration complexe qui sert à la fois à la mise au
point, à l’exploitation, au télétraitement et à la promotion de techniques nou-
velles, est une notion complexe ; elle ne peut se mesurer ni par le nombre de
travaux effectués journellement (l’exécution de 1800 travaux courts d’étudiants
ne prend que quelques heures), ni par le temps sous tension, mais par une étude
critique de ces deux facteurs et des conditions d’exploitation 128.
Il faut introduire les notions de :
Heures ouvertes, pendant lesquelles le CIRCÉ peut employer et rémunérer le
personnel du lundi 7 heures au dimanche 7 heures soit 6843 h 25 de mai 1970 à
mai 1971. C’est le temps horloge.
Heures sous tension, pendant lesquelles les ordinateurs sont effectivement
utilisés. Leur total peut être inférieur au précédent, si à la fin de la semaine, il
ne reste que des travaux trop longs pour le temps d’ouverture restant et qu’on
ne peut donc commencer.
Temps d’exploitation, c’est le temps sous tension diminué de celui de la main-
tenance préventive, des pannes hardware et software imputables au constructeur,
des arrêts de climatisation ou une mauvaise alimentation électrique il est de
90,56 % du temps horloge.
Le tableau suivant (figure 73) récapitule les divers temps mesurés. On voit
que dans notre cas de mai 1970 à mai 1971, sur 12 mois, le taux d’utilisation est
de 98,76 % du temps horloge. Il est de 100 % pendant 5 mois, dont le mois de
décembre. C’est difficile de faire mieux.
Pour faire une comptabilité correcte avec un système travaillant en mul-
tiprogrammation, il a fallu introduire les notions de temps CPU et de temps
pondéré TPO.
Nous distinguons le temps CPU (C) qui est le temps total de fonctionnement
de l’unité centrale. Dans l’exploitation du centre, il varie de 90 % du temps
sous-tension, pendant les mises au point de la journée à 95 % pendant les tra-
vaux de nuit. Ce sont des taux qu’il semble difficile de dépasser. Il comprend à
la fois le temps de calcul pour des « programmes utilisateurs » CPU (P) et celui
absorbé par l’ensemble des tâches système, opérations d’entrées-sorties, gestion
des terminaux. Le temps CPU (P) est en moyenne de 54,16 % du temps sous
tension. La chaîne de comptabilité donne encore, pour chaque travail, beaucoup
d’autres renseignements, le nombre de cartes lues, le nombre de cartes perforées,
le nombre de lignes imprimées, le nombre de montages de volume de stockage
individuels, bandes ou disques.
Ce qui est facturé aux utilisateurs, c’est encore autre chose, c’est le temps
pondéré TPO obtenue par une formule complexe. Elle tient compte à la fois de
CPU (P), de la taille mémoire, du volume des entrées-sorties, de la différence
entre la priorité demandée, pd, et celle calculée, pc, par le système pour sa ges-
tion optimum. La formule que nous utilisions à l’époque est :
Il peut sembler que le choix des paramètres soit arbitraire. En fait de nom-
breuses études théoriques sur ce sujet ont été faites dans des centres de recherche
universitaires et ont donné des résultats semblables aux nôtres. La formule
employée est réaliste : le temps pondéré est très voisin du temps d’exploitation.
Figure 74 – Récapitulation mensuelle des temps pondérés par discipline de mai 1970 à
mai 1971
L’histoire parallèle du centre de 1969 à 1975 163
Des graphiques de temps pondéré par discipline et par mois (figure 74)
devaient permettre aux directeurs scientifiques de suivre la pénétration de l’in-
formatique dans leur secteur. À cette époque, les plus gros utilisateurs étaient
la physique, la chimie et les mathématiques. Un même graphique aujourd’hui
montrerait un facteur de plus de 1000 sur les échelles et la prédominance de la
biologie et des sciences humaines.
129 Une des causes, mais pas la seule, de l’inefficacité de mes réponses aux questions
récurrentes, m’a peut-être été donnée vingt-cinq ans plus tard. F. Kourilsky m’avait
demandé un rapport sur une plainte déposée par des chercheurs attaquant le CNRS pour
une sombre histoire de fichiers scientifiques perdus. Je concluais, sans ambigüité, qu’ils
étaient responsables et ils ont retiré leur plainte. F. Kourilsky l’a annoncé au comité de
direction du CNRS et a fait circuler le rapport. Peu de temps après l’un des membres qui
avait été directeur scientifique m’a félicitée pour mon enquête, ajoutant : « Si j’avais su
que vous étiez capable d’écrire ça, j’aurais lu vos rapports ».
L’histoire parallèle du centre de 1969 à 1975 165
rendu de notre lutte des deux prochaines années montre leur implication person-
nelle et constante qui pour le centre a été primordiale.
132 Noël Aucagne : secrétaire technique du groupe spécialisé pour les marchés des maté-
riels de bureau électromécaniques et électroniques, rattaché au ministère des Finances,
représente à partir de 1970 le président de la commission à l’informatique du ministère de
l’Économie et des Finances au sein de la commission interministérielle à l’informatique,
section « collectivités locales », commission à l’informatique du ministère de l’Intérieur,
29/10/1970 ([CAC]-930178/art. 5/chemise 206.
168 De l’IBM 360/75 au superordinateur Jean Zay
Mensualité TTC
Prestations diverses
(minimum, la 2e année de 79 250 66 750 12 500 ×
fonctionnement)
170 De l’IBM 360/75 au superordinateur Jean Zay
IBM 195 grandes qualités hardwares, mais vulnérable : une seule unité centrale. Le
28 septembre nous envoyons un rapport à H. Curien dans lequel le choix se
fera entre le 195 IBM et le 7600 CDC ;
IBM 2×165 grande fiabilité puisque 2 unités centrales, mais pour les gros travaux deux
unités centrales ne s’acquittent pas aussi bien de la tâche qu’un ordinateur
de puissance double ;
CDC 7600 la configuration présente une partie des avantages des deux premières.
D’autre part, alors que les livraisons de l’un et l’autre ne sont prévues que
pour mai 1972, CDC offre l’installation immédiate d’une 6600 pour remé-
dier à la saturation.
des divers comités. Malgré tous leurs efforts, H. Curien et C. Gabriel ne par-
viennent pas à obtenir des arbitrages budgétaires au sein du comité de direction
les sommes qu’ils avaient demandées, et la mort dans l’âme, nous ont annoncé
qu’on ne pourrait avoir le budget promis au départ.
24 septembre 1971 : nous apprenons que notre budget 1972 serait identique
à celui de 1971. En même temps, on nous demandait d’arrêter le 3600 CDC,
importé de Blaise Pascal, deux ans auparavant. La saturation était telle que le
service se dégradait. Il fallait agir vite, oublier en un jour le travail sur CDC
accompli depuis deux ans, la préparation du 195, tous les stages effectués, et
trouver la solution de sauvetage immédiate ou c’était la disparition. Mais cette
longue étude nous avait formés. Nous et les ingénieurs avions une connaissance
aigüe du marché.
Aussi dès le lendemain 25 septembre, les équipes, encore sous le choc de la
déception, après avoir travaillé pendant des mois à la préparation de matériel
CDC, se sont mises à préparer pour la direction du CNRS un projet d’installa-
tion d’un IBM 370/165 à Pâques 1972. Cette solution présentait les avantages
suivants :
− puissance de calcul doublée à budget constant ;
− possibilité de mise en place progressive rendant l’opération transparente
aux utilisateurs ;
− reprise intégrale de toutes les facilités mises en place pendant le fonction-
nement du 75 ;
− possibilités d’extensions futures ;
− mise en place dans un délai court.
Pour la présentation du projet, nous avons repris des éléments de celui
soumis à la direction le 8 août 1970, c’est-à-dire 20 mois auparavant, mais avec
des différences fondamentales.
− La preuve est faite que les chercheurs ont besoin de calcul intensif.
− La nécessité de travailler à budget constant, fait qu’on ne cherche plus
la machine qui absorbera la charge jusqu’à la fin du 4e plan, mais celle
qui absorbera la saturation pendant quelques mois et on sera revenu à la
situation précédente.
La saturation est telle que le service se dégrade et les utilisateurs ont ten-
dance à en rejeter la responsabilité sur le centre qui ne peut plus leur rendre
le service attendu, auquel ils peuvent prétendre. Les ennuis inhérents à une
machine trop chargée sont exacerbés.
− Très grande sensibilité des utilisateurs au moindre incident hardware ou
software perturbant la production 10 à 20 minutes.
− Délai de restitution des petits travaux passé à 4 ou 5 heures.
− Difficulté permanente pour disposer de l’ordinateur pour des tests néces-
sitant le système (connexion d’un terminal, tests système particuliers…).
− Sensibilité de la production à l’indisponibilité provisoire d’unités périphé-
riques (imprimantes, disques……).
Le projet ayant été accepté par la direction du CNRS, nous l’avons soumis à
l’approbation des divers comités.
172 De l’IBM 360/75 au superordinateur Jean Zay
Crédits, sauf location 3 982 200 3 626 500 3 267 700 3 758 000
et entretien ordinateurs
Location entretien 11 535 000 10 790 000 10 915 500 13 612 200
ordinateurs
Personnel toutes primes 3 150 000 3 500 000 3 850 000 4 235 000
et charges patronales
comprises
Les opérations semblaient bien préparées. Mais rien ne s’est passé comme
prévu, ainsi qu’il a déjà été expliqué, à cause de pannes, matériel et logiciel. Les
indemnités versées par le constructeur seront pour la moitié récupérées par les
utilisateurs.
Au comité de direction d’octobre 1974, il est fait l’historique des crédits
calcul, budgets alloués aux utilisateurs pour payer leurs calculs :
− en 1972 : crédits « calcul » attribués spécialement ;
− en 1973 : crédits « calcul » avec transformation possible, moyennant un
abattement de 20 % ;
L’histoire parallèle du centre de 1969 à 1975 175
ressentie comme une atteinte à son égard. M. Chabbert 134 est venu du minis-
tère, nous expliquer que les centres de province percevraient un impôt sur le
CIRCÉ pour chaque travail passé par un utilisateur non parisien. À l’époque,
ils représentaient 30 % de la charge. On ne nous accusait plus d’être de mauvais
gestionnaire, mais, personne n’attachait la moindre attention à nos analyses des
causes de la différence des coûts entre gros centres et petits centres. Personne
n’émit jamais l’idée que les centres universitaires devraient peut-être améliorer
leur gestion. Par exemple, ils ne travaillaient que cinq jours par semaine et en
général, seulement 12 heures par jour, au grand maximum, avec répercussion
immédiate sur le prix de revient d’une heure d’exploitation.
W. Mercouroff et L. Malavard clarifient nettement leurs positions opposées
sur les missions du comité de direction du CIRCÉ. Le premier indique que
l’idée générale est une mise en commun et une gestion globale de l’ensemble des
moyens du SEU, CNRS compris.
« Personnellement, et sans engager le CNRS, je considère qu’il n’est plus
possible pour le CIRCÉ d’envisager une extension dit-il. Pour L. Malavard, il
ne faut pas obliger la direction du CIRCÉ à agir dans une direction ou une
autre, mais plutôt l’inciter à informer la direction du CNRS de ce qu’elle
croit être une évolution souhaitable. »
On mesure le chemin qui restait à parcourir pour faire admettre qu’en France,
on avait besoin d’outils déjà courants à l’étranger. Il aurait été urgent de faire
une analyse critique de toutes les analyses financières présentées par le CIRCÉ,
et si on n’était pas d’accord d’en faire une autre. Mais on les ignorait ou on
faisait semblant de les ignorer.
136 J. Connes et P. Salzedo, Rapport sur l’informatique en tant que service dans l’Ensei-
gnement supérieur et le CNRS, Archives de la DIS, janvier 1976.
137 Note de l’auteure : Il subsistait bien quelques difficultés, non pas pour des questions
de moyens de calcul, mais de sécurité. Le JPL pendant la guerre avait été un point
extrêmement stratégique. On y faisait maintenant en bonne partie de la recherche acadé-
mique. Mais si les transferts de données vers l’extérieur fonctionnaient bien, par réseaux,
il subsistait quelques règles anciennes pour les documents qu’on était censé sortir. Et
faute d’avoir mis à jour mes diverses autorisations, il m’est arrivé, à cette époque, de
passer le poste de garde avec des listings sous le siège de ma voiture.
138 Paul Caseau, directeur des études et recherches d’Électricité de France.
Histoire parallèle de 1976 à 1980 181
139Ensemble des documents transmis, pour étude, par le CIRCÉ à la direction générale
du CNRS, entre le 20 janvier 1976 et le 16 avril 1977, Archives de la DIS.
182 De l’IBM 360/75 au superordinateur Jean Zay
sera d’ici là primordiale si le CNRS ne veut pas être saigné à blanc par
les dépenses de calcul ;
− dans les choix informatiques, négliger l’utilisateur équivaudrait à ignorer
l’usager dans les questions de transport en commun.
Pour la réalisation, il faudra :
− des unités centrales puissantes ;
− une implantation bien suivie de moyens de traitements locaux (dévelop-
pement de la mini et micro-informatique nécessaire) ;
− un développement du stockage de données et de la gestion de masse des
données qui croissent très vite ;
− et pour que tout fonctionne un réseau maillé efficace.
On trouve aussi dans le rapport un état des lieux sans concessions du sys-
tème alors en service, une analyse très fine des coûts, l’étude de plusieurs hypo-
thèses de réalisations avec leurs avantages et inconvénients, et aussi, bien sûr,
une analyse des besoins des utilisateurs, des logiciels et des algorithmes qu’ils
emploient, ce qui reste notre souci majeur pour les guider.
Le but est de trouver des solutions à une situation préoccupante qui tient à
plusieurs facteurs : l’un est le fait qu’il n’y a dans les décisions qui sont prises
jusqu’alors aucun plan d’ensemble, aucune anticipation de plus d’un an, un
autre que les centres de calcul de la Direction de l’Enseignement supérieur et de
la Recherche (DESUR) et du CNRS, s’affrontent dans une pseudo-concurrence
économique assez violente pour rendre difficile tout projet commun.
Figure 80 – Éventail des solutions envisagées pour les relations CIRCÉ 1 et CIRCÉ 2
Histoire parallèle de 1976 à 1980 185
Réseau Cyclades
6
Réseau NPL Londres
PARIS
9 1
2
10 RENNES
10b
11
16
3 4
17
GRENOBLE
18
14 15
12
TOULOUSE 13
Ligne existante
Ligne projetée
Noeud CIGALE disponible pour raccordement clients
Concentrateur de Terminaux (CT)
Centre Participant (CP) offrant des services (TS, RB) dès à présent
Centre Participant en phase d’expérimentation
Réseaux locaux ou nationaux
140 Si le CIRCÉ était créé suivant notre proposition, la réalisation d’un réseau en serait
facilité.
Réalisation entre CIRCÉ 1 et CIRCÉ 2 d’une connexion à grand débit.
Autour de CIRCÉ 2, réalisation d’un réseau Sud-Méditerranéen, qui accéderait égale-
ment à CIRCÉ 1, et auquel accéderaient tous les terminaux connectés à CIRCÉ 1.
Raccordement à une « épine dorsale » des autres centres intéressés tous les terminaux
connectés à CIRCÉ 1.
Raccordement à une « épine dorsale » des autres centres intéressés.
141 Projet de liaison triangulaire, dossier déposé à J. Lagasse, 21 juillet 1976, Archives de
la DIS.
Histoire parallèle de 1976 à 1980 187
dans le futur, le calcul intensif allait jouer un rôle d’outil de plus en plus vital
pour la recherche, dans toutes les disciplines. Quand, plus tard, m’est parvenu
l’épais dossier des archives de l’Enseignement supérieur, sur les convocations et
rapports de séances des divers comités mis en place pendant cette période pour
l’informatique 142, j’ai mieux compris d’où étaient venus nos problèmes et nous
avons tremblé rétrospectivement en voyant ce à quoi nous avions échappé.
1976 a été une année de remous pour les ministères de l’Éducation nationale,
de la Recherche, de l’Université etc. En ce qui concerne l’informatique :
Le 21 octobre 1976, l’article 4 d’un arrêté fixe les fonctions d’une commis-
sion à l’informatique et de ses comités. Il y avait déjà une commission inter-
ministérielle qui, avec le ministère de l’Industrie (MI) avait pour mission la
promotion du matériel français. Nous en serons avisés officiellement le 30 mars
1977. Le ministère des Universités (c’est ainsi qu’il apparaît dans tous les rap-
ports) a créé un sous-ensemble DESUR-CNRS avec une mission à la recherche
présidée par J.-F. Denisse. De lui dépendait une commission à l’Informatique. Il
en a confié la responsabilité à Mme Connat, directrice du centre de calcul uni-
versitaire du Pharo à Marseille et le secrétariat à M. Maillaux. Pour nous, c’était
la redoutée Commission des Moyens Informatiques (COMI). Elle s’est fait aider
par des commissions pour l’enseignement, la gestion, les spécialités, l’informa-
tique polyvalente etc. À ces commissions, se sont associés les services de comités
techniques à effectif pléthorique, mais peu techniques. Celui qui était censé s’oc-
cuper de nos dossiers était le Comité Technique de l’Informatique polyvalente
(CTIP) avec son rapporteur permanent, M. Johannin président directeur tech-
nique du centre de calcul universitaire Paris-Sud Informatique (PSI). Je dis bien
« censé » parce que, en fait, de fin 1976 à janvier 1980, nos dossiers importants
ne lui sont jamais parvenus.
« Le mercredi 30 mars 1977, sont réunis à 9 h, au secrétariat d’État aux
universités, les membres du Comité Technique d’Informatique Polyvalente
afin de procéder à la mise en place de ce comité créé par l’arrêté du 21 octobre
1977 (JORF du 31 octobre 1976) 143. »
À cette première réunion du CTIP, son président M. Hirel nous informe du
rôle du secrétariat de la commission de l’informatique : « il joue un rôle de
conseil et veut voir TOUS les projets d’équipement quelle que soit l’origine du
financement ou de la nature des crédits. Pour les examens importants il y aura
séance plénière. »
Le rapporteur transmettra les avis du comité technique à la commission
informatique qui tranchera. Il n’est plus question pour le CNRS de faire un
plan pour son informatique. C’est la commission qui s’en occupe exclusivement
et en fixe la politique. Jusqu’au 21 décembre 1979 M. Hirel et Y. Maillaux ne
cesseront de le répéter dans toutes les séances (il y en a une environ tous les
deux mois).
142 Ensemble des rapports des comités de gestion et d’informatique polyvalente de l’ES
conservés dans les Archives de la DIS.
143 Extrait du procès-verbal de la réunion du 30 mars du CTIP.
Histoire parallèle de 1976 à 1980 189
144 Rapports sur les problèmes d’évolution des matériels informatiques installés au centre
interrégional de calcul électronique.
Histoire parallèle de 1976 à 1980 191
recherche (annexe 26). Il attendra son tour. Il n’y a qu’à le bloquer jusqu’à ce
qu’on juge qu’il n’est plus gênant. Les utilisateurs de calcul intensif qui se déses-
pèrent ? On ne les connaît même pas. Qu’ils attendent ou aillent ailleurs. Tant
que ce sentiment persistera, il empêchera la discussion sur les questions de fond.
Le problème était ce qu’en théorie de l’information, on appelle un problème
mal posé. Il suffira de le poser autrement. Ça prendra du temps, mais ça viendra.
Il suffit de tenir, et tout le monde s’en sortira grandi.
Figure 83 – Ensemble des villes reliées et installations des centres de calcul recensés
Figure 84 – Une des options du schéma directeur du 23 mai 1978 (exposé de Mme Connat)
Histoire parallèle de 1976 à 1980 193
Le même jour circulait une note manuscrite d’Y. Maillaux avec ce qui sera le
schéma définitif (figure 85).
Il a été reconnu qu’un travail donné revenait moins cher dans un gros centre,
mais on ne vise plus l’uniformité des tarifs. Mme Connat avait, comme justifica-
tion, exposé que les centres universitaires avaient des contraintes « humaines et
environnementales » que n’avait pas le CIRCÉ. Les personnels universitaires ont
des horaires plus souples, des vacances plus longues qu’au CNRS. Ils ont à subir
des grèves. Donc, il est impossible pour un centre universitaire de couvrir autant
d’heures d’ouverture que le voudrait la rentabilisation du centre de calcul.
194 De l’IBM 360/75 au superordinateur Jean Zay
146 Rapport d’évolution pour les matériels informatiques du centre de calcul inter-
régional de calcul électronique.
Histoire parallèle de 1976 à 1980 195
secteur privé, tandis qu’au CNRS leurs diplômes n’étaient pas reconnus. Dans
tous les autres centres, qui pourtant avaient des contraintes bien moindres, des
compensations avaient pu être trouvées. C’était impossible au CIRCÉ, labora-
toire propre qui n’avait qu’une source de crédits. Il était urgent de se pencher
sur le problème dès les premiers mois de mise en service si on voulait garder
les effectifs.
151 Jean-Claude Hirel, inspecteur des finances, premier président de la mission informa-
tique ministère de l’Industrie statuant sur les autorisations d’acquisitions du ministère
de l’Enseignement supérieur et de la Recherche.
Période 1981-1989 205
152 Idem.
206 De l’IBM 360/75 au superordinateur Jean Zay
155 Note de l’auteure : Nous nous sommes remémorés ce suspens quelques années plus
tard. P. Aigrain était président du jury du prix Cray. J’étais moi-même le membre du
jury qui défendait le travail du lauréat de l’année. Il m’a avoué qu’en 1980, la situation
était tellement complexe et exacerbée, qu’il avait été tenté de tirer à pile ou face.
156 Voir note 10.
Période 1981-1989 209
servi, sans qu’il la commande, une soupe aux pois, son repas coutumier.
Période 1981-1989 211
l’Industrie sur ce point particulier, mettrait toujours son veto à nos demandes
de matériel CRAY. Il y eut d’abord la création, d’une Action Thématique
Programmée du CNRS (ATP) calcul vectoriel, puis l’établissement d’une liaison
CIRCÉ-CEA, puis la liaison au CCVR installé à Palaiseau, puis l’installation de
matériels vectoriels IBM et SIEMENS-FUJITSU à Orsay. Il a fallu attendre dix
ans pour qu’enfin un CRAY arrive au centre d’Orsay.
161 Revue mensuelle de la Société amicale des élèves de l’École polytechnique, La Jaune
− les connexions intersites se sont multipliées, et avec elles les efforts pour
développer, consolider, documenter les services de transfert de pro-
grammes et fichiers ;
− d’importants développements ont permis l’ouverture de services avancés
en traitement d’image, traitement de texte scientifique, systèmes de bases
de données, impression de qualité, contrôle d’accès et protection des infor-
mations, gestion des fichiers ;
− un large effort d’assistance a été entrepris à l’intention des détenteurs de
micro-ordinateurs : aide au choix, à l’achat, à la connexion, au transfert
de données.
Ceci s’est fait grâce à un effort intense des personnels, et à la redéfinition
de certains objectifs prioritaires, débouchant sur d’importantes réorganisations.
Plus que par sa croissance quantitative, pourtant supérieure à 40 % par an,
cette évolution se caractérise par une diversification considérable des applications,
et un élargissement de la base des utilisateurs nouveaux venus à l’informatique.
En voyant un tel tableau, on pourrait croire que nous étions dans un pays
de Cocagne.
100
10
1
IBM NAS IBM NAS VP- IBM VP-
3090 9080 3090 9080 200 3090 200
200 600 + 600 +
VF VF
1984-1988 1988-1990 1990-1993
Puissance Mflops maxi 267 800 533 800 533
Super Calculateurs Vectoriels
Mais qu’on ne s’y trompe pas. Ce n’est que du rattrapage, après une longue
saturation passée et avant celle à venir. Les obstacles n’avaient pas disparu et
nous allions toujours avoir des interlocuteurs devant lesquels il fallait défendre
les besoins des utilisateurs. Les interlocuteurs du CNRS étaient Messieurs :
− Hirel et Combet pour la DIELI,
− Chevert et Chibois pour la MIPI,
− Chevillot et Lorenzi au cabinet du ministre,
− Farge et Étienne au MRI.
Les quatre directeurs généraux de cette époque nous ont apporté leur aide,
souvent décisive.
Peu de temps après étaient connectés une imprimante à laser Xerox, deux
imprimantes à impact IBM et de nouveaux disques. Pendant l’été 1983 aussi,
deux adaptateurs de télétraitement 4705 Amdahl ont été mis en service pour le
télétraitement. L’ensemble est présenté dans la figure 94. C’est en octobre de la
même année que le NAS 9080 a été relié par une ligne à 1 Mégabit au CRAY 1
du CCVR. Les usagers ont été très satisfaits de cette liaison hyperchannel.
Et pendant toutes ces installations les ingénieurs système (14 ingénieurs en
1985) appliquaient les modifications aux logiciels de base pour que tout fonc-
tionne et installaient les nouveaux logiciels indispensables, tel HSM, qui faisait
la gestion hiérarchique automatisée des mémoires externes. Quant aux 16 ingé-
nieurs du GSU (service d’assistance aux utilisateurs), en plus du dépannage,
ils devaient tester les nouveaux logiciels, donner des cours, rédiger les manuels,
entretenir les grandes bibliothèques de programmes, implémenter des logiciels
pour des applications spécifiques.
La vectorisation était facilitée par le dispositif IAP d’accélération de calculs
vectoriels disponible sur le NAS 9080. Il était mis en œuvre pour les programmes
216 De l’IBM 360/75 au superordinateur Jean Zay
9.4.1.2. LE DPS8
L’installation d’un DPS8 est le fruit d’une longue négociation avec Bull et le
ministre de l’Industrie qui voulait absolument installer du matériel national au
CIRCÉ pour un effet de vitrine : c’était la condition nécessaire pour les auto-
risations d’achat des VAX dans les labos, dont ceux de l’IN2P3. Restait à lui
trouver une place intelligente parmi les autres machines.
Période 1981-1989 217
Mémoire Deux blocs de 2048 kmots, soit une mémoire totale de 4096 kmots
L’IOM processeur d’entrée/sortie, assurait l’interface avec les différents
processeurs spécialisés pilotant les sous-systèmes périphériques
162Multics, système d’exploitation dont dérive directement UNIX, fut conçu conjointe-
ment par le MIT, les laboratoires Bell et General Electric.
218 De l’IBM 360/75 au superordinateur Jean Zay
200 2 × central
1985 1986 2 216
+VF processors
600 E 6-way
1987 1988 ECL 6 58,1 MVS 696
+VF (two 300s)
600S 6-way
1988 1990 ECL 6 66,7 MVS 800
+VF (two 300s)
Le 3090 200 est d’abord upgradé en 3090 400. Puis il est reconfiguré, le
3090/600E+VF du CIRCÉ est reconfiguré en modèle 600S, doté en plus de 6
dispositifs VF, un par processeur. Il apporte les facilités de calcul vectoriel. En
avril 1990, la mémoire centrale sera étendue de 256 à 512 mégaoctets.
164 https://fr.wikipedia.org/wiki/IBM_360_et_370
Période 1981-1989 221
1er avril 1986 6 heures Mise sous tension du 3090 (le 3090 doit rester au
minimum 48 heures dans une salle climatisée avant sa
mise sous tension)
15 heures Début des tests constructeur
9.4.1.4. Le VP200
Supercalculateur vectoriel VP200 de Fujitsu construit en Allemagne.
CPU Monoprocesseur, 32 canaux, mémoire centrale 128 Mo, puissance 570 Mflops
avons mis en service la librairie NAG (par comptabilité avec IBM), les librairies
LINPACK et EISPACK pour les utilisateurs du CRAY, ainsi que le logiciel gra-
phique NCAR (version GKS).
Un effort important a été consacré à la promotion du VP200 et à la réali-
sation de stages de formation. Cet effort sera poursuivi dans les mois suivants,
notamment pour l’emploi des outils interactifs et pour l’emploi du compilateur
FORTRAN 8X. Le dispositif vectoriel du 3090 a aussi été mis en service ainsi
que ses librairies scientifiques ESSL.
Plus tard, le VP200 est classé au Top500 165 de juin 1993 au rang 476 avec
un pic théorique de puissance de 533 Mflops. Ci-après extrait de la liste du
TOP500 :
Disques Disque de types 3350 et 3380 d’une capacité de 116 milliards d’octets,
répartis sur 112 volumes
165 TOP500, classement des 500 calculateurs les plus puissants au monde, https://fr.
wikipedia.org/wiki/TOP500
Période 1981-1989 223
Il a été mis en place une cellule composée de deux ingénieurs et d’un assis-
tant ingénieur qui assistait les utilisateurs pour les problèmes de fichiers. Cette
cellule a en outre à sa charge, l’administration du service Multics et la question
de l’espace sur disques (environ 450 000 fichiers) pour les systèmes MVS. En
collaboration avec un ingénieur système, elle met en production un gestionnaire
automatique de la bandothèque, soit près de 17 500 bandes magnétiques. En
1987, ils ont répondu à :
− 482 demandes pour traiter des bandes magnétiques ;
− 138 demandes pour recréer, à partir des sauvegardes sur version anté-
rieures, des fichiers sur disques effacés par erreur par l’utilisateur.
Toutes ces demandes augmentent de 30 % par an.
Ce transfert vers une mémoire d’arrière-plan de fichiers qui avaient été placés
par leurs propriétaires sur disques en ligne est décidé par la machine fichiers.
Elle obéit à des critères la rendant peu ou pas prévisible par l’utilisateur. Ce
n’est pas lui qui connaît par exemple l’encombrement effectif des disques à un
instant donné. La seule chose qui lui importe, c’est que son travail ne soit pas
abandonné faute d’avoir trouvé le fichier demandé.
Le but premier de H.S.M 167 (Hierarchical Storage Manager) est d’automatiser
la gestion de l’espace occupé par des programmes et/ou les données à travers
une hiérarchie d’unités et de volumes de stockage et par conséquent d’améliorer
la productivité du centre, fournisseur de services et de ses utilisateurs.
Le logiciel HSM fonctionnait sous le système d’exploitation MVS/JES3
et tenait compte à ce moment-là des unités de stockage courantes comme les
volumes :
− disques type 3330, 3350, 3380 ;
− la mémoire de masse (MSS).
et, dans certains cas, les volumes bandes standard 9 pistes.
Le logiciel HSM était classé « produit stratégique » par IBM, ce qui
était un engagement à son adaptation aux versions successives des logiciels
« MVS, JES 3, TSO... » et au support de nouvelles unités de stockage (disques,
bandes).
En 1988, la mémoire de masse IBM 3850 a été remplacée par le robot Storage
Tek 4400 168.
− une capacité d’au moins
1000 giga-octets ;
− une réduction des coûts ;
− un débit élevé compatible
avec les quantités manipu-
lées et les unités disques ;
− un accès aux données sans
intervention humaine en
moins de 15 secondes.
La 4400 STK a été installée pendant le mois de juillet 1988 puis testée en
interne. Elle a reçu rapidement les sauvegardes DF/HSM dont l’enregistrement
sur cassettes en mode manuel a commencé en mai 1988. Pendant l’été, les opé-
rations de sauvegarde et de migration quotidiennes DF/HSM ont été dirigées
vers la 4400. Puis a eu lieu le transfert du contenu de la mémoire de masse à
manchons magnétiques 3850 IBM, qui termina ainsi sa carrière.
9.5.3.2. Graphiques
L’arrivée sur le marché de logiciels GKS (Graphical Kernel System) faisant
l’objet de normes internationales ISO a conduit le CIRCÉ à remplacer le logiciel
GPGS qui sert de base à toutes les applications graphiques en mode vecteur, par
le logiciel UNIGKS fournie par la société UNIRAS. Des outils de conversion ont
été réalisés. Tous ces produits, installés sur l’IBM 3090, le sont également sur le
VP200 et communiquent par la frontale par des métafichiers.
Dans un sujet aussi sensible, il ne faut pas perdre de vue l’idée fondamen-
tale qui, à toute époque, éclaire cette question de cohabitation de la recherche
en informatique et production. La recherche fondamentale dans ce secteur est
indispensable. Elle doit se faire sur du matériel dédié. Quand les chercheurs en
informatique ont besoin des services du centre de service, leurs interventions
doivent être planifiées comme pour toutes les disciplines.
On peut prendre comme exemple les algorithmes de calcul de la transformée
de Fourier, dont l’exécution est passée en trente-trois ans d’un siècle à moins
d’une seconde (figure 105). Pour arriver à ce résultat, il a fallu :
− des travaux de recherche fondamentale. Cooley et Tuckey ingénieurs IBM
ont inventé un nouvel algorithme, la Fast Fourier Transform (FFT) ;
− des travaux de chercheur-informaticien. H. Delouis l’a adapté à des machines
ayant des mémoires auxiliaires et à des fonctions réelles, puis paires et
impaires ;
− des changements hardware.
Finalement, le processus a été industrialisé et les chimistes ont eu à leur dis-
position une boîte noire à laquelle il soumettait une source lumineuse à étudier
et à la sortie ils récoltaient un spectre. La boîte noire contenait un interféro-
mètre et un calculateur spécialisé. Cinq firmes principales se sont partagé le
marché (figures 107, 108). La spectroscopie à haute résolution utilise mainte-
nant d’autres techniques mais l’algorithme est toujours largement utilisé, par
exemple en sismologie, en astronomie ou en traitement d’images.
Figure 108 – Appareils pour spectroscopie par Transformée de Fourier dans l’infrarouge
des sociétés Bruker, Hewlett-Packard, Digilab et Perkin-Elmer
Période 1981-1989 233
L’opération a démarré avec 36 heures de retard sur le DPS8, car les experts
et représentants des diverses parties (Bull, le loueur, son assureur) ont été les
plus difficiles à activer. Il a fallu être très attentif au coût de l’opération. Dès le
vendredi soir, le secrétaire général du CNRS et l’administrateur délégué de la 4e
circonscription étaient venus sur place constater les dégâts et affirmer le soutien
du CNRS pour une reprise rapide des services. Soutien confirmé par le conseil
d’administration du CNRS, qui, dès le lundi matin, débloquait les fonds néces-
saires et mettait en place des procédures d’urgence sans appel d’offres. D’une
façon générale, les entreprises n’ont pas cherché à exploiter financièrement les
situations d’urgence. Au contraire, nos partenaires habituels ont le plus souvent
pris à leur charge une partie des coûts, et toutes les entreprises ont respecté
leurs devis, même souvent sous-estimés. Tous leurs personnels ont travaillé acti-
vement, dans un excellent esprit de coopération. Le total des dépenses s’est
élevé à 10 954,1 kF hors taxes.
238 De l’IBM 360/75 au superordinateur Jean Zay
Neuf jours après cet incendie majeur, toutes les machines et les communi-
cations remarchaient. Pendant les mois suivants, il a fallu remplacer quelques
composants qui avaient subi une corrosion dont les conséquences ne se sont pas
manifestées tout de suite.
Introduction
C’est une période complexe, et de stagnation complète dans l’évolution de la
puissance des machines installées au CIRCÉ. On se rend compte a posteriori, de
ce que signifie pour les chercheurs que le parc reste figé pendant quatre ans au
moment où tout explose à l’étranger.
La période de presque stagnation des moyens mis
en place, est suffisamment courte pour qu’on ne voie
pas de décrochage sur l’évolution globale de la puis-
sance installée dans le tableau de vue d’ensemble
de la vie du centre (figure 5), mais suffisante pour
mettre en évidence, à une échelle plus détaillée, le
peu d’évolution de l’équipement en ordinateurs cen-
traux pendant quatre ans.
En revanche, la mission d’anticipation qui avait
commencé en 1976 pour s’affirmer en 1981, s’était
amplifiée avec le suivi et l’étude de l’explosion de
l’informatique à l’étranger. Il fallait une politique
accélérée de changements dans l’organisation du
centre et celle des groupes mis en place au CIRCÉ
depuis 1976. L’accroissement des moyens de stoc-
kage de données, et l’explosion du télétraitement se
sont poursuivis. À côté de ces efforts pour être prêts
à satisfaire l’accroissement des besoins en calcul
intensif, un effort considérable a été fourni pour
aider à la migration vers d’autres moyens, ceux qui
n’avaient pas besoin de calcul intensif et n’avaient
pas trouvé d’alternatives à l’emploi des services du
centre. Ce fut mission accomplie, puisqu’en 1993,
avant l’arrêt inéluctable des machines IBM, lorsque
S. Fayolle a pris son bâton de pèlerin pour visiter Figure 113 – Ordinateurs
les « petits utilisateurs » qui, auparavant, travail- en service entre 1989 et
laient au CIRCÉ, il a pu vérifier que tous avaient 1992
242 De l’IBM 360/75 au superordinateur Jean Zay
Pendant ces quatre années, le coefficient d’augmentation moyen sur deux ans
a été de 1,61 ce qui est inférieur au coefficient 2 annoncé par la loi de Moore.
Quant à celui du CIRCÉ pendant la même période, il est de 1,10, ce qui marque
la stagnation.
Mais je ne dirais pas « on s’en est sorti », ce qui en soit ne signifie rien,
mais les chercheurs ont pu continuer à travailler, ce qui est l’essentiel. Après le
départ de P. Salzedo, le directeur de transition comme il se désigne lui-même,
Serge Fayolle, n’a pas seulement maintenu le bateau à flot, mais l’a préparé pour
ses missions futures, pour le moment où il rejoindra la flotte des autres gros
centres européens et celle des grandes administrations et entreprises françaises.
La charge grandissante en calcul intensif a été absorbée en partie par le CCVR
qui, lui, voyait sa charge totale diminuer avec le départ de membres du GIE.
Quand on lit le rapport d’activité du CIRCÉ pour l’année 1989, on est frappé
par sa composition qui n’est pas celle traditionnelle des années précédentes, avec
ses quatre parties, matériels et logiciels, analyse financière, prospective, présen-
tation de résultats obtenus. La partie du matériel est très réduite. À côté de la
responsabilité de faire fonctionner à plein régime un parc de trois machines :
l’IBM 3090/600S+VP, le NAS9080, et la machine vectorielle VP200, un effort
considérable a été fourni pour la restructuration des groupes d’assistance. Il
fallait que tous, personnel du centre et utilisateurs soient prêts à accueillir les
nouvelles technologies à venir dans le vectoriel et le parallèle, déjà implantées à
l’étranger et que des formations à tous niveaux soient mises en place.
1989-1992 243
Cette phase d’anticipation a été suivie de très près par le directeur des pro-
grammes et moyens J. Sevin et le directeur général François Kourilsky, ainsi
qu’en témoigne une volumineuse correspondance conservée dans les archives de
la DIS. Quand F. Kourilsky faisait part de son intérêt et de ses inquiétudes,
vue la charge de travail, à l’administrateur délégué M. Gueldreich, il lui fut
répondu : « Laissez-les faire. Ils sont bons et ils ont l’habitude. »
244 De l’IBM 360/75 au superordinateur Jean Zay
176 Note de l’auteure : J’ai vu un chercheur pleurer en découvrant dans Nature la publica-
tion par un chercheur américain d’un article sur le sujet duquel il travaillait lui-même. Il
ne lui avait manqué au dernier moment que des crédits pour payer ses calculs sur VP200,
son programme n’étant pas écrit pour le CRAY où il aurait travaillé gratuitement.
1989-1992 247
177 Commentaire sur le rapport final de l’audit, Jean-Claude Adam, Archives de la DIS.
248 De l’IBM 360/75 au superordinateur Jean Zay
Notre but était d’arriver à franchir une dernière étape avant d’arriver au but
fixé en 1981. Soit l’installation au CIRCÉ d’une des machines les plus puissantes
du moment comme le demandaient les utilisateurs, et la fin des errements du
ticket modérateur avec son remplacement par un jugement scientifique. Il fallait
aussi pouvoir le financer.
Pratiquement cela se concrétisait par :
− l’établissement d’un schéma directeur valable ;
− l’abolition du ticket modérateur ;
− le développement des réseaux.
À peu près un tiers de nos discussions portaient sur le ticket modérateur,
un autre tiers sur les réseaux et le dernier tiers sur la politique générale de l’in-
formatique au CNRS. Quand j’avais accepté ce poste, à la DIS, je n’imaginais
pas que la masse des problèmes de mini- et micro-informatique remonteraient
souvent à la direction générale, le montant des crédits connus que le CNRS leur
254 De l’IBM 360/75 au superordinateur Jean Zay
179 Note de l’auteure : J’avais déjà dépassé l’âge légal du départ à la retraite.
1989-1992 255
Nous trouvions, François Kourilsky, Jacques Sevin, Philippe Salzedo, les uti-
lisateurs et moi-même que le COMI n’était pas assez novateur. Alors, nous
avons essayé d’avancer avec les moyens légaux à la disposition de la direction
générale.
Depuis la nomination du 2e comité scientifique de la DIS, je n’ai pas arrêté
d’alerter la direction générale sur les difficultés de faire l’unanimité sur les solu-
tions pour combler notre retard accumulé par rapport à ce qui s’était mis en
place à l’étranger.
Notre souci constant a été de maintenir une atmosphère apaisée, de bien
expliquer aux utilisateurs que notre but était d’obtenir ce qu’il y avait de mieux
pour eux, de combler le fossé qui s’était creusé avec l’étranger et de faire au
mieux de nos possibilités. Ils ont manifesté leur opinion par l’intermédiaire du
président de leur comité qui nous écrivait :
« Les utilisateurs ont montré qu’ils faisaient confiance à leurs directeurs de
centre. S’ils leurs affirment qu’ils auront la puissance de calcul convenable,
peu leur importe qu’il y ait un centre ou deux. Ce n’est pas leur affaire (cf. les
déclarations des présidents du comité d’utilisateurs des deux centres). »
Je ne vais relater ici que quelques-uns des faits les plus marquants de notre
combat pour nous rapprocher du but.
En janvier 1990, je tire la sonnette d’alarme pour que des décisions soient
prises à la prochaine réunion du COMI pour arrêter le massacre. En effet,
quand le ministre C. Allègre a annoncé la dissolution de la cellule informatique
du ministère de l’Enseignement supérieur et forcément la nôtre, certains assis-
tants des directions scientifiques ont crié : On a gagné, c’est la fin du despo-
tisme. Leur première réaction a été de ne distribuer que 70 % des crédits de
l’année précédente. Les utilisateurs sont assommés car il n’y a eu aucun débat
scientifique. Le tableau suivant donne les variations d’utilisation comparée du
CIRCÉ et du CCVR en 1989 par rapport à 1988.
Utilisation des centres en 1988 et 1989 :
Le COMI en février 1992 avait noté que le centre s’orientait vers le calcul
intensif. Le projet MIPS (Moyens Informatiques Performants pour la Science)
a été mis en place pour parer aux défaillances du COMI. En effet, comme il a
déjà été dit le schéma directeur proposé par le COMI était mauvais. Dans ce
schéma le CCVR et le CIRCÉ évoluaient harmonieusement et chacun remplaçait
sa machine vectorielle pour une plus puissante. Malgré tous les habillages, il n’y
avait pas vraiment d’innovation.
On affirmait la nécessité du réseau. Il était temps : le CNRS et la DRED y
travaillaient depuis quatre ans mais la France était le seul grand pays d’Europe
qui ne l’ait pas encore officiellement annoncé. Et pour continuer, il leur fallait
un aval officiel.
On devait redéfinir les missions, et pour cela, revenir tout simplement à leur
formulation de P. Jacquinot en 1969. Mais beaucoup ne les connaissaient pas, ou
les avait oubliées, ou bien, simplement fallait-il vingt-trois ans pour que la prise de
conscience ait lieu. Mais inutile de paniquer. Partout dans les grands centres étran-
gers, on change d’ordinateur mais on garde l’organisation du centre et son esprit.
Petit à petit, la présentation de la situation s’éclaircit grâce au travail du
projet MIPS.
Mais des discordances apparaissaient en interne quand il s’agissait de dési-
gner le secrétaire permanent du projet.
Le directeur général et moi-même étions persuadés que le choix du secrétaire
permanent de notre COMI était décisif quant à la qualité du schéma directeur
pour l’informatique qu’il fournirait. F. Kourilsky ne voulait pas être pris de
court par les évènements et se voir imposer une nomination. Étant donnée la
composition du COMI, nous aurions certainement eu un schéma directeur sem-
blable au précédent.
J. Sevin le voyait comme une personne ayant un rôle important, capable
de présenter des choix. La communauté scientifique unanime, sans hésitation,
proposa P. Salzedo. Mais A. Berroir souhaitait quelqu’un de beaucoup plus
insignifiant. La personne qu’il craindrait le plus à cette place était précisément
P. Salzedo. Pas comme il le prétendait parce qu’il ne connaissait pas les pro-
blèmes des scientifiques (il sait bien que c’est faux), mais il le savait capable
de déjouer, souvent par sa seule présence, des montages plus ou moins douteux
n’ayant rien à voir avec l’impartialité.
François Kourilsky m’a demandé de lui faire des propositions. Les premiers
noms qui me sont venus à l’esprit sont ceux de Bertrand, directeur du labora-
toire LURE et Victor Alessandrini. Je les avais rencontrés l’un et l’autre à un
congrès récent aux États-Unis organisé par IBM et j’avais apprécié les questions
qu’ils posaient et leurs interventions. L’un et l’autre avaient surtout utilisé des
micros, mais V. Alessandrini faisait partie, en qualité de chercheur, du conseil
scientifique du CCVR. Un autre bon candidat aurait été M. Bigot, du labora-
toire de chimie à l’ENS de Lyon, mais il n’était pas intéressé. Finalement c’est
V. Alessandrini qui fut choisi.
Il n’y a pas eu d’emblée adhésion aux solutions proposées et bien des luttes
et joutes oratoires ont opposé ceux qui étaient hostiles aux changements, ceux
qui pensaient qu’il n’allait pas assez vite, ceux qui restaient indifférents. Mais
l’atmosphère avait changé.
258 De l’IBM 360/75 au superordinateur Jean Zay
181 Note de l’auteure : Il y aura trois discours, par Messieurs Curien, Quilès et Jospin.
J’étais chargée de préparer pour H. Curien, cinq transparents à partir desquels, il établi-
rait lui-même son texte.
Chapitre 11
1993-2013
Introduction
Cette période met fin à une autre de stagnation de quatre années, pendant
lesquelles il n’y a pas eu de matériels nouveaux installés, mais où l’équipe tech-
nique a fourni un gros effort pour à la fois aider les derniers « petits utilisa-
teurs » à prendre leurs ailes, et à se préparer à l’arrivée inéluctable d’un CRAY.
La période de vingt ans a vu trois directeurs : Serge Fayolle pendant cinq ans,
Victor Alessandrini pendant dix-huit ans et Denis Girou, pendant neuf ans de
2011 à 2020. Ils ont tous été the right person at the right place (la bonne
personne au bon endroit). Serge Fayolle, directeur pendant deux mandats, le
premier 1991 à 1993 et le second en 2009 et 2010, dans sa modestie, souhaite
qu’on le considère comme un directeur de transition qui n’a pas droit à l’erreur.
Mais son action a été décisive dans deux périodes critiques. Pendant le premier
mandat, il a fallu à la fois amener et maintenir le niveau de l’équipe pour qu’elle
puisse mettre en marche en un temps record la machine tant attendue et aider
les derniers « petits » utilisateurs à se prendre en mains. Pendant le second, le
problème était autre. V. Alessandrini a très bien mené le centre. Mais, même
avec les instituts disciplinaires, conseils de tous ordres, l’IDRIS dépendait tou-
jours du CNRS et les décisions continuaient à être prises entre le directeur du
centre et celui du CNRS. Quand Fayolle est arrivé, il a dû dialoguer avec les
nouvelles instances, leur rappeler que le centre existait et établir les nouveaux
liens administratifs.
262 De l’IBM 360/75 au superordinateur Jean Zay
Pour compléter ces courbes, il faut lui adjoindre celle établie par l’ORAP
ci-dessous.
Figure 122 – Classement dans le TOP500 des ordinateurs français installés (adapté de
l’ORAP).
mais étaient inutiles car l’équipe sur place en savait autant qu’eux. Cette recon-
naissance était bien venue après le travail de préparation. L’un des trois a été
embauché à la fin du contrat.
L’IDRIS avait engagé trois ingénieurs sur contrat pour le démarrage, l’un a
été affecté à l’exploitation, les deux autres à l’assistance système et utilisateurs.
Cette fusion de l’équipe primaire avec celles venant d’autres origines aurait
pu poser des problèmes délicats. Après une semaine les ingénieurs sur contrat
ont expliqué qu’ils resteraient finir leurs contrats, mais étaient inutiles, car les
équipes sur place étaient aussi bonnes qu’eux. C’était la récompense après tout
le travail de préparation.
En décembre 1993, toutes les machines installées au CIRCÉ ont été arrêtées
et remplacées par un supercalculateur CRAY Y MP C90/94, machine principa-
lement vectorielle.
Rpeak
Mémoire Puissance
Nom NB CPU mesuré
Modèle MHz princi- en OS Rang
IDRIS Cœurs Chip au
pale Gflop/s
TOP500
Y-MP COS/
ATLAS 8 ECL 238 4 Go 8 7,6 81
C90/98 UNIX
Y-MP COS/
AXIS 4 ECL 238 2 Go 4
C90/94 UNIX
268 De l’IBM 360/75 au superordinateur Jean Zay
Quatre fois plus puissant que le CRAY 2, le CRAY C98 est un ordinateur
multiprocesseur vectoriel à mémoire partagée. De ce fait, il permet de gérer les
calculs en parallèle, et donc avec une vitesse accrue par rapport à celle d’un
monoprocesseur. Dans sa version complète, le CRAY C98 peut intégrer huit
processeurs. Sa mémoire principale peut atteindre 4 Goctets et sa mémoire
secondaire 16 Goctets. Son sous-système d’entrées-sorties peut gérer des débits
d’information de plus de dix milliards d’octets par seconde.
Les noms AXIS et ATLAS ont été choisis parce qu’AXIS signifie « Vertèbre
proche de l’atlas » et ATLAS « Première vertèbre cervicale qui soutient la
tête ». ATLAS porte AXIS ; l’utilisation de ces deux calculateurs correspond à
cette image.
11.5 Le CINES
Fin décembre 1999, le CNUSC se transforme pour devenir le CINES 183 (Centre
Informatique National de l’Enseignement Supérieur) actuel, créé par le décret
n° 99-318 du 20 avril 1999. Le changement apporta de nouvelles missions, ainsi
qu’un changement de statut. Le 6 mars 2014, les statuts du CINES sont modifiés
par décret paru au journal officiel qui fait apparaître une nouvelle mission – l’hé-
bergement de matériels informatiques à vocation nationale.
Durant toutes ces années, le nombre de salariés au sein de l’établissement
varie autour d’une quarantaine de techniciens et ingénieurs.
En janvier 2011, le CINES disposait de plusieurs machines pour le calcul
haute performance :
− un ordinateur SGI Altix ICE 8200 EX7 ;
− un ordinateur IBM P1600 + Cluster POWER5 ;
− un cluster Bull (avec GPU pour calcul hybride).
Le supercalculateur Jade (SGI
Altix ICE 8200 EX), dont les carac-
téristiques suivent, a une puissance
de crête de 267 TFlops :
− 536 nœuds bi-socket équipés
de processeurs Intel Xeon
E5472 à 32 Go de RAM ;
− 1 344 nœuds bi-socket équipés
de processeurs Intel Nehalem
X5560 à 36 Go de RAM ;
− Infiniband DDR et QDR 4 x
dual plane ;
− 700 To de disques (Lustre). Figure 125 – Le supercalculateur Jade du CINES
183 https://fr.wikipedia.org/wiki/Centre_informatique_national_de_l%27enseigne-
ment_supérieur#Anciennes_machines_de_calcul
1993-2013 271
d’un très grand nombre de processeurs au sein d’une seule machine, ont
permis une croissance de la puissance de calcul largement supérieure à
celle que l’on pouvait espérer de la loi de Moore. L’informatique de pointe
a été dominée successivement par CDC, CRAY, Fujitsu et actuellement
IBM avec la machine Blue Gene. Les États-Unis et le Japon fournissent la
majorité des machines les plus performantes. »
Dans ce même article, il fait le point sur les architectures parallèles, retrace
l’historique du calcul intensif de l’IDRIS depuis sa création et dresse un bilan de
la réflexion technique et stratégique qui a présidé à l’évolution des gros moyens
informatiques de l’IDRIS.
Un réseau à très haut débit, 8 Go/s relie les trois nœuds. Les utilisateurs ne
voient qu’une seule machine à 40 processeurs.
plus longs pour délivrer toute sa puissance de calcul. Elle supporte certains
codes pas très bien adaptés à la nouvelle architecture vectorielle.
185
La lettre de l’IDRIS de février 2012, article « La programmation parallèle hybride
MPI-Open MP » par Pierre-François Lavallée.
1993-2013 275
La première étude du projet en décembre 2004 186, a été menée par Allan
Sacha Brun du CEA de Saclay et Jean-Paul Zahn de l’observatoire de Meudon.
Elle est intitulée : Vers une compréhension dynamique des étoiles : simulation
3-D de la turbulence et du magnétisme stellaires. En février 2006, l’administra-
tion de DEISA retient 29 projets scientifiques 187 dont le projet HORIZON, qui
est d’utiliser le calcul massivement parallèle pour modéliser la formation des
structures de l’Univers. DEISA a publié un superbe ouvrage 188 portant sur les
résultats scientifiques obtenus grâce à la structure réseau dont ceux sur les ondes
gravitationnelles présentés par l’Italie.
En 2008, V. Alessandrini a organisé un symposium DEISA les 28 et 29 mai à
Édimbourg. Il fait suite à ceux de Paris, Bologne et Munich et, à partir de juin
2008 des séminaires dans ces locaux d’Orsay, sur le thème du calcul de haute
performance, afin d’accompagner les utilisateurs.
188 Advancing Science in Europe, ouvrage collectif sous la direction de Saara Värttö du
CDC de Finlande.
189 Rapport du comité des applications de l’Académie des sciences, La vie des sciences,
comptes rendus, série générale), tome 9,1992, n° 1, p. 63-83, sous la direction de Robert
Dautray.
190 « Calcul Parallèle », ORAP, J-L Lions, 1994.
191 Rubbia et al., Report on the High Performance Computing and Networking Advisory
mai 1997.
1993-2013 277
des calculs sur les centres nationaux se fait dans les mésocentres. Un point
commun pour les centres intermédiaires est le manque de personnel spécifique.
Ils sont utilisés à plein. En 2003-2004 les deux centres nationaux sont l’IDRIS,
55 personnes, 10 MF par an de budget en moyenne entre 1993 et 2000, et le
CINES, 44 personnes, budget d’investissement de 4 MF. En novembre 2003, ils
sont très loin dans le classement du TOP500. Si on cumule les puissances de
crêtes des centres pour la recherche, on arrive à un total qui est le 1/3 de celui
de l’Angleterre et les 3/8 de celui de l’Allemagne.
On peut en effet considérer la simulation « soit comme un centre de coût, soit
comme une opportunité stratégique ». Dans le premier cas, on vise un facteur de
croissance de 50 en 10 ans. Dans le second, le facteur volontariste de 500 est un
pari sur l’avenir aux États-Unis et au Japon. Vers la fin des années 90, le constat
de sous équipement français est flagrant par rapport à celui des Américains.
Pour rattraper ce retard la commission européenne a contribué au finance-
ment de projets destinés à développer le Calcul Haute Performance (CHP) en
Europe. Les principaux moyens de financement sont les programmes cadres qua-
triennaux. Pour les 4e, 5e, 6e, l’Europe a investi respectivement 12 300, 14 940,
16 200 M€. Le 6e donne une place importante aux grilles de calcul et grilles de
données, éléments importants du calcul de haute performance. Les financements
communautaires ne vont pas vers les applications scientifiques et techniques
(modélisation et simulation à grande échelle, par exemple), ce qui peut être
considéré comme regrettable.
Le rapport de l’ORAP 193 appuie en permanence sur notre retard par rapport
à l’étranger et propose, entre autres, pour y remédier un gros effort de formation
des chercheurs et des étudiants. S’appuyant sur les universités américaines, il
met l’accent sur la double compétence nécessaire aux chercheurs de pointe à la
fois dans leur secteur de recherche et en informatique.
Un paragraphe entier, Les centres nationaux de calcul : du ticket modérateur
à une affectation de ressources sur dossier scientifique, est consacré au sujet.
Il souligne les effets néfastes du ticket modérateur. Il rappelle la décision prise
en 1993 :
« Le ministère chargé de la Recherche, prenant conscience de l’importance
croissante du calcul de haute performance, et considérant que ces “grands
instruments scientifiques” devaient être accessibles dans de bonnes conditions
par la communauté scientifique, a décidé de prendre directement en charge
les frais de ces deux centres. Cette “mesure incitative” a joué un rôle impor-
tant dans le développement de la simulation numérique dans de nombreux
domaines. »
Les deux centres nationaux : IDRIS et CINES lancent chaque année un appel
à propositions. Où en est l’Europe dans la course à l’exascale ?
« Les spécialistes des applications et les informaticiens devraient collaborer.
La France connaît cette année une vaste et multiple réflexion autour de
l’avenir de la recherche. La question du calcul scientifique doit être posée
193 http://orap.irisa.fr/wp-content/uploads/2016/03/livre.pdf
278 De l’IBM 360/75 au superordinateur Jean Zay
11 .8 Année 2006
Le Parlement a demandé à deux de ses membres un rapport sur le calcul scien-
tifique. Ce rapport rappelle que :
« L’IDRIS (Institut du Développement et des Ressources en Informatique
Scientifique), fondé en novembre 1993, a pris la suite du CIRCÉ ; il est le
centre majeur du CNRS pour le calcul numérique intensif de très haute per-
formance et est situé à Orsay 194. »
Le rapport 195 se propose de dresser un bilan de la réflexion technique et
stratégique qui a présidé à l’évolution des gros moyens informatiques de l’IDRIS
depuis sa création fin 1993. Une perspective historique n’est pas inintéressante
dans un secteur de pointe comme celui des technologies de l’information, où le
progrès s’accélère de manière vertigineuse et les échelles de temps rétrécissent
tous les jours. Les quelques années qui se sont écoulées ont été riches en ensei-
gnements. Les embûches et les fausses pistes n’ont pas manqué, pour l’IDRIS.
orap.irisa.fr/wp-content/uploads/2016/03/biorap-22.pdf
196 Interview de Catherine Rivière, PDG du GENCI (2016), http://www.genci.fr.
1993-2013 279
11.10.2 COCIN
Le COCIN (Comité d’Orientation pour le Calcul Intensif) a été créé fin 2010 par
la présidence du CNRS. Il est chargé de la réflexion collective sur les besoins,
la structuration et les évolutions en calcul. Il a publié plusieurs livres blancs.
197 https://prace-ri.eu/hpc-access/project-access/
1993-2013 281
possible des avancées majeures dans différents domaines scientifiques mais aussi
bénéficier à la compétitivité industrielle. Atteindre ces objectifs impose de dis-
poser d’applications conçues et optimisées pour une exécution des calculs en
parallèle (sur des calculateurs ayant un très fort degré de parallélisme). De
plus, l’exploitation des masses de données produites par les grandes simulations
nécessite des outils de post-traitement et de visualisation adaptés. La complexité
des architectures de classe Pétaflops et celles des systèmes physiques à simuler
représentent de grands défis. Seules des équipes pluridisciplinaires comptant
des informaticiens spécialisés dans le calcul intensif (HPC, High Performance
Computing), des spécialistes du traitement numérique et des experts dans les
domaines scientifiques visés peuvent les relever.
Les supercalculateurs devraient rendre possible des avancées majeures dans
différents domaines scientifiques mais aussi bénéficier à la compétitivité indus-
trielle. Atteindre ces objectifs impose de disposer d’applications conçues et opti-
misées pour une exécution des calculs en parallèle, sur des calculateurs ayant
un très fort degré de parallélisme. De plus, l’exploitation des masses de données
produites par les grandes simulations nécessite des outils de post-traitement et
de visualisation adaptés. L’objectif principal de la Maison de la simulation est
de favoriser l’utilisation efficace par la communauté scientifique de ces grands
équipements de calcul.
Pour atteindre ses objectifs, la maison de la simulation développe ses acti-
vités dans trois directions :
− un centre de recherche pluridisciplinaire sur la simulation numérique et la
modélisation qui héberge des équipes de recherche regroupant chercheurs
et ingénieurs autour de projets liés au calcul intensif ;
− une unité de service et d’expertise ouverte aux communautés scientifiques ;
− un pôle d’enseignement de formation initiale permanente et d’animation
scientifique en calcul intensif.
En complément à l’accès à des supercalculateurs de classe mondiale, PRACE
a développé une offre de formation de pointe, notamment avec 9 PRACE
Training Centres (PATC) dont un en France, porté par la Maison de la simula-
tion en lien avec les trois centres nationaux de calcul et l’INRIA.
Une brochure, intitulée Grands challenges IDRIS 2012, a été publiée à cette
occasion, présentant tous les projets ayant participé à ces Grands challenges 200.
Elle a été préfacée par Catherine Rivière, présidente directeur général du GENCI
et Philippe Baptiste, directeur des Sciences de l’Information au CNRS. Ils sou-
lignent la politique d’investissement du GENCI qui termine ainsi son premier
cycle d’évolution des moyens de calcul des trois centres nationaux. Elle met ainsi
à la disposition de la recherche scientifique des moyens de calcul scientifique
nécessaires à son excellence.
Nous n’examinerons que deux propositions pour montrer en quoi les nou-
veaux moyens de calcul ont été indispensables.
DAKKAR est un projet de coordination scientifique et technique entre des
équipes du CNRS et du centre opérationnel Mercator Océan, avec des collabora-
tions étroites au Royaume-Uni, en Allemagne et au Canada. Il réalise des simu-
lations numériques de l’océan global et de la banquise à très hautes résolutions
couvrant de longues périodes de cinquante ans et plus. Des simulations réalisées
en 2008 ont montré des fluctuations à basse échelle, avec une grille de calcul de
25 km à l’équateur et 9 pour l’Antarctique. Dans les trois dernières années, une
nouvelle simulation ORCA12 utilise une grille de calcul de 9 km à l’équateur et
200http://www.idris.fr/media/docs/docu/grandschallenges2012/grandschallengesidris
2012.pdf
286 De l’IBM 360/75 au superordinateur Jean Zay
moins de 3 km le long de l’océan Antarctique, ce qui fait un peu plus de 600 mil-
lions de points et multiplie par 30 le temps et le prix du calcul. La méthode
proposée en 2013 propose un maillage tripolaire 4322×3050µ46 points découpés
en 3584 sous domaines océaniques, chaque domaine étant associé à un cœur de
calcul de la machine ADA. Une année de simulation prend 12 heures. Avec les
5 millions d’heures attribuées, l’équipe a pu réaliser 85 ans de simulation et a
poursuivi jusqu’à 100 ans avec les attributions régulières du GENCI. Ces simu-
lations place l’équipe à la pointe de la compréhension et la quantification de la
variabilité des océans ayant une implication climatique forte.
Le second exemple a trait à la simulation d’un univers parallèle. L’univers
est unique. Il est impossible de s’en extraire pour l’observer de l’extérieur. C’est
pourquoi il faut faire des simulations afin de tester les modèles cosmologiques
et de les confronter aux observations, pour apporter des réponses. La complé-
mentarité des supercalculateurs Curie et Ada a été utilisée pour des milliers de
simulations à 16 millions de particules et pour 64 de plus d’un milliard de par-
ticules chacune. À l’issue du calcul, il a été obtenu pour chaque simulation les
spectres de puissance associés à la distribution de matière au cours de l’histoire
de l’univers.
Introduction
Cette période est particulière à plus d’un point de vue. C’est pour le centre une
période d’aboutissement de cinquante ans d’efforts pour la reconnaissance du
centre de calcul du CNRS comme un des grands centres de calcul nationaux
indispensables à la recherche. Deux directeurs se sont succédés : Denis Girou qui
était déjà directeur à la fin de la période précédente et Jean-François Lavallée,
ingénieur de haut niveau, jusque-là responsable du groupe calcul intensif. Il y
a donc eu une parfaite continuité dans l’esprit de la direction, même si chacun
a apporté et apporte sa marque personnelle. En tous cas, ils arrivaient avec la
formation, les compétences techniques adaptées aux problèmes qu’ils avaient à
affronter et une parfaite connaissance du milieu, tant du point de vue des utili-
sateurs, que de l’administration.
Pendant ces années, son histoire ne peut être déconnectée de celle des autres
acteurs français, européens et mondiaux. Les notions d’Intelligence Artificielle,
de calcul quantique étaient dans l’air depuis des années. Mais c’est durant
cette période qu’elles émergent et bouleversent à la fois le paysage informatique
et la temporalité. Le ton était donné depuis cinquante ans par la croissance
exponentielle des puissances installées et des volumes de données gérées, crois-
sance elle-même rendue possible par les avancées technologiques, les nouvelles
architectures vectorielles, parallèles et massivement parallèles. Mais le change-
ment le plus profond vient du renversement de l’opinion sur la place de l’outil
informatique dans notre société. On est passé de l’hostilité à un engouement
difficilement imaginable il y a une décennie. Autrefois, les utilisateurs pleuraient
littéralement devant leurs crédits calcul épuisés. Maintenant, le GENCI fait de
la publicité sur les réseaux sociaux et incite les chercheurs des secteurs publics
et privés, académique ou industriel à déposer des demandes pour attribution de
temps sur ses machines en France ou en Europe. On trouve sur Internet des sites
qui expliquent ce que sont le GENCI et ses trois missions. Dernière nouveauté :
une agréable voix féminine vous invite dans une vidéo 201 à faire, en deux clics,
une demande de temps de temps de calcul sur un calculateur d’exception !
201 https://www.genci.fr/sites/default/files/Livret-information-Genci.pdf
288 De l’IBM 360/75 au superordinateur Jean Zay
202 https://cat.opidor.fr/index.php/Equip@meso
Période 2013-2021 291
Bourgogne-Franche- Université
Comté
Nord-Pas-de-Calais
Normandie Criann
Facteur multiplicatif
Coefficient a
Période tous les 2 ans
En moyenne tous les deux ans la puissance totale installée est multipliée par
1,72 et celle du TOP par 1,90. La croissance a été moins forte à la fois pour le
TP500 et l’IDRIS.
Les deux premières places au TOP500 du 28 juin 2021 restent inchangées
avec les mêmes ordinateurs. La course à l’exascale subit une pause. Le site du
TOP500 dit qu’elle demeure élusive. Le Fugaku reste l’ordinateur commercial
installé le plus puissant dans un centre de recherche avec des pointes mesurées
lors des benchmarks de 537 Pflops. C’est trois fois supérieur à la puissance du
Summit installé par le DOE (département de l’énergie) à l’Oak Ridge National
Laboratory (ORNL) dans le Tennessee aux États-Unis. Summit a atteint l’exas-
cale dans un cas très particulier et avec une précision réduite à 16 bits.
génération, dont les calories sont récupérées pour chauffer le bâtiment CNRS de
l’IDRIS et potentiellement 1000 logements.
L’architecture de Jean Zay préfigure celles des machines exaflopiques
(capables de faire 1 milliard de milliards d’opérations) à venir. À ce titre,
Jean Zay est une plate-forme idéale pour développer les applications massive-
ment parallèles et accélérées de demain, où un seul chercheur accède à tout ou
partie du supercalculateur pour résoudre à l’échelle de la machine un problème
scientifique donné ou exécuter un ensemble de travaux indépendants (simula-
tions d’ensemble, études d’incertitudes et d’optimisation…) ou couplés (simu-
lations multi-physiques). Les caractéristiques techniques détaillées ci-dessous
(figure 135) en font une architecture particulièrement bien équilibrée et aussi
bien adaptée aux problématiques du HPC qu’à celles de l’IA :
− 86 344 cœurs de calcul Intel Cascade Lake cadencés à 2,5 GHz ;
− 1 292 GPU NVIDIA V100 avec 32 Go de mémoire HBM2 (phase 1) ;
− 1 404 GPU NVIDIA V100 avec 16 Go de mémoire HBM2 (extension) ;
− 427 To de mémoire totale,
− un réseau d’interconnexion Intel Omni-Path à 100 Gb/s avec une topo-
logie de type Enhanced-Hypercube 8D ;
− un système de stockage de premier niveau en technologie Full Flash de 2,2
Po, accessible avec une bande passante supérieure à 500 Go/s ;
− un système de stockage capacitif de second niveau en technologie disques
rotatifs de 35 Po de volumétrie accessible avec une bande passante supé-
rieure à 150 Go/s.
Figure 136 – Les machines du GENCI dans les trois centres nationaux
12 .2 Organisation administrative
L’ensemble PRACE-GENCI est un franc succès, même s’ils sont imparfaits. On
croule un peu sous le nombre des comités, commissions, groupes de travail, ate-
liers, mais au moins on n’y discute plus de ticket modérateur, ni de l’intérêt de
l’informatique. Un jeune chercheur ne peut imaginer la nature des luttes de ses
aînés d’il y a trente ans pour la survie des centres de calcul.
12.2.1 MICADO
La Mission-Calcul Données (MICADO) du CNRS 203, a été créée le 2 mars 2015.
Elle est présidée par Denis Veynante. Son comité de pilotage est constitué par le
Comité d’Orientation pour le Calcul Intensif (COCIN). Elle doit 204 :
− assurer la définition et la mise en œuvre d’une politique globale et cohé-
rente du CNRS pour tout ce qui concerne le calcul haute performance,
les grilles, le « cloud » et les infrastructures de données massives dès que
le coût en investissement et/ou en fonctionnement, y compris les charges
salariales, est significatif. En conséquence, la mission a la charge de tous
les projets d’investissement du CNRS (sur budget opéré par le CNRS, que
ce soit en subvention d’État ou en ressources propres) dans ce domaine, y
compris les projets d’infrastructures immobilières ou de travaux immobi-
liers « conséquents » associés ;
− piloter les ressources humaines et financières affectés aux centres de calcul,
grilles, laboratoires dédiés tels que IDRIS, CC-IN2P3 (hors missions spéci-
fiques IN2P3), France-Grilles, Maison de la simulation, LCG, etc. en parte-
nariat avec les instituts de rattachement de ces unités. La mission présidera
le conseil d’administration de l’IDRIS et participera à celui du CC-IN2P3 ;
− veiller à la cohérence de la politique du CNRS dans le domaine défini précé-
demment avec les « objets » de niveau national ou international. Il est aussi
l’un des représentants du CNRS aux conseils d’administration de GENCI,
de RENATER, du CINES et au comité de pilotage d’INFRANUM ;
− aider les directeurs scientifiques référents à construire, avec nos parte-
naires, une stratégie conjointe en matière de calcul haute performance et
de grandes masses de données. Cette stratégie s’appuiera en particulier
sur les mésocentres et les centres de compétences mutualisés dans lesquels
le CNRS s’investit ou décidera de s’investir.
203 http://www.cocin.cnrs.fr/
204 http://www.cocin.cnrs.fr/spip.php?rubrique31
Période 2013-2021 297
Les ressources sont toujours attribuées sur des critères scientifiques, mais
pour plus d’efficacité une petite partie du temps l’est avec plus de souplesse
pour tenir compte momentanément de contraintes matérielles ou logicielles, en
particulier au moment de changement de machine.
Deux fois par an, sous la coordination du GENCI, un appel à propositions
commun à l’ensemble des centres nationaux (CINES, IDRIS et TGCC) est orga-
nisé pour une allocation d’heures valable un an. Les demandes de ressources 206
se font par le formulaire DARI 207 (Demande d’Attribution de Ressources
Informatiques) pour l’ensemble des centres. Le circuit des demandes d’allocation
est schématisé dans la figure 138 ci-après.
Les demandes sont examinées du point de vue scientifique par des comités thé-
matiques. Puis, un comité d’évaluation se réunit pour statuer sur les demandes
de ressources et indiquer au comité d’attribution, placé sous la responsabilité de
GENCI, les propositions d’affectation des heures de calculs sur les trois centres
nationaux. Entre ces deux appels à projets, la direction de l’IDRIS étudie les
demandes spécifiques (dites « Au fil de l’eau ») et effectue des attributions
limitées pour éviter le blocage de projets en cours. Afin de pouvoir évaluer et
améliorer les performances de leurs codes sur la machine, les nouveaux projets
disposent d’une procédure appelée « Accès préparatoire » permettant de béné-
ficier de facilités. En une séance ont allouées :
− 50 000 heures cœurs sur la partition CPU de Jean Zay ;
− 1000 heures GPU sur la partition GPU de Jean Zay.
Depuis avril 2010, PRACE a organisé 20 appels à projets qui ont permis
d’offrir plus de 23 milliards d’heures à 734 projets européens.
Ci-après, la liste des comités thématiques associés à chaque secteur :
− Environnement ;
− Écoulements non réactifs ;
− Écoulements réactifs et/ou multiphasiques ;
− Biologie et santé ;
− Astronomie et géophysique ;
− Physique théorique et physique des plasmas ;
− Informatique, algorithmique et mathématiques ;
− Dynamique moléculaire appliquée à la biologie ;
Période 2013-2021 299
208 https://www.techno-science.net/definition/6170.html
209 Vekia-Guide : Les 5 pré-requis pour la réussite de l’IA à grande échelle.
300 De l’IBM 360/75 au superordinateur Jean Zay
210
https://www.vie-publique.fr/sites/default/files/rapport/pdf/184000159.pdf
Cette expression traduite de l’anglais « cyber colonisation » employée par Catherine
211
212 https://www.enseignementsup-recherche.gouv.fr/cid136649/la-strategie-nationale-
de-recherche-en-intelligence-artificielle.html
213 21 mesures pour l’enseignement des mathématiques, https://www.education.gouv.fr/
21-mesures-pour-l-enseignement-des-mathematiques-3242
214 Quand la machine apprend, Yann Le Guen, éditions Odile Jacob.
215 Le Nouvel observateur, n° 2867 du 17/10/2019.
216 https://www.wedemain.fr/inventer/qui-est-yann-lecun-ce-francais-qui-a-decroche-le-
prix-turing-le-nobel-de-l-informatique_a4008-html/
217 https://www.lesechos.fr/tech-medias/intelligence-artificielle/yann-lecun-recoit-le-
prix-turing-cest-une-histoire-pleine-de-rebonds-1004128
302 De l’IBM 360/75 au superordinateur Jean Zay
anglaise, portait sur l’étude de l’année 1929 en Angleterre. Une proposition de construc-
tion d’un tunnel sous la Manche avait été faite. La majorité du département travail-
liste était favorable. Puis, une commission a été nommée. Sir William Bull et le baron
d’Erlinger, champions infatigables de la bonne cause, remuaient ciel et terre. Un ingénieur,
M. Collard, a rédigé les projets techniques avec la construction d’une ligne nouvelle à
traction électrique. Il a même donné des horaires Paris-Londres en 2 h 45. Les partisans
l’étaient sans aucune réserve. Les autres invoquaient de multiples raisons sans fondement
et contradictoires pour le refuser. G. Connes dit qu’il est certain que le bon sens finira par
l’emporter, mais qu’il ne sait pas quand.
219 Le blob, une cellule qui apprend, le journal du CNRS,16 juillet 2020, Reportage
CNRS, vidéo.
Période 2013-2021 303
220 https://www.lesechos.fr/tech-medias/intelligence-artificielle/kai-fu-lee-cerveau-
de-lintelligence-artificielle-en-chine-1023047
221 http://orap.irisa.fr/wp-content/uploads/2018/11/5-Orap-F42-GENCI-Stephane-
Requena.pdf
304 De l’IBM 360/75 au superordinateur Jean Zay
222 http://orap.irisa.fr/wp-content/uploads/2018/11/5-Orap-F42-GENCI-Stephane-
Requena.pdf
223 https://jcad2019.sciencesconf.org/data/JCAD_Toulouse_2019MDayde.pdf
Période 2013-2021 305
12.4.3 Climat
Le climat est étroitement lié à la météorologie et pour les différencier on peut
dire de façon schématique que la météorologie est l’étude déterministe du temps
qu’il fait, avec le détail de sa chronologie, alors que le climat est l’étude des
caractéristiques statistiques du temps qu’il a fait ou qu’il pourrait faire. Le
climat comporte plusieurs particularités, certaines étant communes avec la
météorologie, d’autres étant spécifiques : on ne peut en isoler une sous-partie,
on ne peut pas faire d’expériences contrôlées, c’est un système chaotique ou de
Période 2013-2021 307
226https://www.lenovo.com/fr/fr/smarter/smart-supply-chain-solutions?utm_source=−
Google&utm_medium=Search&utm_campaign=MasterBrand_Supply_Chain_Theme
&cid=fr:sem:4cva69&gclid=CjwKCAjwyIKJBhBPEiwAu7zll9kea_TXcN6A2-voe2y_
4g46jaghY9v-Znb6KzWRKU8mGaUWU3rm-hoC6TMQAvD_Bw
Période 2013-2021 309
Après un appel à candidatures lancé par GENCI auprès des différents comités
thématiques représentant les disciplines utilisatrices, 30 Grands challenges (18 en
310 De l’IBM 360/75 au superordinateur Jean Zay
227 http://www.idris.fr/media/jean-zay/grands-challenges/grands-challenges-idris-2020.pdf
228 http://www.idris.fr/media/jean-zay/grands-challenges/grands-challenges-idris-2020.pdf
229 https://www.genci.fr/sites/default/files/RA2011-Genci-VF-opt2_0.pdf - RacE pre-
miers pas
Période 2013-2021 311
Figure 140 – Centres de recherche européens travaillant sur la Covid-19. Crédit : Shutterstock/
Inna Bigun
230 https://prace-ri.eu/hpaccess/hpcvsvirus
312 De l’IBM 360/75 au superordinateur Jean Zay
12.5 La sécurité
La sécurité a été sérieusement pensée par les constructeurs et les développeurs
des systèmes d’exploitation qui ont su l’intégrer pleinement dans leurs cahiers
des charges et définir des modèles innovants aussi bien d’un point de vue maté-
riel que logiciel. L’introduction de la mémoire flash complexifie l’extraction
des données en mémoire car, contrairement au cas des disques durs, de solides
compétences en électroniques sont requises ainsi que du matériel spécialisé.
Du point de vue l’architecture logicielle, les noyaux robustes du monde UNIX
et les concepts de virtualisation ont su être judicieusement réutilisés pour
mettre en œuvre le principe du cloisonnement des applications. Ces précau-
tions s’accompagnent d’autres mesures de sécurité comme la gestion fine des
privilèges accordés aux applications ou la signature numérique des applica-
tions installées.
La communauté des chercheurs en IA, n’était pas habituée aux pratiques
des utilisateurs traditionnels du calcul intensif, ni aux contraintes d’accès d’un
centre national. GENCI, a dû faire évoluer les modes d’accès aux ressources,
dans le respect de règles de sécurité indispensables, étant donnés la valeur et
le caractère stratégique des matériels mis à disposition. Il a fallu aller vers plus
de flexibilité et de souplesse, ce dont profitent aussi tous les autres utilisateurs.
Parallèlement, l’IDRIS a mis en place un environnement logiciel adapté et un
support dédié de très haut niveau.
teur-quantique.aspx
Période 2013-2021 313
234 https://lejournal.cnrs.fr/dossiers/dans-les-coulisses-de-la-nouvelle-revolution-quan-
tique
235 https://lejournal.cnrs.fr/articles/les-promesses-du-controle-quantique
236 https://www.journaldunet.com/solutions/dsi/1444084-matrice-umanis-de-l-ia-quan-
tique-d-wave-ibm-et-rigetti-en-tete/
314 De l’IBM 360/75 au superordinateur Jean Zay
Xanadu Petite échelle pour l’instant mais Bon momentum côté machine
souhaite concurrencer les grands learning (avec les composants
acteurs StrawberryFields, Pennsylvanie)
237 https://blog.materiel.net/amd-sur-tous-les-fronts/#more
238 https://www.techno-science.net/actualite/ordinateur-promesses-aube-quantique-
N18376.html
239 https://lejournal.cnrs.fr/articles/ordinateur-les-promesses-de-laube-quantique
240 https://usbeketrica.com/fr/article/comment-ordinateur-quantique-pourrait-transfor-
mer-notre-monde
316 De l’IBM 360/75 au superordinateur Jean Zay
12.6.3 IBM
IBM 241 est bien décidé à tenir sa place dans le peloton de tête des géants
de l’informatique quantique. Son premier microprocesseur quantique, le Falcon
traitant 27 qubits en 2019 s’est vu adjoindre en 2020 le Hummingbird qui mon-
tait jusqu’à 65 qubits. Les prévisions fort ambitieuses tablent sur un proces-
seur à 127 qubits dans l’année, puis 433 qubits en 2022. Il espère dépasser les
1123 qubits d’ici 2023 avec le IBM Condor. Ce serait une vraie révolution.
IBM a déjà de multiples quantum systèmes avec les 27 qubits Falcon proces-
seurs aussi bien que des systèmes avec les 65 qubits Hummingbird processeurs,
accessibles aux membres de l’IBM quantum network. En attendant, IBM vient
d’inaugurer son premier ordinateur quantique sur territoire européen. Plus pré-
cisément dans ses Data centers d’Ehningen, près de Stuttgart, le « Q System
One » de 27 qubits. Il est basé sur le Falcon. Pour soutenir l’énergie délivrée
par un tel processeur, IBM a déjà pensé et construit un système de refroidis-
sement de trois mètres de haut. Sur le long terme, le constructeur imagine des
processeurs contenant des millions de qubits, tous reliés à d’immenses systèmes
de refroidissement pour permettre une puissance capable de changer le monde.
C’est de la science-fiction car il faudrait que les logiciels puissent les utiliser.
« Le Q system one est d’ores et déjà à la disposition des entreprises, start-up,
instituts de recherche et universités. Il s’agit d’un tournant dont l’économie,
l’industrie et la société allemandes tireront un grand profit. Les ordinateurs
quantiques promettent de résoudre des catégories entièrement nouvelles de
problèmes qui sont hors de portée des ordinateurs conventionnels les plus
puissants d’aujourd’hui », a déclaré le CEO d’IBM Arvind Krishna.
241https://www.ictjournal.ch/news/2021-06-16/ibm-lance-le-plus-puissant-des-ordina-
teurs-quantiques-deurope
Période 2013-2021 317
12.6.4 Microsoft
Microsoft avait misé sur le fermion Majorana ndlr plus stable, permettant d’aug-
menter le nombre de qubits. L’annonce 242 au début de l’année incluait des outils
de développement. Un article était paru dans Nature. Mais des difficultés sont
survenues et le projet a été arrêté momentanément.
12.6.5 Honeywell
Un nouvel acteur de poids 243 émerge dans le domaine de l’informatique quan-
tique. Le groupe industriel Honeywell et la start-up Cambridge Quantum
Computing ont créé une joint-venture dont le nom reste à déterminer. Objectif
annoncé : proposer le portefeuille de technologies et de solutions d’informatique
quantique le plus complet du secteur.
Cambridge Quantum est l’un des leaders mondiaux en matière de logiciels et
d’algorithmes quantiques.
L’équipe pluridisciplinaire d’Honeywell se consacrant à l’informatique quan-
tique (160 personnes) va rejoindre la joint-venture, qui comptera au total
quelque 300 collaborateurs. Le CEO d’Honeywell, Darius Adamczyk, sera le
président de la nouvelle société, qui sera dirigée par le CEO de Cambridge
Quantum Ilyas Khan. Honeywell investira entre 270 et 300 millions de dollars
dans la nouvelle société et disposera d’un accord à long terme pour participer à
la fabrication des pièges à ions critiques nécessaires à l’alimentation du matériel
quantique. Reuters précise que Cambridge Quantum détiendra le reste avec ses
investisseurs, dont fait partie IBM, l’un des acteurs clés de l’informatique quan-
tique. Cambridge Quantum continuera à collaborer avec Big Blue ainsi qu’avec
d’autres fabricants du secteur, a précisé à Reuters le CEO Ilyas Khan.
242https://experiences.microsoft.fr/articles/quantique/informatique-quantique-pari-fou
243https://www.ictjournal.ch/news/2020-03-05/honeywell-affirme-avoir-cree-le-plus-puis-
sant-des-ordinateurs-quantiques
318 De l’IBM 360/75 au superordinateur Jean Zay
Toute l’histoire écrite dans les chapitres précédents est celle d’un centre de
calcul français créé il y a cinquante ans, phénomène très limité dans le temps,
dans l’espace, et finalement par le nombre de personnes directement impliquées.
Elle a permis de faire la liste des matériels installés de plus en plus rapides, des
logiciels de plus en plus sophistiqués et performants, et plus important des pro-
blèmes scientifiques de plus en plus ardus qu’ils ont permis d’aborder. L’occasion
était donnée de rendre hommage à l’équipe technique dont la continuité et le
travail ont permis la réussite de l’entreprise. Mais elle a surtout mis en évidence
plusieurs phénomènes sociétaux dont certains sociologues commencent à faire
des objets d’études. Ils sont de plusieurs ordres. Le plus évident est qu’à côté
de l’histoire des réalisations, il existe une histoire parallèle relatant les diffi-
cultés de tous ordres qui ont abouti à des choix et des compromis. Un autre est
que l’acceptation d’une proposition novatrice prend toujours du temps. Il y a
une phase de rejet pour de fausses raisons techniques, puis de reconnaissance
du principe accompagnée de multiples objections plus rationnelles mais sans
rapport avec l’objet. Suit une prise de conscience de l’intérêt du projet, accom-
pagnée de l’appropriation de l’idée de départ avec un enthousiasme tout nou-
veau pour mettre en œuvre des solutions. On parle beaucoup pour le moment
de prise de conscience dans tous les domaines. Dans celui de l’informatique,
c’était vrai jusqu’à l’arrivée de l’informatique photonique, mais c’est peut-être
en train de changer. Enfin, cette histoire a souligné la nécessité première de
rester vigilant à toutes les découvertes et idées nouvelles qui se font chaque jour
autour de nous. Il n’y a pas si longtemps, quand une expérience avait été faite
à l’étranger, il fallait attendre une publication pour la connaître. Maintenant,
avec les nouveaux moyens de communication, la planète entière peut être mise
au courant instantanément. Alors le danger vient d’être noyé sous les informa-
tions. Heureusement, nous sommes assistés par des instances qui font le tri pour
nous. Dans notre cas, un site du GENCI informe journellement de ce qui s’est
découvert depuis la veille, avec en plus des historiques mensuels. 245
245 http://www.prace-ri.eu/2021/
320 De l’IBM 360/75 au superordinateur Jean Zay
Mais le phénomène est plus subtil. Nous suivons au jour le jour l’installation
de machines toujours plus puissantes dans le monde, au Pakistan, en Slovénie
ou ailleurs. Elles se multiplient. Nous nous rassurons en voyant le réseau de tous
les ordinateurs qui travaillent à des recherches sur la Covid-19. Nous sommes
admiratifs des moyens déployés. Il existe depuis toujours une histoire parallèle
du développement de l’informatique, non pas à l’échelle d’un petit centre de
calcul, mais à l’échelle mondiale. Avec une énorme différence : la temporalité a
changé. L’histoire parallèle est connue au moment où elle se crée et on pourrait
parler d’histoire hybride comme on parle d’ordinateurs hybrides.
Nous nous heurtons aux limites de notre conception classique des ordinateurs
conventionnels. Une première révolution a eu lieu avec l’arrivée des ordinateurs
quantiques à puces électroniques, mais ils avaient encore des limites. Cependant
ils ont permis la démonstration de l’avantage quantique pour certains types de
programmes. Mais il y a encore beaucoup de difficultés à vaincre pour passer à
un usage courant et à l’industrialisation. Le problème de l’échauffement pour les
grandes puissances n’est pas résolu, encore moins pour les ordinateurs classiques
quantiques que pour les conventionnels. Le Jean Zay chauffe déjà tous les labo-
ratoires du plateau de Paris-Saclay.
Le 3 décembre 2020, une publication a stupéfié le monde informatique, celle
de la parution dans le très sérieux journal Science d’un article d’une équipe
chinoise de l’université Science & Technology of China de Hefei 246. Sous la direc-
tion de Chao-Yang Lu, elle a démontré l’avantage quantique, le fameux quantum
advantage, en résolvant le problème de l’échantillonnage du boson gaussien,
problème de combinatoire, sur un ordinateur à puces photoniques, le Jiuzhang,
en 200 secondes au lieu de 2,5 billions d’années qu’aurait duré le calcul sur leur
ordinateur conventionnel le plus puissant le SunwayThahuligh (classé quatrième
au TOP500) (figure 143).
L’idée de cette possibilité avait été émise en 2011 par S. Auromson et
A. Arkhipov 247, mais la réalisation constitue une prouesse dans un temps si
court. La photo qui suit a fait le tour du monde et depuis quelques mois illustre
beaucoup de publications sur le sujet.
Radio Canada a donné l’information le 4 décembre 248. La nouvelle a été
immédiatement reprise par toute la presse académique, dont Nature qui titre :
Light on Quatum Advantage 249 et Integrated Avalanche Photodetectors for
Visible Light 250 et par des journaux industriels 251. Chacun essaie de faire une
vulgarisation compréhensible, mais suffisamment exacte pour frapper les esprits.
246 Noms des membres de l’équipe : Han-Sen Zhong, Hui Wang, Yu-Hao Deng, Ming-
Cheng Chen, Li-Chao Peng, Yi-Han Luo, Jian Qin, Dian Wu, Xing Ding, Yi Hu, Peng
Hu, Xiao-Yan Yang, Wei-Jun Zhang, Hao Li, Yuxuan Li, Xiao Jiang, Lin Gan, Guangwen
Yang, Lixing You, Zhen Wang, Li Li, Nai-Le Liu, Chao-Yang Lu, Jian-Wei Pan.
247 S. Aaronson & A. Arkhipov In Proc. 43rd Annual Symposium on Theory of Computing,
quantique-a-emission-de-lumiere-39914415.htm
Épilogue 321
Dès le lundi 7 décembre, les actualités du journal DZNET insistent sur l’im-
portance de la réalisation de l’échantillon de boson gaussien qui est peut-être un
véritable tournant dans le monde de l’informatique. La nouveauté, et elle est de
taille, c’est que les photons ont remplacé des particules de métal et qu’il n’y a
plus besoin de réfrigération extrême. Dans son article, Delphine Leprince-Ringuet
prévient que la valeur de l’expérience réside plutôt dans la preuve que les ordina-
teurs quantiques basés sur la lumière pourraient être aussi prometteurs que leurs
homologues basés sur la matière. Le 8 décembre, c’est au tour du site Micronews
de titrer : Photon based quantum computer does a calculation that ordinary com-
puters might never be able to do. En Chine, la nouvelle est annoncée dans deux
émissions en ligne du Quotidien du Peuple les 7 et 21 décembre 2020252. Elle
précise que le prototype d’ordinateur quantique chinois Jiuzhang est leader mon-
dial en matière de capacités de calcul. Il a exécuté en 200 secondes un travail qui
aurait pris 600 millions d’années sur l’ordinateur le plus puissant du monde.253
Aussitôt, une avalanche d’articles est apparue dans les milieux académiques
et industriels pour discuter les résultats. Les deux champions, Google avec son
Sycamore et IBM avec Humingbird avaient déjà démontré l’avantage quan-
tique, dans une moindre proportion, mais qu’ils prétendaient pouvoir améliorer.
L’expérience chinoise était une deuxième vérification obtenue cette fois avec des
puces photoniques. Les discussions résident sur la portée de cet exploit. Très
modestement, l’équipe chinoise explique qu’ils ont démontré l’avantage avec un
superordinateur construit pour résoudre certains problèmes.
Quels sont les développements prévus et en cours ?
Depuis plusieurs années, on connaissait la course à l’exascale avec les ordi-
nateurs traditionnels et le fameux classement au TOP500. Puis il y eu une pre-
mière évolution quantique avec des qubits intégrés dans des puces électroniques
par Google et IBM. Les découvertes s’accélèrent. La course à la puce photonique
est maintenant lancée. Des possibilités énormes de gains l’accompagnent 254.
252 http://www.focac.org/fra/zjfz_2/dcfz/t1838379.htm
253 Le Fugatu japonais.
254 Zong, H.-S. et al., Science https://doi.org/10.1126/science.abe8770(2020)
http://www.focac.org/fra/zjfz_2/dcfz/t1841485.htm
https://www.bcv.ch/pointsforts/Marches/2021/L-informatique-photonique-quantique-
un-saut-de-puce-gigantesque
322 De l’IBM 360/75 au superordinateur Jean Zay
255https://www.usinenouvelle.com/editorial/pour-son-ordinateur-quantique-quandela-
mise-sur-les-photons-uniques.N1095889
Épilogue 323
C’est moins novateur et surtout les constructeurs espèrent rentabiliser tout leur
travail précédent sur les ordinateurs conventionnels. IBM fait dans ce sens un
effort particulier et dit renaître de ses cendres. Une chercheuse française du CNRS
travaillant en France et aux États-Unis, Eleni Diamanti,256 a fait avec d’autres
chercheurs une démonstration expérimentale du quantum advantage à l’aide d’un
système expérimental photonique, combiné avec un algorithme interactif com-
plexe qui permet de résoudre un certain type de problèmes mathématiques avec
des informations limitées.
Ces dernières lignes avaient été écrites en juin 2021. Mais le paysage a évolué
encore plus vite qu’on ne l’avait anticipé. Le 28 octobre, la Chine257 annonce à la
fois que Jiuhzang 2 a réalisé en 1 milliseconde ce qui aurait pris 30 billions d’années
sur un ordinateur classique et que Zuchongzhi 2 avec ses 66 qubits est 10 millions
de fois plus rapide que le Sycamore de Google. La Chine a donc maintenant la
suprématie aussi bien dans le domaine quantique supraconducteur qui fonctionne
à température proche du zéro absolu que dans le domaine quantique photonique
qui travaille à la température ambiante. Toute la presse s’en fait l’écho.
Des superordinateurs photoniques ont vu le jour et ils se développeront à
l’avenir. Mais reste le problème du Big Data et des Data centres qui se multi-
plient et sont d’énormes consommateurs d’énergie parce qu’il faut les refroidir.
Une technique révolutionnaire, a été proposée en novembre 2020 : stocker les
données sur l’ADN. Toutes les données du monde tiendraient dans la main258.
Le 30 novembre 2021 à 18 h 30, Alice Vitard publie dans L’Usine digitale un
article : « Grâce à l’IA, l’Institut Curie veut prédire l’efficacité des traitements
contre le cancer du sein ». Pouvoir prédire s’il y aura récidive ou pas, si les trai-
tements seront efficaces ou pas, serait un progrès immense.
Combien d’heures de calcul seront-elles nécessaires pour les études à venir sur
le comportement du blob ?
Le site GENCI 259 donne les informations parues en 2021 :
y le 16 novembre sur le nouvel ordinateur Adastra qui sera installé au CINES ;
y le 17 novembre sur :
− une nouvelle participation dédiée à l’IA pour le supercalculateur
Jean Zay, particulièrement intéressante puisqu’elle détaille l’upgrade
qui sera fait du Jean Zay en 2022. Le GENCI, l’IDRIS et NVIDIA
annoncent une augmentation massive des ressources du Jean Zay
consacrées à la recherche en Intelligence Artificielle, boostées par les
performances du dernier accélérateur NVIDIA 100.
Figurant déjà parmi les supercalculateurs convergés les plus puissants en
Europe, Jean Zay va voir sa configuration encore évoluer pour atteindre
au début de l’année 2022 un total de plus de 3 152 GPUs, comprenant à
la fois des GPU NVIDIA V100 et des GPU NVIDIA A100 Tensor Core.
260 https://www.genci.fr/fr/node/1157
261 https://www.ins2i.cnrs.fr/fr/cnrsinfo/hpcqs-vers-un-supercalculateur-quantique-
federe-en-europe
Et https://www.hpcqs.eu/
262 https://www.actuia.com/actualite/ibm-annonce-larrivee-de-son-nouveau-processeur-
quantique-supraconducteur-de-127-qubits-eagle/
263 https://research-ibm-com.translate.goog/interactive/system-one/?_x_tr_sl=en&_
x_tr_tl=fr&_x_tr_hl=fr&_x_tr_pto=sc
Épilogue 325
version de leur Quantum System One est tellement complexe et fragile qu’elle
est encapsulée dans une enceinte scellée et hermétique de 30 sur 30 cm de verre
borosilicaté de 1,5 cm d’épaisseur. Le cryostat du système est composé de deux
cadres indépendants en aluminium et acier. Le premier système pour les essais
mécaniques a été assemblé et testé en Italie. Maintenant ils ont des installations
en Amérique du Nord, en Allemagne et au Japon, avec disent-ils bien d’autres
à venir. Les nouveaux centres de calcul abritent des systèmes accessibles aux
membres d’IBM Quantum Network via l’IBM cloud. Les projets que ces instal-
lations permettront dans tous les domaines concernent toutes les disciplines264.
La France veut rattraper son retard et une partie de la somme de 1,8 milliard
que le président Macron a annoncée pour le secteur ira probablement à deux
startups françaises sous forme de subventions de l’État. Il s’agit de Pasqal qui
développe un ordinateur quantique de 100 qubits avec pour objectif 1000 qubits
pour la fin de 2023 et Quandela qui promet un premier ordinateur quantique
photonique complet en 2022. Avec son générateur de photons uniques intégré,
Prometheus, premier ordinateur quantique, trône dans le showroom de Quandela.
Figure 144 – Le générateur de photons uniques Prometheus intègre des lasers, des filtres,
de l’électronique et un petit cryostat. © Cyril Frésillon / CNRS / Quandela
264https://www.guideinformatique.com/actualites-informatiques/ibm-deploie-le-quan-
tum-system-one-au-japon-1867.html
Table des illustrations