De l'IBM 360/75 au superordinateur Jean Zay: 50 ans d'informatique au centre de calcul du CNRS d'Orsay 9782759825783

En1969, la direction du CNRS demande à Janine Connes de créer un centre de calcul ayant pour mission de permettre aux ut

235 39 7MB

French Pages 336 Year 2022

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Table des matières
Remerciements
Introduction
PREMIÈRE PARTIE Vue générale sur le développement du centre de calcul d’Orsay
Introduction
Chapitre 1 Préhistoire du CIRCÉ, de 1954 à 1969
Chapitre 2 La création du CIRCÉ
Chapitre 3 Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020
Chapitre 4 Évolution des puissances installées au centre de calcul de 1969 à 2020
DEUXIÈME PARTIE Étude détaillée de l’évolution du centre de calcul d’Orsay de 1969 à 1981
Chapitre 5 Période 1969-1972
Chapitre 6 Période 1972-1981
Chapitre 7 L’histoire parallèle du centre de 1969 à 1975
Chapitre 8 Histoire parallèle de 1976 à 1980
Chapitre 9 Période 1981-1989
Chapitre 10 1989-1992
Chapitre 11 1993-2013
Chapitre 12 Période 2013-2021
Chapitre 13 Épilogue
Table des illustrations
Recommend Papers

De l'IBM 360/75 au superordinateur Jean Zay: 50 ans d'informatique au centre de calcul du CNRS d'Orsay
 9782759825783

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Janine Connes

De l’IBM 360/75 au superordinateur Jean Zay Cinquante ans d’informatique au centre de calcul du CNRS d’Orsay

Avec la participation de Françoise Perriquet

Des annexes sont disponibles en ligne en libre accès sur la boutique en ligne de l’éditeur : https://laboutique.edpsciences.fr/

« Sciences & Histoire » La collection Sciences & Histoire s’adresse à un public curieux de sciences. Sous la forme d’un récit ou d’une biographie, chaque volume propose un bilan des progrès d’un champ scientifique, durant une période donnée. Les sciences sont mises en perspective, à travers l’histoire des avancées théoriques et techniques et l’histoire des personnages qui en sont les initiateurs.

Photos de couverture : Salle machine, 1969 ©CIRCÉ/CNRS Ordinateur Jean Zay installé au CIRCÉ en 2019 ©Cyril Fresillon/IDRIS/CNRS Crédits photos IBM Figure 96 : IBM 3090 - Reprint Courtesy of IBM Corporation © Figure 98 : IBM 3350 - Reprint Courtesy of IBM Corporation © Figure 99 : IBM 3380 - Reprint Courtesy of IBM Corporation © Figure 142 : Unité de refroidissement – Réfrigérateur à dilution de l’ordinateur quantique à circuits supraconducteurs construit par IBM - Reprint Courtesy of IBM Corporation ©

Imprimé en France ISBN (papier) : 978-2-7598-2577-6 – ISBN (ebook) : 978-2-7598-2578-3 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective  », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, «  toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences 2022

Table des matières

Remerciements. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

PREMIÈRE PARTIE Vue générale sur le développement du centre de calcul d’Orsay

13

Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Chapitre 1. Préhistoire du CIRCÉ, de 1954 à 1969 . . . . . . . . . . . . . . 1.1 En 1954 apparition en France d’un premier besoin de calcul intensif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Le centre de calcul du JPL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Participation à l’implantation de la FFT (Fast Fourier Transform). . . 1.4 Conseils reçus pour la création d’un centre de calcul de service. . . . . . 1.5 Cinquante ans après. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

Chapitre 2. La création du CIRCÉ. . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Brève récapitulation de l’histoire de l’informatique de service en France avant 1969. . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 La scission avec l’Institut Blaise Pascal (IBP) de la rue du Maroc en 1969. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Réaction du CNRS et de l’Enseignement supérieur. . . . . . . . . . . . . . . 2.4 Relations CNRS-Enseignement supérieur. . . . . . . . . . . . . . . . . . . . . . 2.5 Comment résoudre ces difficultés. . . . . . . . . . . . . . . . . . . . . . . . . . .

29

Chapitre 3. Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Tableau d’ensemble de la vie du centre sur la période 1969-2020. . . . . 3.3 Grandes lignes pour la formation des ingénieurs et des utilisateurs. . . . 3.4 Grandes lignes des relations à l’international. . . . . . . . . . . . . . . . . . . 3.5 Effectifs du personnel et sa formation. . . . . . . . . . . . . . . . . . . . . . . . 3.6 Principaux rapports sur l’informatique outil pour la recherche. . . . . . .

17 20 24 26 27

30 35 39 40 43 47 48 50 61 63 63 68

Chapitre 4. Évolution des puissances installées au centre de calcul de 1969 à 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.1 Plusieurs chronologies en informatique . . . . . . . . . . . . . . . . . . . . . . . 72 4.2 Chronologie et loi de Moore au centre de calcul de 1969 à 2019. . . . . . 81

IV

De l’IBM 360/75 au superordinateur Jean Zay

DEUXIÈME PARTIE Étude détaillée de l’évolution du centre de calcul d’Orsay de 1969 à 1981

95

Chapitre 5. Période 1969-1972. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Évolution des puissances de 1969 à 1981. . . . . . . . . . . . . . . . . . . . . . 5.2 La période de mise en place du centre : 1969-1972. . . . . . . . . . . . . . . 5.3 Le système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Service aux utilisateurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Rôle des services d’exploitation . . . . . . . . . . . . . . . . . . . . . . . . . . . .

99 102 103 116 118 121

Chapitre 6. Période 1972-1981. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Années 1972-1973. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Années 1974-1975. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Année 1976 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Année 1977 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Années 1978-1979. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Année 1980 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Personnel et formation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8 Résultats obtenus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

123 124 126 129 133 134 143 143 147

Chapitre 7. L’histoire parallèle du centre de 1969 à 1975 . . . . . . . . . . 7.1 Avertissement de P. Jacquinot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Vue d’ensemble sur la vie parallèle du centre pendant la première décennie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Histoire parallèle du centre d’avril 1969 au 25 mars 1970 . . . . . . . . . . 7.4 Histoire parallèle du CIRCÉ du 25 mars 1970 au 4 avril 1972. . . . . . . 7.5 Histoire parallèle du centre d’avril à décembre 1972. . . . . . . . . . . . . . 7.6 Histoire parallèle de 1973 à 1975 . . . . . . . . . . . . . . . . . . . . . . . . . . .

149 154

Chapitre 8. Histoire parallèle de 1976 à 1980. . . . . . . . . . . . . . . . . . . 8.1 Le schéma directeur de 1976 pour l’ensemble CNRS-Enseignement supérieur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Nouvelle organisation du contrôle des achats informatiques. . . . . . . . . 8.3 Schéma directeur de l’informatique de l’Enseignement supérieur . . . . . 8.4 Vie pratique de CIRCÉ 1 pendant cette période. . . . . . . . . . . . . . . . 8.5 Mise en place des rémunérations du personnel. . . . . . . . . . . . . . . . . .

179

Chapitre 9. Période 1981-1989. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Création du centre de calcul universitaire Paris-Sud. . . . . . . . . . . . . . 9.2 Création de la Division Informatique Scientifique (DIS) . . . . . . . . . . . 9.3 Arrivée du calcul vectoriel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Évolution des matériels installés. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Évolution des services. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Vie d’un algorithme et retombées industrielles. . . . . . . . . . . . . . . . . . 9.7 Réseau et télétraitement et sa reconnaissance officielle. . . . . . . . . . . . 9.8 Incendie de février 1988. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.9 Politique tarifaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.10 Histoire parallèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

201 203 204 206 213 226 229 233 236 238 239

Chapitre 10. 1989-1992. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1 Évolution du matériel installé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 L’audit de février 1989 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Activité du groupe réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

241 241 242 244 247

157 163 165 173 173

180 187 191 194 197

Table des matièresV 10.4 Activité du groupe système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5 Activités du groupe FORTRAN et calcul intensif. . . . . . . . . . . . . . . . 10.6 Activités des groupes LRD (Langages et Représentations de Données) et documentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.7 Histoire parallèle de 1989 à 1992 . . . . . . . . . . . . . . . . . . . . . . . . . . .

249 250

Chapitre 11. 1993-2013. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Machines installées et logiciels mis en service. . . . . . . . . . . . . . . . . . . 11.2 Création de l’IDRIS en 1993 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Année 1994 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Années 1995 et 1996. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.5 Le CINES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.6 Différents types de calculs à l’IDRIS. . . . . . . . . . . . . . . . . . . . . . . . . 11.7 Année 2004 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.8 Année 2006 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.9 Année 2007 - Création du GENCI . . . . . . . . . . . . . . . . . . . . . . . . . . 11.10 Année 2010 - Création de PRACE et du COCIN. . . . . . . . . . . . . . . . 11.11 Année 2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.12 Année 2012 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.13 Grands challenges IDRIS 2012. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.14 Résultats scientifiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

261 261 262 265 267 268 270 270 274 278 278 279 280 283 284 286

Chapitre 12. Période 2013-2021 . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1 Évolution technique de l’IDRIS pendant la période 2013-2021. . . . . . . 12.2 Organisation administrative. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 L’Intelligence Artificielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Résultats obtenus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5 La sécurité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.6 Le calcul et l’ordinateur quantique. . . . . . . . . . . . . . . . . . . . . . . . . .

287 287 288 295 299 304 312 312

251 252

Chapitre 13. Épilogue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 Table des illustrations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326

Des annexes sont disponibles en ligne en libre accès sur la boutique en ligne de l’éditeur : https://laboutique.edpsciences.fr/

Remerciements Françoise Perriquet a rejoint l’équipe informatique de l’Institut Blaise Pascal en janvier 1968. Elle a été engagée par Philippe Salzedo dans la perspective d’un futur déménagement à Orsay pour la création d’un centre de calcul dédié aux besoins des chercheurs de toutes disciplines. Dans le cadre d’un stage au cours de ses études supérieures à la faculté des sciences de Jussieu, elle a acquis une première expérience d’utilisation d’ordinateurs de grande puissance du CEA à Saclay pour les calculs de durée de vie du réacteur à propulsion nucléaire du sous-marin Le Redoutable. En vue de ses activités au sein du futur centre, elle a suivi une formation intensive en ingénierie des systèmes informatiques chez les constructeurs d’ordinateurs de hautes performances pour le calcul scientifique. Quand il s’est avéré en 1969 que seule une partie du personnel viendrait à Orsay dans un centre dédié au service de scientifiques, elle en a fait partie. D’abord, elle a été un membre de l’équipe système pour la mise en œuvre des ordinateurs du nouveau centre. Ensuite en 1972, elle a pris la responsabilité du groupe de services aux utilisateurs du centre. En 1979, elle a choisi de démissionner pour rejoindre le secteur privé englobant les constructeurs de grands systèmes informatiques. Elle a été successivement, directrice du support logiciel d’un constructeur d’ordinateur de grande puissance, directrice d’un département de support technique aux utilisateurs de grands systèmes informatiques au sein de la SSII SG2, puis de 1983 à 1991, elle a créé et dirigé une SSII « System Assist » offrant des services de type intégration de systèmes et de fourniture d’un logiciel « Inter-PEL » de transferts de fichiers pour les grandes entreprises de tout secteur d’activité. La perte de vitesse des architectures fortement centralisées à base de puissants processeurs au profit des architectures distribuées l’a incitée à se réorienter vers l’ingénierie des télécom. En 1992, elle démissionne de tous ses postes de direction et se remet aux études. Elle obtient le Master Homologué Européen « Développements Scientifiques et Technologiques des Nouveaux Systèmes d’Information et de Communication », major de la promotion 1994 à LORACOM-CITCOM de LORRAINE. En 1994, elle est alors recrutée par France Telecom via la direction régionale de Lorraine, puis Orange Business Services OBS où elle conduira en tant que consultante Telecom, jusqu’en 2012, de grands projets d’architecture de réseaux incluant la voix et les données (TOIP) aussi bien dans le secteur public que privé. Pour sa participation à l’écriture du livre, elle a utilisé ses souvenirs personnels dans la période du tout début du centre et son appétence pour le

2

De l’IBM 360/75 au superordinateur Jean Zay

suivi des évolutions technologiques des processeurs de haute puissance (HPC), puis, comme il est dit dans la suite, a patiemment décortiqué la collection des Interfaces, journaux aux utilisateurs du CIRCÉ, dont elle a été le premier rédacteur, puis des lettres de l’IDRIS. Elle a pu établir une chronologie détaillée des matériels qu’il a été possible d’installer et des systèmes d’exploitation qui ont été choisis pour les servir, tout en signalant, quand c’était opportun, leur place dans le classement du TOP500, la liste des 500 ordinateurs les plus puissants à un instant donné. Elle m’a fait connaître les journaux et rapports industriels, et la grande presse, en me signalant souvent des articles « qui pourraient m’intéresser ». Ce travail a donné lieu en particulier à deux synoptiques importants qui ont évolué tout au long de l’écriture du livre : celui de la vue d’ensemble du centre et celui de la chronologie des machines installées. Une section de ce dernier est répétée en tête de chaque chapitre, correspondant aux diverses périodes que j’ai choisies pour l’étude détaillée de ce qui a été mis en place et de ce qui aurait pu être. Je remercie James Lequeux qui s’est intéressé le premier à ce livre, a relu les premiers chapitres et a prodigué à une néophyte, jusqu’à la fin, ses conseils sur le fond et sur la forme. Serge Fayolle qui connaît le centre mieux que quiconque pour y être resté de sa sortie d’école à sa retraite, avoir été pendant trente-cinq ans responsable de l’équipe technique, et pendant vingt-trois ans sous-directeur ou directeur pendant deux périodes de quelques années particulièrement cruciales, Jean-Marie Teuler pour ses conseils avisés sur l’analyse mathématique de la variation des puissances installées, Astrid Auzou-Connes qui a corrigé inlassablement mes tentatives de mise en page tout en essayant (sans succès je crains), de m’initier à cet art, Émilie Wain-Connes qui m’a donné des conseils d’écrivain, Yves Connes qui a veillé à ce que mon matériel soit toujours opérationnel, Patrick Bouchareine qui a relu et corrigé, patiemment, tout ce que j’écrivais et modifiais sans cesse, et tous mes collègues et anciens élèves pour de nombreux avis et des discussions que nous n’avions pas eu le temps d’avoir quand nous étions dans le feu de l’action. Janine Connes

Introduction

P. Salzedo, 1969

L’histoire de l’informatique de service pour la recherche en France, et plus précisément au Centre National de la Recherche Scientifique (CNRS), est une longue épopée. Elle pourrait commencer par « Il était une fois ». Et pourtant, ses débuts ne remontent qu’à soixante ans. Les bouleversements que la révolution numérique a apportés dans notre société sont plus profonds que ceux de la révolution industrielle du xixe siècle, et ils ont été incomparablement plus rapides. Il a fallu deux siècles pour gagner un facteur 2000 en passant de la vitesse de 15 km/h de la calèche à celle de 9 km/s de la fusée spatiale, et un facteur 50 000 pour passer de la masse de 1 tonne tirée par un cheval à celle de 50 000 tonnes tirées par le train chinois le plus puissant. Le développement de l’informatique conduit à des chiffres qui sont d’un tout autre ordre de grandeur. La puissance de calcul des ordinateurs et leur capacité de stockage de données croissent exponentiellement. Elles suivent les améliorations apportées par les grandes révolutions dans les composants électroniques et les architectures d’ordinateurs. Elles aboutissent à une multiplication par 1015 de la puissance de calcul en soixante ans. De nombreux livres et articles paraissent régulièrement sur l’histoire de l’informatique que certains font remonter aux Sumériens, d’autres à la machine à calculer de Blaise Pascal. À  quel moment un ordinateur est-il devenu un superordinateur ? Certains articles sont écrits à l’occasion de la célébration du cinquantenaire d’une institution, ou de l’introduction de l’informatique comme outil dans un domaine particulier de la recherche. L’objet de cette étude est plus limité. C’est l’histoire de cinquante ans de la vie du centre de calcul de service du CNRS à Orsay. Dans quelles circonstances a-t-il été créé ? Comment a-t-il pu traverser toute cette période jusqu’à être, aujourd’hui, malgré les problèmes rencontrés, un des grands centres nationaux ?

4

De l’IBM 360/75 au superordinateur Jean Zay

Simultanément à ce développement des moyens de traitement de l’information, la communauté scientifique se pose des problèmes de plus en plus pointus qui nécessitent des outils toujours plus performants. L’équilibre entre l’offre et la demande de moyens n’est jamais atteint. En général, les problèmes les plus novateurs ne trouvent jamais les outils assez puissants pour les résoudre à l’instant où ils se posent. Si les chercheurs ne les trouvent pas dans leur environnement de travail, grâce au développement des techniques de réseau, ils peuvent les chercher ailleurs en France, en Europe ou même dans le monde. Ou alors ils en sont réduits à attendre les futures annonces des constructeurs. En avril 1969, Pierre Jacquinot, alors directeur général du CNRS, se trouve face à un tel problème Dans le laboratoire Aimé Cotton qu’il dirigeait, il avait eu en 1954, l’exemple d’une expérience qui laissait le choix entre deux solutions : calcul lourd inenvisageable à l’époque ou abandon. Il décida plus tard de créer un centre de calcul du CNRS à Orsay, avec une mission bien définie : «  Donner aux utilisateurs de toute discipline la possibilité de faire pour leur recherche les calculs dont ils ont besoin et qu’ils ne peuvent pas faire ailleurs. » Ce qui est certain c’est que l’installation et le démarrage du centre imposé par P. Jacquinot dans notre paysage scientifique, à une époque où il n’y avait rien de semblable en Europe, a été une rupture dans l’organisation globale de la recherche en France. Pierre-Éric Mounier-Kuhn, dans son livre L’informatique en France de la seconde guerre mondiale au plan calcul, écrit que : «  Les centres de calcul ont été progressivement séparés des laboratoires de recherche informatique 1. » C’est vrai pour les centres de calcul universitaires mais le CNRS a suivi une autre voie. Pierre Jacquinot a imposé l’idée que, à côté des centres traditionnels de l’époque, il fallait que le CNRS ajoute quelque chose de nouveau : un centre dédié au service des chercheurs de toute discipline qui avaient besoin de puissance de calcul pour leurs travaux et qui, ou bien allaient la trouver à l’étranger, ou bien abandonnaient un sujet de pointe. Pour rester compétitif dans le domaine international, il fallait non pas détruire ou modifier quelque chose d’existant mais juxtaposer une « usine à calcul » pour laquelle les critères de choix de matériel et d’exploitation étaient nouveaux. Le choix du matériel devait se porter sur le plus puissant possible, compatible avec les possibilités budgétaires, mais indépendamment de sa provenance et, aussi fondamentalement, il devait être servi par un personnel dont la compétence était à hauteur des enjeux. Et c’est à cette mission que le centre de calcul a consacré ses efforts, finalement avec succès, depuis cinquante ans. Il a joué le rôle de pionnier en Europe à sa création. Il a vite perdu ce rang. Mais l’idée générale qui a guidé son développement, depuis 1969 n’a pas varié. À chaque instant, au point où en est arrivée la science, dans toutes les disciplines, allant des mathématiques aux multiples domaines des sciences humaines, en passant par toutes les nuances des 1 Pierre-Éric Mounier-Kuhn, L’informatique en France, de la seconde guerre mondiale au Plan Calcul, Paris, 2010, PUPS, p. 595.

Introduction5

mathématiques, de la physique, des sciences naturelles, de la médecine, de la biologie, les recherches de pointe ont besoin d’un ordinateur performant. C’est la condition indispensable pour rester dans la compétition internationale. Et c’est ce point qui a mis le plus longtemps à être compris en France. Ce centre, voulu par P. Jacquinot, convaincu de son absolue nécessité, a été accueilli avec enthousiasme par les utilisateurs qui, faute de possibilité dans leur pays, allaient auparavant travailler à l’étranger, Il a été porté à bout de bras, par certains des directeurs généraux du CNRS qui se sont succédés, en particulier Hubert Curien, Pierre Papon, le directeur administratif Charles Gabriel, puis François Kourilsky, Catherine Bréchignac et ses successeurs. Mais pendant longtemps, à l’exception, à des degrés divers, de Jean Lagasse et Jean-Jacques Gagnepain et Michel Combarnou, il n’a pas intéressé les directeurs scientifiques, parce qu’ils le comprenaient mal, et n’en voyaient pas l’utilité pour leurs propres recherches. Cette incompréhension était encore plus grande à l’extérieur du CNRS. Il a fallu quinze ans et plus d’une longue maturation des décideurs, pour leur faire admettre le concept fondamental du centre de calcul de service assimilable à un grand instrument comme par exemple, un grand télescope ou un accélérateur de particules. Cette évolution, qui a été très lente, s’est faite sous la pression d’éléments extérieurs : la prise de conscience du retard qui se creusait avec les États-Unis et le Japon qui, à l’opposé de ce qui se passait en France, avaient des politiques gouvernementales incitatives, la multiplication des grands centres de calcul en Europe, le développement des réseaux, et en France même, le déploiement des centres de calcul dans les départements de recherche de grandes administrations telles que CEA, EDF et la Défense ainsi que dans l’industrie pétrolière, Cette prise de conscience des décideurs du secteur Éducation nationale au sens large s’affirme au moment de la multiplication partout ailleurs des machines vectorielles puis parallèles, en France et dans le monde, et enfin de l’explosion du numérique dans la vie quotidienne. En 1969, le centre de calcul était souvent considéré comme ruineux et inutile. Autrement dit, les chercheurs auraient mieux fait de réfléchir, plutôt que de s’adonner à ces distractions assimilables aux jeux vidéo de notre époque. Aujourd’hui, c’est exactement l’inverse. Les plus grands hebdomadaires et la presse grand public font régulièrement des articles sur la course à la puissance que se livrent les États-Unis, la Chine, le Japon pour équiper leurs centres de calcul de production. Ils insistent sur les avancées scientifiques que leur utilisation permet, dans tous les domaines. Comme pour la Ligue 1 du football, le championnat auxquels les centres participent au niveau mondial a ses règles. Il est arbitré deux fois par an, en juin et novembre par le classement appelé TOP500 des 500 ordinateurs les plus puissants au monde. En 2020 ce sont les deux géants, États-Unis et Japon, qui se sont affrontés pour la première place. Le Fugatu de Fujitsu l’a emporté les deux dernières fois sur le Summit d’IBM. Et signe des temps, le concept de grand centre de calcul est entré dans la publicité. L’Institut du Cerveau 2, « centre de recherche unique de dimension, internationale pour traiter et guérir les maladies du cerveau », hébergé à l’hôpital 2 Institut du cerveau, l’excellence d’un centre de recherche unique de dimension internationale, distribué par Bleu bonheur, déposé le 16/11/2020 59 S /10.

6

De l’IBM 360/75 au superordinateur Jean Zay

Lariboisière à Paris, a inséré dans les pages d’un journal de mode, distribué gratuitement par la poste, un superbe dépliant sur papier glacé. Il y précise qu’il met tous ses espoirs dans la neuro-informatique, avec l’exploitation des banques de données et toutes les nouvelles techniques de modélisation disponibles. Cette envolée des possibilités des nouveaux matériels a permis l’avènement de l’ère de l’Intelligence Artificielle (IA) qui nous fait entrevoir des développements vertigineux 3. Dans un volumineux rapport remis au Premier ministre le 29 mars 2018, Cédric Villani avertit que la réalité va dépasser la science-fiction 4. Cette révolution a besoin d’une puissance de calcul la plus grande possible et d’un supercalculateur spécialisé. Le supercalculateur Jean Zay est alors installé au centre de calcul du CNRS à Orsay, avec l’ambition de faire de la France « le leader européen de la recherche en IA ». Maintenant, les grands centres de calcul nationaux sont mutualisés et gérés au niveau national par le GENCI (Grand Équipement National de Calcul Intensif), mais leur mission est restée la même. En 2006, elle a été redéfinie exactement dans le même esprit que celle donnée au centre à sa création, et avec des mots quasi identiques à ceux de 1969. «  [Ces centres nationaux] donnent aux chercheurs français l’accès aux moyens de calcul nécessaires pour mener des recherches au plus haut niveau international  5. » Actuellement, des annonces sur Internet invitent à des dépôts de projets avec financement possible, dans le cadre européen. L’Agence Nationale pour la Recherche (ANR) a publié dès 2010 une grande étude intitulée  : Le calcul intensif, technologie clé du futur 6. La suprématie en informatique est devenue une affaire d’état. Le 2  juin 2017, à une conférence à destination des étudiants russes, le président Poutine prédisait : « L’Intelligence Artificielle représente l’avenir, non seulement de la Russie, mais de toute l’humanité […]. Celui qui deviendra le leader dans ce domaine sera le maître du monde. Et il est fortement indésirable que quelqu’un obtienne un monopole dans ce domaine. Donc, si nous sommes les leaders dans ce domaine, nous partagerons ces techniques avec le monde entier 7. » Que de chemin parcouru depuis 1969 ! Mais la route a été longue et difficile. Ce ne fut pas un long fleuve tranquille. Elle a été rendue possible par l’excellence et la cohésion d’une équipe technique qui a su s’adapter à cette évolution fulgurante, et surtout à l’anticiper. Elle a travaillé contre vents et marées sous la direction de Philippe Salzedo

3 Rapport Villani : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_ accessible.pdf 4 Idem. 5 Présentation de la mission MICADO par M. Daydé et D. Veynante : http://orap.irisa. fr/wpcontent/uploads/2016/10/ORAP-OCT-mdayde-2016.pdf 6 ANR, Les cahiers de l’ANR, n° 3, janvier 2010. 7 La revue du digital, Vladimir Poutine, 2 septembre 2017.

Introduction7

pendant vingt ans, puis pendant les vingt années suivantes jusqu’en 2010 de Serge  Fayolle, qui lui-même, dans les vingt années précédentes, avait été responsable de l’équipe système. Tous deux ont été, en plus, directeur du centre à plusieurs périodes. Pierre Jacquinot m’avait confié la conception et la direction de la nouvelle entreprise. Je savais ce qu’était, dès cette époque, un centre de calcul intensif. J’avais travaillé aux États-Unis pendant des années dans le centre de calcul du laboratoire qui venait de déposer un homme sur la Lune. Il préparait l’expédition VIKING qui vingt ans après allait explorer Mars. J’y faisais essentiellement de la simulation. On y simulait tout : le départ de la fusée, les corrections de trajectoire, la composition de l’atmosphère des planètes, avant d’y simuler l’impact sur la Lune, d’y déposer le premier homme en 1969 et d’assurer son retour. Encore actuellement, on pense à la NASA qu’il y a une part de miracle dans la réussite de l’opération avec les moyens de calcul de l’époque. Dès l’origine, l’organisation et le fonctionnement du centre de calcul d’Orsay ont copié de très près ceux du centre de calcul intensif du Jet Propulsion Laboratory (JPL) de la NASA à Pasadena et s’inspiraient de ceux de Livermore, d’Argonne et du Lawrence Laboratory. À sa création en 1969, il aurait pu fonctionner uniquement en centre de calcul intensif comme celui du JPL Dès le jour de l’ouverture, il pouvait fonctionner 24h/24, 7j/7. Les chercheurs l’attendaient. Les cinq groupes  : administration, exploitation, système, assistance technique aux utilisateurs, assistance mathématique ont évolué un affinement de leurs missions. Au cours des années, l’exploitation 8 est passée dans les mains du constructeur qui l’effectue à distance. En revanche, elle s’est étoffée d’un administrateur réseau. Les groupes d’assistance aux utilisateurs et d’assistance mathématique ont considérablement grossi et leur qualification a évolué. Maintenant, ils travaillent essentiellement à l’adaptation des programmes des utilisateurs aux nouvelles architectures. Au fil des décennies, et surtout maintenant, l’emphase a glissé du matériel et des systèmes d’exploitation qui, bien qu’encore de pointe et complexes, sont devenus plus matures, vers le logiciel applicatif et les outils de développement. D’où l’importance encore accrue de l’assistance aux utilisateurs et des efforts à mener à l’échelon mondial pour adopter les algorithmes, méthodes et paradigmes de programmation et explorer de nouvelles voies. Avoir la technologie, c’est bien, pouvoir l’utiliser, et efficacement de préférence, c’est indispensable. Le parallélisme massif et les architectures hybrides – sans parler du quantique – nécessitent de repenser les outils pour les rendre utilisables en dehors d’un nombre limité de spécialistes et d’applications. C’est sans doute ici que continue de résider le défi. Parmi les évolutions, un aspect devenu important est celui de la sécurité informatique. La démocratisation de l’accès aux matériels et à la connaissance (un PC sous linux permet d’étudier et de développer des outils malfaisants qui pourront ensuite être introduits et exécutés sur les gros serveurs) et le partage

8 Le terme exploitation couvre l’ensemble des tâches qui permettent l’utilisation de la machine par les utilisateurs, les diverses maintenances, le pupitrage, les montages des supports de données, leur archivage etc.

8

De l’IBM 360/75 au superordinateur Jean Zay

des réseaux (en opposition aux réseaux privés en étoile des débuts) fait que n’importe qui – voire les agences spécialisées des états eux-mêmes – peut tenter de s’attaquer aux centres informatiques. Des services spécialisés sont mis en place au sein de l’état pour la lutte (et sans doute aussi l’attaque ?), Des ressources sont dédiées à ce la résolution de ce problème dans les centres. À la création, les utilisateurs attendaient impatiemment la mise en service du centre. Plusieurs domaines de recherches en cours auraient pu assurer le plein emploi avec leurs lourds besoins de calcul. On peut citer entre autres ce que J. Yoccoz appellera plus tard le champ des spectroscopies de Fourier appliquées en astronomie, en exploration spatiale, en spectroscopie atomique et moléculaire, et ceux de l’hydrodynamique des fluides, de la météorologie, et dès le début celui de la chimie. Son besoin de calcul s’est concrétisé par l’installation simultanée, dans les locaux mêmes du centre de calcul, d’un Centre d’Étude de Chimie Atomique et Moléculaire (CECAM) émigré aujourd’hui à Lausanne. Il a en conséquence célébré son cinquantenaire quelques mois avant celui du centre. Il faut noter aussi les besoins des mathématiciens purs qui sont affichés dès 1971 9. Par exemple, le calcul au degré 3 de la conjoncture de Serre aurait demandé 1000 heures de la machine alors disponible au centre. Mais la vocation du centre de pouvoir y faire ce qu’on ne peut pas faire ailleurs l’a amené à partager ses activités entre le calcul intensif et les besoins d’une large clientèle aux profils très variés, qui n’avait accès à aucun autre moyen de calcul, y compris celle des débutants de toute discipline qu’il a fallu initier, former et suivre pas à pas. Cette émancipation guidée des utilisateurs s’est étalée sur vingt-quatre ans à mesure que les progrès techniques en tous genres, la mini-informatique, la micro-informatique, permettaient des traitements locaux pour tout ou partie de leurs besoins. Non seulement le centre de calcul les formait à l’usage des nouveaux matériels, qui permettaient un travail en local, mais il les aidait aussi à rédiger leurs demandes pour trouver les fonds nécessaires à l’acquisition de ces machines locales. En revanche, ils ont progressivement libéré le centre de calcul des tâches qui pouvaient se faire ailleurs pour qu’il se consacre de plus en plus uniquement à sa mission initiale : faire ce que maintenant on ne pouvait pas faire ailleurs, c’est-à-dire uniquement du calcul intensif. Cette migration s’est étalée un peu plus longtemps que nécessaire car les utilisateurs concernés appréciaient au centre de calcul, pas seulement la puissance de calcul, mais aussi les services de sauvegarde, l’assistance et la formation. Quand il y a été mis fin, en décembre 1993, il a été vérifié qu’aucun utilisateur n’était laissé sans moyen de calcul de remplacement. L’histoire du centre de calcul, comme d’ailleurs celle du CNRS, et celle de toute entreprise sortant des chemins battus, n’a pas été un long fleuve tranquille. Il a grandi dans un contexte difficile où, pour des raisons diverses de nature politique, plusieurs étapes importantes ont été différées. Nous les appellerons dans la suite ses échecs. Pourquoi, par exemple, malgré tous ses efforts, n’a-t-il pas

9 CIRCÉ, Justification de la demande de crédit du CNRS pour le É, 1971, p. 8 (Arch. Nat. 85/0505-140) dans L’informatique en France, de la seconde guerre mondiale au Plan Calcul, Paris, PUPS, Pierre-Éric Mounier-Kuhn, op. cit.

Introduction9

pu installer un ordinateur CRAY dès la fin des années 70 comme dans tous les centres homologues en Europe ? Cependant l’élan était donné et dès le lendemain du refus d’installation d’un nouveau matériel, choisi et demandé, le centre rassemblait les moyens disponibles dans le contexte politique du moment pour servir au mieux ses utilisateurs. De nombreux problèmes ont marqué ses débuts  : compétitions supposées Paris-province, mathématiques pures contre mathématiques appliquées, CNRS contre Enseignement supérieur. Ils ont considérablement diminué avec la création d’une structure au niveau national, le Grand Équipement National de Calcul Intensif (GENCI) 10. Il s’agit d’une société civile française créée en janvier 2007 et détenue à 49 % par l’État français représenté par le ministère de l’Enseignement supérieur et de la Recherche, 20 % par le Commissariat à l’Énergie Atomique (CEA), 20  % par le CNRS, 10  % par les universités et 1  % par l’Institut National de Recherche en Informatique et en Automatique (INRIA). Il a pour objectif officiel de démocratiser l’usage de la simulation numérique et du calcul intensif pour soutenir la compétitivité française, dans tous les domaines de la science et de l’industrie. Le GENCI représente la France dans l’infrastructure européenne PRACE, Partnership for Advanced Computing in Europe. Il a été l’un des quatre membres hébergeurs du premier groupe de PRACE, aux côtés de GCS pour l’Allemagne, CINECA pour l’Italie et BSC pour l’Espagne. PRACE est une Association Internationale Sans But Lucratif (AISBL) de droit belge, créée en 2010 et rassemblant 25 partenaires. Elle a pour mission la mise à disposition de ressources de classe mondiale en termes de calcul intensif et de gestion des données pour les chercheurs académiques et industriels européens. Les nouveaux problèmes se posent au niveau européen. L’initiative EuroHPC (European HighPerformance Computing) fondée en 2017 se mobilise pour mutualiser de futurs super-calculateurs reliés par un réseau de transmission super-performant. Où faut-il les installer ? Pour le moment c’est la Finlande qui est supposée recevoir le suivant. Qu’est-ce qui a permis une telle évolution malgré les embuches  ? Elle n’a été possible que grâce à l’excellence et la cohésion d’une équipe technique toujours préparée à mettre en œuvre les nouvelles possibilités techniques quand les décisions politiques le lui permettaient. Le centre de calcul d’Orsay n’est aujourd’hui qu’un des hypercentres de calcul installés en Europe, hypercentres qui sont accessibles par les réseaux. Mais ce qui est primordial pour les chercheurs, c’est que le but initial fixé par Pierre Jacquinot soit atteint. C’est un cinquantenaire qui consacre une évolution réussie L’informatique de service non seulement est reconnue comme indispensable, mais elle est devenue une affaire d’état. Les chercheurs ont le choix des moyens dans la communauté européenne. Pour écrire l’histoire présentée ici, les auteurs ne disposent pas des archives du CIRCÉ ni de la majorité de celles privées de la première direction, qui, à une certaine époque de la vie du centre de calcul, ont été détruites, ni des archives personnelles de Philippe Salzedo disparues aussi dans une inondation. 10 https://www.enseignementsup-recherche.gouv.fr/cid99656/grand-equipement-natio-

nal-de-calcul-intensif-genci.html

10

De l’IBM 360/75 au superordinateur Jean Zay

En revanche, sont disponibles les archives privées de quelques membres de ses équipes et d’utilisateurs, celles d’IBM, la collection complète d’Interface, le journal du centre, puis des Lettres de l’IDRIS qui l’ont remplacé, des comptes rendus et rapports d’activité des deux premières décennies. À  présent, les informations disponibles et utiles aux utilisateurs sont accessibles sur le site de l’IDRIS, www.idris.fr. Nous avons également une partie des archives de la période 1990-1994 quand j’étais conseillère à l’informatique du directeur général du CNRS. Elles étaient restées au siège du CNRS et ont donc échappé à la disparition ainsi que quelques rapports d’activité du CIRCÉ de la première époque. Pour la période suivante, nous avons les rapports d’activité puis ceux de l’IDRIS et les informations diffusées par le GENCI. Nous disposons aussi d’une partie des comptes rendus de la commission à l’informatique de l’Enseignement supérieur. Elle comprendra deux parties, la première traitera l’évolution générale du centre de calcul, la seconde l’étude des avancées, matériel et logiciel aux différentes époques et la seconde donnera, époque par époque, le détail des combats qu’il a fallu soutenir pour les réaliser. L’étude de ces luttes est plus fouillée dans la première période qui va jusqu’au début des années 90, moment où a commencé enfin la reconnaissance officielle de la place de l’outil informatique et la fin du ticket modérateur pour certains centres, où il était encore appliqué. Même si d’autres difficultés ont subsisté, les temps héroïques de bataille pour l’existence étaient terminés. Une autre époque commençait avec d’autres obstacles qui se sont présentés pour arriver à la solution d’aujourd’hui, celle à laquelle il tend depuis sa création. Il sera aussi fait souvent référence à deux livres : − L’histoire du CNRS de 1939 à nos jours, par de Denis Guthleben aux éditions Armand Colin ; − L’Informatique en France, par de Pierre-Éric Mounier-Kuhn aux Presses de Sorbonne-université (PUPS). Ces livres sont utiles non seulement par les propos qu’ils développent mais pour la masse de références qu’ils contiennent sur l’histoire du CNRS et de l’informatique en général, même si ce n’est pas sur celle de l’informatique de service qu’ils ignorent et donc ne traitent pas. Les deux figures suivantes illustrent l’évolution du matériel et de sa mise en exploitation en cinquante ans. La première, qui date de 1975, est celle de la salle machine des débuts, complètement occupée par les ordinateurs IBM 70/165 et 370/155. Plusieurs ingénieurs et opérateurs sont affairés pour conduire l’exploitation des systèmes. La seconde en 2019 montre l’ordinateur Jean Zay 11 nouvellement installé et commandé à distance. Celui-ci est un milliard de fois plus puissant que le parc machines installé en 1969.

11

Supercalculateur Jean Zay : les défis de la co-construction. http://www.cnrs.fr/fr/cnrsinfo/supercalculateur-jean-zay-les-defis-de-la-co-construction

Introduction11

Figure 1 – Salle machine du CIRCÉ en 1975

Figure 2 – Ordinateur Jean Zay installé au CIRCÉ en 2019 © Cyril Fresillon/IDRIS/CNRS

PREMIÈRE PARTIE Vue générale sur le développement du centre de calcul d’Orsay

Introduction L’évolution du centre de calcul telle qu’il était programmé à sa création, outil spécifiquement dédié aux besoins de la recherche scientifique, était prévue pour intégrer les transformations techniques continuelles dès leur apparition. Pour des raisons politiques, il y a eu des retards qui ont été autant d’épreuves. Plusieurs expériences constructives ont forgé la ligne de conduite qui a guidé le centre pendant cinquante ans. La première c’est la découverte de problèmes scientifiques qui ne peuvent être abordés que par le calcul électronique, la deuxième, le test des possibilités de l’ordinateur 704 IBM et de son langage, le FORTRAN. Pour l’utilisateur, cette deuxième expérience fut une révélation, même si plus tard il apprit qu’un équivalent existait déjà sur les machines de Control Data Corporation (CDC). La troisième expérience fut l’opportunité de travailler dans un centre de calcul intensif de la NASA, la quatrième la possibilité de participer avec un constructeur au développement d’un algorithme d’intérêt général, la cinquième enfin le fait de bénéficier des conseils d’éminents chefs de centres américains. Ces cinq expériences ont bien ancré dès 1969 l’idée qu’un centre de calcul pour la recherche de pointe en France ne pouvait fonctionner que dans un contexte international. Mais le centre de calcul a souffert de plusieurs handicaps, le premier étant l’indifférence, parfois hostile, qui régnait à son égard. Ce sentiment, très largement répandu, connaissait cependant quelques exceptions en dehors des directeurs généraux du CNRS. Dès la fin des années 50, quelques directeurs de laboratoire dont Pierre Aigrain et Alfred Kastler de l’École Normale Supérieure (ENS) avaient bien compris la place que l’informatique allait prendre comme outil pour la recherche scientifique et soutenaient l’initiative de chercheurs isolés. Pierre Aigrain, le premier, m’a soumis dès 1957 un problème qui ne pouvait être résolu qu’avec de longs calculs nécessitant des ressources de pointe en matériel et en logiciel. Alfred Kastler a accepté avec bienveillance d’être président de jury de ma thèse, qui traitait majoritairement d’informatique dans un problème physique. Il m’a donné des conseils et m’a rendu visite pour suivre mon travail quand je travaillais à la NASA aux États-Unis avec Pierre Connes. Ce fut aussi le cas de Jean-François Denisse, alors fondateur et directeur du centre de radioastronomie à Nançay. Il m’avait donné mon deuxième sujet de thèse, la raie à 21 cm de l’hydrogène. Le deuxième handicap fut une conséquence directe du précédent. Faute de jugement avisé par des spécialistes sur la validité scientifique des calculs

16

De l’IBM 360/75 au superordinateur Jean Zay

exécutés, la régulation de la charge se faisait par la récupération d’une partie du coût par le moyen du ticket modérateur. Celui-ci était payé par le chercheur, à qui revenait donc la responsabilité de choisir s’il voulait dépenser ses crédits en calculs ou autrement. Mais faute de règles générales, ou de difficultés pour appliquer celles qui étaient prescrites, les contributions exigées par les différents centres de calcul étaient très disparates. De ce fait, les chercheurs passaient une grande partie de leur temps à adapter leurs programmes au centre le moins coûteux, même s’il n’était pas le mieux adapté techniquement. Il a fallu trente-huit ans pour arriver à ce que dans ses statuts le Grand Équipement National de Calcul Intensif (GENCI) entérine officiellement la décision de l’attribution de temps gratuitement sur projet. Le troisième handicap tient à la juxtaposition de deux acteurs de la recherche française  : le CNRS et l’Enseignement supérieur (ES). C’est une richesse que nous envient les étrangers, mais leur cohabitation demande de la diplomatie. Dans le domaine de l’informatique, l’Enseignement supérieur a souvent cherché à imposer sa politique, quelquefois opposée à celle du CNRS. Malgré tout, le centre de calcul a survécu et s’est développé du mieux qu’il a pu. C’est cette évolution pratique qui sera examinée dans les quatre chapitres qui suivent. On parlera de sa préhistoire, de sa création imposée par Pierre Jacquinot à la communauté scientifique, d’une vue d’ensemble de son développement pendant un demi-siècle, de l’évolution des puissances de calcul installées.

Chapitre 1 Préhistoire du CIRCÉ, de 1954 à 1969 Il peut paraître étrange de remonter aux années 1950 pour comprendre comment le Centre Inter-Régional de Calcul Électronique (CIRCÉ) a été créé en 1969 sous la forme qu’il a prise à cette époque, et plus encore qu’elle ait commencé aux États-Unis et non en France. Deux évènements d’importances disproportionnées ont décidé de son identité. Le premier est minuscule : le sujet de thèse que me proposa Pierre Jacquinot en 1954.

1.1 En 1954 apparition en France d’un premier besoin de calcul intensif Il s’agissait de faire des Transformées de Fourier (TF) de 1 million de points. Pierre Jacquinot faisait partie de mon jury cette année-là, et à l’issue du concours il m’avait proposé de faire une thèse dans son Laboratoire Aimé Cotton (LAC) alors spécialisé en spectroscopie atomique et développements instrumentaux. Le sujet proposé était la spectroscopie par transformation de Fourier qui théoriquement devait battre en résolution et en étendue spectrale tous les records des réseaux et des interféromètres de Fabry-Perot. Michelson avait utilisé cette méthode en 1894 pour résoudre la structure hyperfine de raies d’émission, donc dans des domaines spectraux extrêmement réduits. Il inventa le célèbre interféromètre à deux ondes, qui lui a valu le prix Nobel pour avoir servi en 1881 à établir la constance de la vitesse de la lumière et à présenter le fameux ether drag puzzle qui conduit à la Relativité restreinte d’Einstein. Avec l’œil comme unique récepteur, il mesurait les variations d’intensité du flux de sortie. Il n’a jamais employé le terme de spectroscopie de Fourier, ni d’interférogramme. Il ne pouvait pas mesurer les phases de ses franges et la reconstitution d’un profil de raie à partir de leur seule courbe de visibilité (la variation de l’intensité des franges en fonction de la différence de marche), même dans le cas d’un profil simple, était laborieux. Il imaginait au départ un profil de raie possible et l’améliorait par essais successifs. Il a même conçu pour augmenter la vitesse de cette opération un analyseur harmonique, une pure merveille de mécanique, qui est aujourd’hui conservé à la Smithsonian Institution

18

De l’IBM 360/75 au superordinateur Jean Zay

de Washington. Lord Rayleigh fit remarquer l’insuffisance de l’analyse et introduisit le théorème de Fourier en soulignant : « I suppose that a complete determination of C and S, though theoretically possible would be an extremely difficult task 12. » Il entendait par là une reconstitution de tout le spectre recherché par transformée de Fourier complète de l’interférogramme fourni par l’interféromètre. Cette opération s’avéra tellement difficile que la méthode fut oubliée jusqu’à ce que soixante ans plus tard, en 1952, Peter Fellgett publie un premier spectre à très basse résolution, obtenu grâce à un petit interféromètre de Michelson et un calcul numérique de la transformée de Fourier (TF) exécuté avec des outils primitifs : les Lipson-Beevers strips. Il présentait le concept de « multichannel spectroscopy 13. » Pour moi, au début, la mission semblait impossible. Je n’avais pas même la maquette d’un interféromètre adéquat et surtout aucune idée de la façon de calculer pratiquement les transformées de Fourier. À l’étude, toutes les méthodes analogiques se révélèrent inadéquates et aucun des mathématiciens consultés en France ne présentait la moindre suggestion. C’est alors que plusieurs faits concomitants firent entrevoir la solution : la découverte de la théorie de l’information dans la littérature scientifique américaine et russe et l’installation d’un ordinateur 704 IBM à Paris.

1.1.1 La découverte de la théorie de l’information À la fin des années 40 parurent les deux publications qui sont les fondements de cette théorie nouvelle. Dans un célèbre article Claude E. Shannon publia en 1948 son théorème qui concentre l’information dans des valeurs discrètes 14. En 1949 Norbert Wiener publia aux presses du MIT 15 un livre ayant pour titre : Extrapolation, Interpolation, and Smoothing of Stationneray Time Series, With engineering applications. Il avait été publié pendant la seconde guerre mondiale sous forme d’un rapport classifié à la Section D2 du National Defense Research Committee. La même année parut aux États-Unis une traduction des Mathematical Fundations of Statistical Mechanics du russe Alexandre I.  Khinchin 16. Dès cette époque la théorie de l’information fut enseignée aux États-Unis et le succès fut tel que quatre rééditions de ce livre ont suivi jusqu’en 1964. La liaison était faite entre discrétisation de l’interférogramme et séries de Fourier et je pus faire la simulation mathématique à la fois des interférogrammes et des spectres à étudier. De nombreux autres livres ont complété ma formation. Parmi les plus importants fut celui de Philip M. Woodward sur Lord Rayleigh, Physical Magazine, t. 34, 1892, p. 407. Fellgett Peter, thèse, Cambridge University, 1951. 14 C. Shannon, Bell System Technical Journal, t. 8, 1948, p. 47 et 379. 15 Norbert Wiener, « Extrapolation, Interpolation, and Smoothing of stationeray series », the MIT Press, août 1949. 16 A.I.  Khinchin, «  Mathematical Fundations Of Statistical Mechanics  », Dover Publications, Inc, New York, 1949. 12 13

Préhistoire du CIRCÉ, de 1954 à 1969 19

la relation entre probabilité et théorie de l’information 17. L’étude complète de Shannon sur son célèbre théorème fut rééditée en 1949 et 1963 18. Puis successivement parurent en 1960 le livre de Ralph Benjamin, de l’Admiralty Underwater Weapons Establisment sur le traitement des signaux de radar et sonar. En 1953, fut publié en France Théorie et fonctions aléatoires d’André Blanc-Lapierre et Robert Fortet 19. Cinq ans après, Le bruit de fond de Pierre Grivet et Austin Blaquière 20 compléta ma formation. Plus tard encore ce fut le cas du livre de Pierre-Michel Duffieux qui introduit dans les problèmes de diffraction, les séries et spectres de Fourier 21, mais après que les premiers résultats de spectroscopie par transformée de Fourier aient été obtenus. Des collègues russes m’envoyèrent des exemplaires de leur abondante propre littérature sur ce sujet, mais je ne pus en profiter pleinement que lorsque leur traduction fut accessible. Ce fut le cas de la traduction en 1975 du Processus aléatoire de Rozanov 22, et celui de Tikhonov et V. Arsenine sur les méthodes de résolution des problèmes mal posés, qui reste une référence 23.

1.1.2 Utilisation du 704 IBM Vers le milieu des années 50, un ancien membre du LAC, Charles Dufour qui revenait des États-Unis m’apprit l’existence de nouveaux calculateurs baptisés numériques, qui seraient peut-être capables de traiter mon problème. Au même moment IBM France installa son tout nouveau 704 derrière de grandes baies vitrées, place Vendôme, quartier des grands bijoutiers de Paris. Simultanément IBM organisa des cours de FORTRAN et créa son Institut Européen de Calcul Numérique déjà cité. Il distribuait des heures gratuites sur projet, après examen du dossier de demande par un comité d’experts sous la responsabilité d’E. Durand, directeur du centre de calcul de Toulouse. C’était l’un des deux centres de recherche actifs en informatique en France 24, l’autre étant Grenoble. IBM et son comité scientifique d’allocation d’heures gratuites était le précurseur de la distribution d’heures gratuites dans les centres nationaux que font les dix conseils d’Instituts instaurés plus tard par le CNRS. Ils sont eux-mêmes pilotés par la Mission Calcul-Données (MICADO) créée le 2 mars 2015. P.M. Woodward, « Probability and Information Theory with Applications To Radar », Pergamon Press, 1953, réédité en 1960. 18 C. Shannon, The Mathematical Theory of Communication, The University of Illinois Press, Urbana, 1949. 19 A. Blanc-Lapierre et R. Fortet, Théorie et Fonctions Aléatoires, Éd. Masson, Paris, 1953. 20 P. Grivet et A. Blaquière, Le bruit de fond, Masson & Cie, Paris, 1958. 21 M.  Duffieux, L’Intégrale de Fourier et ses applications à l’optique, Masson  &  Cie, 1970. 22 Y. Bazanov, Processus Aléatoire, Éditions MIR, Moscou, 1975. 23 A. Tikhonov, V. Arsenine, Méthode de Résolution de problèmes mal posés, Éditions MIR, Moscou, 1976. 24 Histoire de l’Informatique à Toulouse, www.Academies-sciences-lettres-Toulouse.fr> 2717/01.pdf. 17

20

De l’IBM 360/75 au superordinateur Jean Zay

J’ai obtenu du temps calcul directement d’IBM à la seule condition que mes futurs programmes soient déposés dans la bibliothèque scientifique d’IBM. J’ai pu mener cette fois la simulation numérique du traitement des interférogrammes et des effets de toutes les imperfections et erreurs dont on pouvait imaginer qu’ils seraient entachés quand ils existeraient. Cette facilité faisait partie de la politique d’IBM chez qui c’étaient les utilisateurs qui développaient les logiciels utilitaires qu’IBM distribuait selon une pratique proche de ce qui se passe aujourd’hui pour les logiciels libres. Ainsi le FORTRAN dont une version moderne tourne sur l’ordinateur le plus puissant en 2020, a été développé pour le 704 d’IBM. Ce travail aboutit, malgré la faible puissance du 704, en 1958 à l’obtention de deux spectres inaccessibles par les méthodes classiques : celui des raies d’émission du ciel nocturne dans le proche infrarouge (IR) et celui de la lumière de recombinaison émise par un cristal de germanium, dans lequel un excès de porteurs minoritaires était créé par injection optique, et tout cela à la température de l’air liquide dans l’entrefer du gros électroaimant du laboratoire Aimé Cotton à Bellevue. Ce dernier problème avait été proposé par Pierre Aigrain de l’ENS. Mais la numérisation des interférogrammes était faite de façon primitive : mesure manuelle des ordonnées sur la courbe enregistrée, à la règle graduée, à des positions de points jugés équidistants, sur le rouleau de papier sortant de l’enregistreur analogique. Et plus grave, les temps de calcul attribués restaient beaucoup trop faibles pour attaquer des problèmes à résolution nettement plus élevée qui étaient nécessaires pour une meilleure compréhension des phénomènes étudiés. Cependant les résultats sur le ciel nocturne devaient attirer à un congrès à Liège l’attention d’un atmospheric physicist de la NASA, Lewis Kaplan. Il m’invita avec Pierre Connes à venir développer notre méthode à Pasadena, au Jet Propulsion Laboratory (JPL) de la NASA où nous aurions toutes les facilités de calcul imaginables à cette époque.

1.2 Le centre de calcul du JPL Être invité à travailler au JPL fin 1963, venant de France, c’était débarquer sur une autre planète, un immense campus où tous les efforts convergeaient vers le même but, avec un enthousiasme inconnu jusqu’alors pour les arrivants  dans un laboratoire : la conquête spatiale, avec comme but principal la détection de signes de vie extraterrestre. Le JPL avait déjà envoyé avec succès en 1962 la sonde Mariner 2, qui avait visité Vénus pour recueillir des renseignements sur son atmosphère. Le JPL avait aussi envoyé 8 sondes Ranger vers la Lune pour préparer les futurs vols APOLLO, dont seuls les trois derniers avaient réussi. Il travaillait aussi à une mission encore plus lointaine sur Mars, laquelle devait plus tard s’appeler VIKING. Notre mission était modeste et purement terrestre : au moyen d’un télescope et d’un interféromètre à construire, obtenir par spectroscopie infrarouge une mesure de la pression dans l’atmosphère martienne, afin de décider si l’on devait utiliser des rétrofusées ou des parachutes pour le ralentissement final avant l’atterrissage. La réponse devait être qu’il faudrait les deux successivement. Après 40 ans de mission vers Mars et six atterrissages, la NASA insiste toujours aujourd’hui sur les difficultés possibles dans les 12 étapes de guidage qui séparent l’entrée dans l’atmosphère de la planète et le contact du sol

Préhistoire du CIRCÉ, de 1954 à 1969 21

martien. Plusieurs films montrent les rétrofusées qui s’allument sous le module et l’ouverture du parachute lors de la mission InSight du 26 novembre 2018 25. Mais pour l’heure nous n’avions que des plans pour réaliser un interféromètre imité de ceux que nous avions construits au Laboratoire Aimé Cotton et des programmes testés sur un 704. Il fallait échantillonner l’interférogramme aux points déterminés par le théorème d’échantillonnage de Shannon ; le but ultime était d’en tirer une Transformée de Fourier d’un million de points pour lequel le 704 de Paris aurait exigé un siècle de calculs pour un seul spectre. De plus, Gerard Kuiper, célèbre astronome, qui avait produit, avec un spectromètre à réseau, les meilleurs spectres infrarouges des planètes avait démontré dans un article récent que la technique de Fourier était vouée à l’échec. C’est le cas typique de ce qui se passe toujours soixante ans plus tard chaque fois que le problème scientifique qu’on a à traiter nécessite des puissances de calcul supérieures à celles qui sont disponibles. Mais il faut se préparer pour le jour où elle existera. Le centre de calcul me fut aussitôt ouvert. Je découvris des étages entiers d’ordinateurs 7094 avec des 7040 en frontal, des étages de dérouleurs de bandes magnétiques et des étages de disques magnétiques de stockage. Le lendemain de mon arrivée, après examen de passage, j’étais une utilisatrice sans restriction de temps, d’un centre de calcul qui tournait vingt-quatre heures sur vingt-quatre et sept jours sur sept, apparemment sans pannes grâce à la redondance des machines. C’est là que j’ai travaillé pendant un an d’affilée, puis pendant de longues périodes au cours des années suivantes. Mon bureau était situé entre la tour dans laquelle on faisait le vide pour simuler les conditions de vol, et le centre de calcul où l’on simulait à peu près tout : le départ de la fusée, le pilotage de son vol, les pannes possibles, les corrections de trajectoire en temps réel, les expériences à bord, l’enregistrement des données avec leur récupération et leur traitement. Le tout, le plus rapidement possible. Chaque mission coûtait des centaines de millions de dollars et nécessitait des moyens énormes ; on ne pouvait les multiplier pour voir et apprendre. Il fallait que la première réalisation de ce qu’on simulait depuis des années, dix ou vingt ans suivant les cas, soit la bonne 26. 25 https://www.numerama.com/sciences/441748-insight-comment-va-se-derouler-latterrissage-sur-mars-etape-par-etape.html, https://www.youtube.com/watch?v=C0lwFLPiZEE et Nasa Insight Mission https://mars.nasa.gov/insight/entry-descent-landing 26 Note de l’auteure : « Il y a soixante ans, au Jet Propulsion Laboratory (JPL), tous les ordinateurs ne faisaient que de la simulation et pour cause, moi y compris. J’avais un programme prêt à être digéré immédiatement par toute machine IBM. Il traitait un certain nombre de données, disons N. En France j’avais limité N à 15 000 car le calcul prenait déjà des heures et les temps de calcul croissaient en N². Dès la semaine de notre arrivée, le vendredi soir, j’ai ajouté un 0 de plus et perforé sur une carte N = 150 000. Je surveillais le traceur de courbe (autre merveille) et au lieu d’une fonction de Gauss, bien fine, isolée, élégante, je vois apparaître sous mes yeux une forêt de pics tous déformés, certains la tête en bas. C’était le résultat d’une erreur théorique dont les effets s’accumulaient quand N augmentait et qui m’avait échappé lors de mes simulations précédentes. Heureusement le centre de calcul n’arrêtait jamais et le lundi aux aurores, après corrections, je retrouvais ma fonction de Gauss toujours aussi élégante. J’en ai à jamais gardé l’idée qu’il fallait faire des simulations en vraie grandeur et pour ça avoir des machines puissantes, ce qui m’a été très utile par la suite et l’est encore. J’ai découvert qu’il ne faut pas confondre simulation avec essai de modèle réduit.

De l’IBM 360/75 au superordinateur Jean Zay

22

Bien qu’utilisant les architectures séquentielles de l’époque, mais avec coprocesseur mathématique, c’était un centre de calcul intensif. Pour illustrer ce propos, il n’est besoin que de comparer les termes mêmes des objectifs de la Mission Calcul – Données MICADO créée au CNRS en février 2015 et ceux du centre de calcul du JPL quand je l’ai pratiqué en 1963 27. MICADO 2015

JPL 1963

Explosion de besoins

- Résolutions plus fines - Augmentation de la taille des problèmes

- Spectroscopie à très haute résolution pour définition plus précise des constantes - Augmentation de la taille des problèmes ; flyby autour de Vénus, les Ranger vers la Lune, un homme sur la Lune, la préparation de la première exploration de Mars etc.

Puissance de calcul

Machines massivement parallèles (dizaines de milliers de processeurs)

Avec les machines les plus puissantes disponibles à l’époque Multiplication des 7094 avec des 7040 en frontales

Avancées scientifiques significatives

- Une large gamme de compétences - Mathématiques appliquées - Algorithmiques, informatique… - Modélisation physique - Traitement des données

- Une large gamme de compétences - Mathématiques appliquées - Algorithmiques, informatique… - Modélisation physique - Traitement des données

Des équipes multidisciplinaires

Peu de codes partagés (production)

Pluridisciplinarité : le but ultime de toute cette conquête spatiale, c’est la découverte possible de signes d’une vie extraterrestre. Toutes les disciplines collaborent : le chef de la mission VIKING pour l’exploration de Mars était un biologiste J. Soffen avec qui l’entente de tous était totale

Figure 3 – Comparaison des missions du JPL en 1963 et MICADO en février 2015

27

Présentation de la Mission Calcul par Denis Veynante : https://docplayer.fr/53862547MP-E.%20Mounier-Kuhn,%20Comment%20l%E2%80%99informatique%20devint%20 une%20science,%20La%20Recherche,%20mensuel%20465,%20p.%2092-94,%20juin%20 2012ission-calcul-donnees-micado-denis-veynante-president-du-comite-directeur-de-lamission.html

Préhistoire du CIRCÉ, de 1954 à 1969 23

Le centre de calcul du JPL avait en 1960 d’autres caractéristiques : − attribution aux utilisateurs de moyens sur projet ; − satisfaction des besoins immédiats dès lors qu’on était membre d’un projet qui fonctionne : y exemple 1 : un lecteur de ruban perforé demandé un jour, installé et mis en marche le lendemain, y exemple 2 : mise à disposition de matériel de visualisation avec personnel de haut niveau pour assistance ; − veille technologique et mise en service, avant que les chercheurs n’en aient besoin, des logiciels adéquats. C’est la tâche qui, au centre de calcul d’Orsay, sera dévolue au Groupe de Service aux Utilisateurs, le GSU ; − assistance aux utilisateurs personnelle, hiérarchisée et très efficace, même si on leur demandait de comprendre assez vite. Au centre de calcul, ce sera aussi la tâche du GSU ; − ET SURTOUT, enthousiasme de toutes les équipes et de tous les chercheurs qui avaient le sentiment de participer à une tâche commune exaltante. Cette efficacité avait un prix : sélection des utilisateurs à la base, nécessité d’un rapport mensuel sur l’avancement des travaux devant un comité de projet restreint. Et plus surprenant pour nous  : exigence de comptes par le public. À  notre arrivée, les Rangers successifs avaient tous raté la Lune et étaient passés à côté pour continuer leur course dans l’espace. Prévenue par la presse, une petite foule se pressait aux portes du JPL pour manifester sa déception et demander des comptes sur l’emploi de ses impôts. Le 24 septembre 1964, des spectres de l’atmosphère de Vénus observable à cette époque ont montré la résolution de bandes de CO2 dans son atmosphère. La démonstration était faite que la méthode était valable et nous sommes rentrés en France avec tout le matériel construit à la NASA, pour y continuer le programme et une collaboration de 16 ans s’est établie. En effet en novembre 1964, Jean-François Denisse, alors directeur de l’Observatoire de Paris-Meudon, m’a demandé de revenir immédiatement à Meudon pour prendre la direction du centre de calcul de l’Observatoire. Il deviendra plus tard le centre de calcul de l’INAG (Institut National d’Astronomie et de Géophysique), dont Denisse est d’ailleurs devenu le premier directeur. Il me connaissait pour avoir fait partie de mon jury de thèse et m’avait donné mon deuxième sujet de thèse, la raie de l’hydrogène à 21  cm. À  partir de novembre 1964 l’interféromètre et toute l’électronique ont fait la navette entre les États-Unis et la France, transportés en avion militaire grâce à des contrats de la NASA avec l’US AIR FORCE, pour être utilisés soit au laboratoire Aimé Cotton à Orsay soit au télescope de 193 cm de diamètre de Haute Provence, soit à celui de 5 m du mont Palomar quand les planètes étaient visibles depuis la Terre. Ces transports ne s’effectuaient pas

24

De l’IBM 360/75 au superordinateur Jean Zay

sans quelques aléas pittoresques 28. La collaboration avec le JPL restait aussi étroite, mais une partie de la mise au point des programmes de calcul était effectuée sur le 7040 du centre de calcul de l’Observatoire de Meudon, réservé aux astronomes. L’interféromètre se perfectionnait pour arriver, un jour, aux hautes résolutions prévues, mais le problème du temps de calcul des TF restait entier et bloquait la méthode. Si j’ai aussi insisté sur cet épisode c’est que le JPL a été une formidable école. À condition de résister au rythme de travail, on y trouvait à l’époque tout ce qui s’est mis en place laborieusement dans les centres nationaux ; machines puissantes dédiées à la recherche interdisciplinaire et fonctionnant 24h/24, 7j/7, distribution d’heures gratuites sur projet, assistance de haut niveau pour dialogue indispensable et constructif avec les chercheurs. Restait le problème algorithmique.

1.3 Participation à l’implantation de la FFT (Fast Fourier Transform) J’ai posé le problème à la direction d’IBM. Ma requête est arrivée au bon moment. Je fus immédiatement orientée vers James W. Cooley à l’IBM Thomas J. Watson Research Center, récemment créé à Yorktown Heights (NY). Une citation célèbre du début des années 50, alors que seuls quelques ordinateurs électroniques étaient utilisés, disait que ceux-ci pouvaient satisfaire les besoins informatiques du monde entier. En 1965, les ordinateurs existants étaient saturés de travail et ils étaient vendus et mis en service aussi vite qu’ils pouvaient être construits : « There was a famous quotation made in early 1950’s when only a few electronic computers were in use, which said that these could satisfy the computing needs of the whole word. In 1965, however, the existing computers were saturated with work and computers were sold and put into use as fast as they could be built 29. » 28

Note de l’auteure  : Incident lors d’un transport entre le LAC et le mont Palomar tenant à la politique internationale. Depuis le retour en 1964 la situation internationale avait évolué et le président de Gaulle avait mis les Américains à la porte ! Il fallut donc dès lors expédier l’interféromètre jusqu’à leur base la plus proche, soit Francfort. L’optique remplissait une grande et lourde caisse dûment capitonnée, l’électronique quelques caisses plus petites, plus de substantielles provisions d’outillage et de visserie, car à ce stade le système métrique n’avait que partiellement remplacé l’américain. De Francfort, les caisses devaient gagner l’Andrew Air Force Base, un vaste complexe militaire situé dans la banlieue de Washington, mais du jour au lendemain Andrew devint une base de départ pour un pont aérien ininterrompu en direction d’Israël pendant la guerre du Kippour. Disparues, les caisses et plus aucune nouvelle, on imaginait l’interféromètre rôtissant sous le soleil sur les bords du canal de Suez, ou (pire encore) de la Mer Morte, (gare au chlorure de sodium concentré !). Finalement un gradé inconnu dut avoir la brillante idée mettre le tout sur un camion et le matériel arriva en Californie avec seulement une semaine de retard. 29 Cooley James W. & Tukey John W. (1965), « An algorithm for the machine calculation of complex Fourier series », Mathematics of Computation, 19, 297-301.

Préhistoire du CIRCÉ, de 1954 à 1969 25

C’était la saturation, non pas d’un centre de calcul, mais de toute l’informatique dans le monde. L’idée était venue que pour sortir de l’impasse il fallait faire des progrès aussi bien en logiciel et algorithmique qu’en matériel et pour cela réunir les meilleurs chercheurs dans le domaine de l’algorithmique. Ma surprise en arrivant à Yorktown Heights fut aussi grande que lorsque j’avais débarqué au JPL en novembre 1963. J’ai découvert une assemblée de mathématiciens de haut niveau, venant de Columbia, du MIT, de Princeton et qui s’attaquaient aux problèmes jusque-là insolubles qui se posaient dans toutes les disciplines et qu’on pourrait aborder avec le calcul numérique. Cette attitude était complètement à l’opposé de celle des mathématiciens français de l’époque qui étaient extrêmement forts en théorie, mais peu avaient un intérêt pour les problèmes pratiques ; c’est ce que dans la littérature spécialisée, on appelle le « contexte français ». À Yorktown, tous étaient familiers avec les nouvelles théories et techniques de traitement du signal et avaient de l’expérience (et quelle expérience  !). On avait fait appel à eux pendant la seconde guerre mondiale. Dans ce domaine, par exemple R.  Gardwin, théoricien qui siégeait aussi au Président Kennedy’s Scientific Advisory Commitee travaillait à l’amélioration de la surveillance sismique à distance des explosions nucléaires russes. Un autre de ses sujets d’étude était la possibilité de détection à distance des sous-marins. Tous avaient besoin de calculer des transformées de Fourier. J.W. Cooley travaillait à Yorktown. Le fameux article sur la découverte de l’algorithme de Fast Fourier Transform (FFT) connu sous le nom « algorithme de Cooley-Tukey » fut publié en 1965, et a eu immédiatement un énorme retentissement. Le gain de temps pour une transformée de Fourier de 1 million de points (le problème posé) est théoriquement de N/LogN = 51 200. C’est 41 % du chiffre, 125 000 qui est le facteur d’augmentation de puissance des machines installées en vingt ans à l’IDRIS de 1993 à 2013. Mais pratiquement, l’algorithme fonctionnait bien pour de relativement petits nombres quand tout tenait en mémoire centrale ce qui ne résolvait pas mon problème. C’est pourquoi James Cooley écrit : « One of the first really good application brought to me was too large (1 million of samples). It was a calculation being planned by Janine Connes who was programming the calculation of FT of interferometric Data 30. » À ce moment-là, les laboratoires Bell créent un comité présidé par un des responsables d’IBM pour développer des algorithmes de FFT. Son nom plus tard deviendra IEEE acoustic Speech and Signal Processing Society. James Cooley leur demanda de m’envoyer une invitation à un workshop sur les FFT organisé par ce comité à Arden House et présidé par IBM. Il y avait cent invités exposant leurs problèmes de FFT. Parmi eux, des chirurgiens du cœur, des statisticiens, des géologues, des professeurs d’universités, des océanographes, etc. C’est mon problème qui a été retenu pour étude et un étudiant du MIT, Forman, fut désigné pour y travailler avec moi. Cooley, J., Recent Aspects of Fourier Transform Spectroscopy, vol. 1, p. 14. Note de l’auteure. Traduction : « Une des premières des très bonnes demandes qui m’a été présentée était trop importante (1 million d’échantillons). Il s’agissait d’un calcul prévu par Janine Connes qui programmait le calcul de la Transformée de Fourier de données interférométriques ». 30

26

De l’IBM 360/75 au superordinateur Jean Zay

Cette collaboration a aussi été une très bonne école sur le rôle d’un centre de calcul. Elle s’est concrétisée dans la thèse d’état d’Hervé Delouis faite au CIRCÉ sous ma direction, soutenue en 1972 et qui donna lieu au manuel : Le Parfait petit Fouriériste. Elle s’est traduite par l’exigence d’avoir toujours dans le personnel du centre au moins un mathématicien de haut niveau qui avait déjà une formation complémentaire en informatique ou acceptait de la faire. Une vingtaine d’années plus tard James Cooley avait gardé grand souvenir de notre collaboration. Intervenant lors de la conférence Fourier Transform Spectroscopy à Vienne en 1987, il écrira son émerveillement lorsqu’il avait découvert l’énormité du problème de calcul posé par la spectroscopie optique : «  An extraordinary thing about this was that a single record of Data was about 512 000 points and all values of the spectrum were needed 31. » Et peu après le workshop d’Arden House, il devait découvrir et apprécier l’Atlas planétaire : « A monumental effort by Janine Connes resulted in the calculation of the infrared spectra of the planets which has become a standard reference 32. » Depuis 1970, il y a eu douze conférences internationales sur la spectroscopie par transformée de Fourier, la dernière en 2018 à Singapour. Lors de la sixième qui s’est tenue à Vienne en 1987, James Cooley fut invité à parler à 500 chimistes utilisant son algorithme implanté dans l’appareil d’analyse spectrale qu’ils avaient acheté dans le commerce et qui pour eux était une boîte noire. Peu leur importait qu’elle contienne un interféromètre et un calculateur. Ils mettaient l’échantillon en place, appuyaient sur un bouton et le spectre s’affichait sur l’écran. Cette découverte de Cooley a aussi complètement transformé la recherche pétrolière.

1.4 Conseils reçus pour la création d’un centre de calcul de service C’est aussi en novembre 1964 que j’ai pu étudier sous la direction de Schallow le fonctionnement du centre de calcul de Stanford dans la Silicon Valley. Les règles strictes à suivre pour un centre de service multidisciplinaire qu’il m’a enseignées étaient les suivantes : − le centre équipé des meilleures machines existantes et utilisant des systèmes éprouvés doit, en régime de croisière, fonctionner 24h/24 et 7j/7 ; − l’organisation doit être rigoureuse comme celle d’une usine de production. Trois équipes regroupent les seules personnes habilitées à intervenir 31

Note de l’auteure. Traduction  : «  Ce qui est extraordinaire, c’est qu’un seul enregistrement de données comprenne 5 120 000 points et que toutes les valeurs du spectre soient nécessaires. » 32 James W. Cooley, article cité. Note de l’auteure. Traduction : « L’effort monumental de Janine Connes a abouti au calcul des spectres infrarouges des planètes, qui est devenu une référence. »

Préhistoire du CIRCÉ, de 1954 à 1969 27

sur son fonctionnement, celle des opérateurs, l’équipe système, l’équipe d’assistance aux utilisateurs dont la tâche est la formation, l’assistance technique, l’assistance mathématique. En conséquence tout chercheur en informatique qui soumet des travaux susceptibles d’influer sur le système doit obligatoirement les planifier avec l’équipe d’assistance ; − aucune autre tâche que du calcul au service des chercheurs ne doit être acceptée qui risquerait de perturber la régularité de la production.

1.5 Cinquante ans après La Silicon Vallée est devenue ce que l’on sait. Le centre de calcul du JPL a continué à s’équiper des meilleures machines du moment. Il fait aujourd’hui partie des 253 centres équipés des supercalculateurs les plus performants aux États-Unis. On s’y attaque toujours avec le même enthousiasme aux grands problèmes  ; outre la préparation et la conduite des missions spatiales, il y a toujours des utilisateurs scientifiques de haut niveau qui travaillent à des problèmes fondamentaux. En cinquante ans, la quête de la connaissance de Mars et de signes de vie extraterrestre est devenue mondiale et intéresse le grand public. En juin 2020 deux grands hebdomadaires grand public y ont consacré des dossiers. Ils rappellent dans On va enfin savoir s’il y a de la vie sur Mars 33 et Objectif Mars 34, que le développement des moyens techniques permet de faire ce qui était impossible lors des expéditions précédentes depuis plus de 40 ans. Pendant la période de tir entre le 15 juillet et le 15 août 2020 : « La route de l’espace a été presque aussi embouteillée que celle des vacances. » Combien de supercalculateurs travaillent-ils à ces missions ? Le centre de calcul du CNRS, sans les mêmes moyens que celui du JPL mais créé sur son modèle et avec les mêmes objectifs de service aux utilisateurs était à sa création le plus puissant en Europe. Il a très rapidement perdu ce rôle après des développements au Royaume-Uni et en Allemagne. Malgré toutes les difficultés rencontrées, il n’a jamais décroché de sa trajectoire et a réussi contre vents et marées à remplir aussi bien que possible la mission qui lui avait été assignée à sa création et à devenir un des grands centres européens permettant de maintenir les chercheurs au meilleur niveau international dans leur domaine.

« On va enfin savoir s’il y a de la vie sur Mars », Le Point, n° 2499, du 16 juillet 2020, p. 82. 34 « Objectif Mars », L’Observateur, n° 2008, du 23 juillet 2020, p. 36. 33

Chapitre 2 La création du CIRCÉ Ce n’est pas parce que les choses sont difficiles que nous n’osons pas, c’est parce que nous n’osons pas qu’elles sont difficiles. Sénèque Pierre Jacquinot, directeur général du CNRS, n’avait pas utilisé lui-même l’informatique dans ses travaux personnels. Mais il avait donné un sujet de recherche qui s’est avéré demandeur de calculs intensifs. Et il a vu, dans toutes les disciplines, des chercheurs partant à l’étranger pour faire leurs calculs. Il en a déduit qu’il fallait que le CNRS se dote d’un centre de calcul « dans lequel les chercheurs de toute discipline pourraient faire ce qu’ils ne pouvaient pas faire ailleurs ». Il m’en a confié le projet et la direction au milieu des années 1968. Je mis plusieurs conditions à mon acceptation. Je savais que depuis de nombreuses années le CNRS abritait à l’Institut Blaise Pascal (IBP) des théoriciens des mathématiques, de l’informatique, des spécialistes d’applications (telles la traduction automatique) certainement fort savants mais travaillant dans des domaines où je n’étais pas experte et dont je savais que les activités, telles qu’ils les pratiquaient alors, étaient incompatibles avec le centre de service que je voulais mettre en place. Leurs préoccupations concernant l’informatique de service étaient à l’opposé de celles que j’avais acquises par expérience. D’autre part, je prévoyais les problèmes de personnel, les conditions de travail dans les centres de calcul que j’avais pratiqués, étant fort différentes de celles en usage dans la plupart des laboratoires français. Il existait un plan fort avancé de transfert de l’Institut Blaise Pascal à Orsay, dont la construction était bien avancée. J’émis le vœu de ne faire que ce pourquoi j’avais été formée par l’expérience, à savoir : faire fonctionner un centre de service multidisciplinaire copié sur celui du JPL. Sa finalité serait de fournir un outil aux recherches de pointe demandant du calcul intensif, et de collaborer à des recherches en traitement du signal et algorithmique, et en techniques de simulation, avec les constructeurs et les centres américains avec lesquels je travaillais déjà. J’étais consciente, au vu de l’état de pénétration de l’informatique chez les chercheurs, qu’il faudrait, pendant un temps dont je ne prévoyais pas la durée, consacrer une partie des ressources du centre à l’initiation et à la formation de nombreux utilisateurs qu’il fallait amener à découvrir un outil, avant qu’ils ne puissent prendre en charge eux-mêmes tout ou partie de leurs besoins.

De l’IBM 360/75 au superordinateur Jean Zay

30

2.1 Brève récapitulation de l’histoire de l’informatique de service en France avant 1969 Beaucoup de tentatives ont été faites depuis avant la dernière guerre mondiale jusqu’aux années 60 pour maintenir la France dans le paysage informatique.

2.1.1 Au CNRS Dès après la fin de la deuxième guerre, le CNRS voit surgir de nouveaux besoins et le plus impérieux concerne les moyens de calcul 35. Après la guerre, deux missions de scientifiques français, dont certains revenaient de leur exil volontaire aux États-Unis, vont l’une en Angleterre, l’autre en Allemagne pour se remettre à niveau après le désert dans lequel les scientifiques français se sont trouvés pendant la guerre. La mission en Allemagne est bien décidée à récupérer du matériel volé pendant l’occupation et à ne pas le laisser aux mains des alliés. Frédéric Joliot-Curie crée au CNRS un « Service des affaires allemandes » qui comprend en particulier A.L. Wolf, A. Berthelot, L. Cagnard et Louis Couffignal (1902-1966), particulièrement chargé de la récupération et de l’attribution des machines-outils et de machines comptables 36. «  La mission scientifique a récupéré en Allemagne un matériel de calcul important, comprenant notamment plusieurs équipements de machines à cartes perforées. Les perfectionnements apportés depuis quelques années aux calculatrices à cartes perforées qui vont permettre à ces équipements d’être utilisés pour des calculs scientifiques. » Une partie de ce matériel est affectée au laboratoire de calcul mécanique directement rattaché au CNRS 37. Joseph Pérès, directeur adjoint du CNRS et président du comité de mécanique, prend l’initiative d’y associer son laboratoire de calcul analogique. Ainsi est créé l’Institut Blaise Pascal (IBP) en novembre 1945 sous l’autorité de Couffignal. Le CNRS pense que la remise à niveau de la France passe par la construction d’une machine française. « Le CNRS veut consacrer les crédits nécessaires à l’étude et la réalisation d’une machine universelle tenant compte des réalisations faites aux ÉtatsUnis, mais sans les copier ; grâce aux travaux de M. Couffignal nous gardons une avance du point de vue théorique 38. »

Denis Guthleben, Histoire du CNRS de 1939 à nos jours, septembre 2013, éditions Armand Colin, p. 200. 36 Pierre-Éric Mounier-Kuhn, L’informatique en France, de la seconde guerre mondiale au Plan Calcul, Paris, PUPS p. 91. 37 Mounier-Kuhn, op. cit., p. 92. 38 Guthleben, op. cit., p. 201. 35

La création du CIRCÉ 31

Son directeur Frédéric Joliot-Curie et son sous-directeur G. Tessier ont des ambitions, mais mus par un sentiment patriotique et un anti-américanisme bien français, ils confient le projet à Couffignal sous l’égide de Joseph Pérès 39. « Ne pas “copier” les Américains, suivre une voie bien française. L’idée est ambitieuse. À défaut elle est au moins patriotique. En réalité ce n’est que la première erreur d’une longue série. » Selon Couffignal, les calculateurs anglais et américains attribuent une place trop importante à la mémoire. Pour lui il vaut mieux utiliser plusieurs chiffreurs indépendants qui seraient commandés par un cerveau électronique, comme dans un central téléphonique. En 1946, il fait un séjour aux États-Unis. Il voit les développements à Princeton qui confèrent à la mémoire une place centrale, mais il est persuadé qu’il n’y a pas de solution aux problèmes techniques que pose leur réalisation et il poursuit son idée. Il prévoit que sa machine française sera opérationnelle en 1950. L’IBP met en place un partenariat avec la société Logabax pour construire les machines et Couffignal en fait mettre une en place à l’IPG (Institut de Physique du globe) en prophétisant : «  Cette machine fera de l’IPG l’établissement le mieux équipé dans le monde pour l’analyse harmonique, mieux que les universités de Berlin et Cambridge 40. » Or, Logabax n’est pas le meilleur choix. La firme n’a pas la moindre compétence en électronique, et elle est dans une impasse financière. Cependant, F.  Joliot-Curie et G.  Tessier entretiennent «  un chauvinisme technologique, relayé par la presse française ». « La presse de l’époque multiplie les articles sur l’Institut Blaise Pascal et célèbre à l’envie la machine française. Le nom officiel “machine IBP” sonne comme une réplique à l’IAS machine de Von Neumann. Face à Princeton, Chatillon-sous-Bagneux relève le défi  41. » La revue Atomes ne manque pas de souligner l’appui que Marcel Brillouin apporte à Couffignal : «  En effet, M.  Brillouin professeur de physique théorique au Collège de France et Couffignal, Inspecteur général de l’enseignement technique, dont les efforts conjugués vont bientôt permettre à la France de posséder une machine originale de 7 tonnes, capable de rivaliser avec les plus belles réalisations d’outre-Atlantique 42. » L’apothéose de Couffignal est le colloque international qu’il organise en janvier 1951 ayant pour thème Les machines à calculer et la pensée humaine, qui rassemble la plupart des spécialistes du calcul électronique européens et

op. cit., p. 201. op. cit., p. 96. 41 Mounier-Kuhn, op. cit., p. 104. 42 Mounier-Kuhn, op. cit., p. 105. 39 Guthleben,

40 Mounier-Kuhn,

32

De l’IBM 360/75 au superordinateur Jean Zay

quelques notables américains 43. Ce colloque ne lui ouvre pas les yeux. Mais Gaston Dupouy, alors directeur du CNRS, prend conscience à ce colloque du fait que les étrangers vont bientôt sortir des machines commerciales alors que l’ordinateur de l’IBP n’en est encore qu’à la conception de quelques-uns de ses éléments. Mais il ne réagit pas, car il a toute confiance dans Pérès. En 1956, la machine française doit toujours battre celles de Harvard, Amsterdam ou Stockholm. Mais quand elle fait son apparition en 1957, elle ne tient aucune des promesses faites il y a dix ans. On a beaucoup écrit sur les causes de l’échec du CNRS dans son entrée dans le domaine informatique. Quelques-unes des plus évidentes sont la méconnaissance et l’incompréhension de ce qui se faisait à l’étranger, un antiaméricanisme qui a perduré plusieurs années, le fait que notre excellence en mathématiques théoriques nous faisait négliger les mathématiques appliquées, qu’on a mis tous les espoirs en un seul chercheur, et que le dit savant n’était pas familier de l’électronique. Le nouveau directeur du CNRS, Jean Coulomb, met fin aux fonctions de Couffignal, dissout son laboratoire et se résout à acheter des machines parmi les plus performantes. En 1957, il impose René de Possel (1905-1974) à la tête du laboratoire de calcul numérique de l’Institut Henri Poincaré (IHP) puis comme successeur de Couffignal à l’IBP. Il y restera jusqu’en 1969. C’est un brillant mathématicien passé du bourbakisme aux mathématiques appliquées. Il ne connaît rien aux ordinateurs, mais il est imaginatif. Il partage les premiers cours d’informatique avec Jean Ville statisticien probabiliste. C’est à deux des élèves de celui-ci, que de Possel confie les services de calcul de l’IBP, Jean Porte, statisticien lui aussi qui poursuit des travaux de logique mathématique et L. Nolin. Ce dernier dispense d’excellents cours de programmation aux chercheurs et aux techniciens du centre 44. L’IBP reçoit la tutelle de deux nouveaux laboratoires : ceux de traduction et de documentation automatiques. Enfin, en 1959, tous les chercheurs de l’IBP assistent au premier congrès de l’International Federation for Information Processing (IFIP) où ils découvrent les axes de recherches américaines en informatique. René de Possel ouvrira l’IBP à l’Enseignement supérieur et fondera en 1963 l’Institut de programmation. Avec toute une série de chercheurs, Jean Ville, Louis Nolin, Marcel-Paul Schutzenberger, Jacques-Louis Lions, Jacques Arsac, J. Porte, Maurice Nivat, il créa un enseignement de l’informatique. À  son âge d’or, l’IBP a eu jusqu’à 140 membres. Il fut équipé de l’ancien 704 d’IBM de la place Vendôme, remplacé par la suite par un Control Data 3600. Parmi les réalisations en recherche informatique, on peut citer un système d’exploitation en temps partagé développé par Nolin, des compilateurs etc. Mais le projet de machine à lire les caractères de de Possel est arrêté et le Trésor de la Langue Française est transféré à Nancy. La machine à traduire a de bonnes performances, mais est dépassée par une technologie plus nouvelle 45.

op. cit., p. 107. op. cit., p. 277. 45 Mounier-Kuhn, op. cit., p. 289. 43 Mounier-Kuhn, 44 Mounier-Kuhn,

La création du CIRCÉ 33

En 1967, de Possel confie la direction de l’Institut de programmation à Arsac. Une chaire de programmation dont le cursus est élargi à un enseignement complet de l’informatique avait été créée pour lui en 1965. Arsac avait en outre créé en 1959 un centre de calcul CNRS à Meudon qui fut doté d’un 650 puis d’un 7040 IBM. Je lui ai succédé en novembre 1964, à la direction du centre, rappelée pour cette tâche des États-Unis par Denisse.

2.1.2 Dans les universités On a vu qu’aux États-Unis, pendant la guerre, s’était développée une école de mathématiciens qui par nécessité de recherches militaires s’était consacrée, entre autres, à la théorie de l’information et aux mathématiques appliquées. La même tendance naîtra en France après la guerre bien qu’il y eût chez nous, à cette époque, nombre de discussions qui s’apparentaient à celles du sexe des anges pour savoir si l’informatique était une science ou une technique et si les mathématiques appliquées étaient vraiment des mathématiques. Robert Fortet franchit le pas, un des premiers, après un séjour au centre de calcul du NBS (National Bureau of Standards) de Baltimore. Jean Kunzmann, revenant à la vie civile dès 1945 après cinq années de guerre et de captivité, s’éloigne de l’équipe Bourbaki, et dit-il, de l’algèbre hyper-désincarnée pour répondre, comme il avait été fait auparavant aux ÉtatsUnis, aux besoins des électroniciens qui s’occupent de questions liées au radar et à la radionavigation pour les services de la marine 46. Il crée l’Institut de Mathématiques de Grenoble (IMAG) qui dès 1963 comprend 53 membres et délivre un enseignement de 3e cycle de mathématiques appliquées. Cet institut sera ensuite dirigé par Louis Néel et deviendra un excellent centre de formation d’ingénieurs informaticiens, dont les promotions irrigueront l’industrie et la recherche. On y fait aussi de la recherche sur les langages et les systèmes de programmation, en particulier sur l’ALGOL. En 1956, l’université de Toulouse développe l’enseignement et la recherche en informatique autour de son centre de calcul qui fait une expérience de « Time sharing » utilisant 16 terminaux connectés à un ordinateur CAE 510. Le centre de calcul est dirigé par Émile Durand et Michel Laudet. Il forme des ingénieurs, en particulier pour les Télécommunications et travaille sur des algorithmes de reconnaissance de forme et de procédures d’apprentissage dérivant de celles de Wiener. Les ingénieurs et les maîtres de conférences formés dans les trois pôles, Institut de programmation à Paris, IMAG et Toulouse, émigreront dans d’autres facultés où ils feront de l’enseignement et de la recherche autour de centres de calcul plus ou moins bien équipés : Lille, Clermont-Ferrand, Strasbourg, Rennes, Nantes, Besançon, Poitiers, Montpellier, Lyon, Marseille. Dès 1960, la faculté des sciences d’Orsay crée un centre de calcul équipé avec un IBM 650 puis sous

46 Mounier-Kuhn,

op. cit., p. 242.

34

De l’IBM 360/75 au superordinateur Jean Zay

Loup Verlet avec un Univac 1108. Il est d’abord consacré à la physique nucléaire et à mesure que son utilisation par cette discipline décline, il s’ouvre à d’autres utilisateurs de la faculté.

2.1.3 Au CEA (annexe 40) Il est très instructif de faire un parallèle entre le développement du centre de calcul du CEA et celui du centre de calcul d’Orsay. Ce sont aujourd’hui deux de nos trois grands centres nationaux et on peut faire un parallèle entre leur développement en cinquante ans. Pour le CEA ce fut cinquante ans de calcul intensif et de simulation (annexe 37). Jusqu’en 1954, les recherches menées au CEA en neutronique ne nécessitaient rarement plus de 12 équations linéaires à 12 inconnues qui pouvaient être résolues par le centre de calcul et ses quatre machines à calculer Friden. On a vu que c’était mon expérience dans les centres de calcul de la NASA qui m’avait servi de support pour créer le centre de calcul d’Orsay. J’arrivais avec un sujet de recherche qui à lui seul aurait pu saturer la machine. De même, c’est à l’étranger qu’Albert Amouyal a trouvé ses modèles pour créer son centre. Dès 1952 le besoin de calcul était là, avec la collaboration avec le CERN pour les recherches en physique atomique et nucléaire. Le point de départ pour la création du centre n’a pas été pour A. Amouyal une invitation aux États-Unis, mais à une école d’été à Cambridge, suivie par un stage de plusieurs mois, au terme duquel il a considéré « qu’il était temps pour le service de Mathématiques appliquées du CEA de se lancer dans l’utilisation de ces techniques nouvelles ». C’est la suite qui a été différente : alors que le centre de calcul d’Orsay était confronté au scepticisme de son institution, au CEA, aussitôt après la création du centre de calcul, la décision était prise de créer un groupe spécialisé et de recruter de jeunes ingénieurs de haut niveau, dont deux mathématiciens frais émoulus de l’ENS et envoyés à Cambridge et Manchester pour formation d’une année. Ce dernier centre qui au début était quasiment en libre-service, et où « chaque ingénieur effectuait lui-même le passage machine concernant sa propre mise au point », s’est transformé naturellement au fil des années en un centre de service multidisciplinaire, faisant partie du GENCI. Le tableau suivant donne la liste des matériels installés au CEA de 1957 à 1972 47.

47

Albert Amouyal, «  Les débuts de l’informatique au Commissariat à l’Énergie Atomique (1952-1972)  », Extrait des actes du deuxième colloque de l’Informatique en France, Conservatoire national des Arts et Métiers, Paris, mars 1990, 2 volumes, p. 11-38.

La création du CIRCÉ 35

Année

Type d’équipement

Performances approximatives en MIPS (méga instructions par seconde)

1957

IBM 650 MERCURY

0,1

IBM 7090

0,3

1961 1963

2e

IBM 7090

1964

Transformation des IBM 7090 en 7094 modèle 2 2 IBM 7040

2 × 0,45

1965

IBM 360/30



1966

IBM 360/50

0,3

1967

CDC 6600 IBM 360/75

1,4 0,7

1969

IBM 360/91

2,2

1972

CDC 6400 CDC 7600

0,5 6,5

Figure 4 – Équipement du CEA civil jusqu’en 1972

2.2 La scission avec l’Institut Blaise Pascal (IBP) de la rue du Maroc en 1969 J’ai voulu cette scission effective, nette, totale et immédiate. Je ne connaissais pas personnellement cet institut, mais je savais que son histoire était très compliquée. En 1969, il était devenu difficile à gérer parce que sa tâche était trop étendue Je n’avais jamais rencontré les personnes qui le dirigeaient. Mais je connaissais très bien J.  Arsac depuis qu’en 1955 je lui avais soumis mon problème de Transformée de Fourier pour lequel il n’avait pas pu me proposer de solution. En 1964, je lui avais succédé à la direction du centre de calcul de Meudon. L’IBP abritait de nombreux chercheurs qui faisaient essentiellement de la bonne recherche en informatique et un bon enseignement donné en liaison avec l’Institut de programmation, qui était une de ses créations. Sa structure administrative était complexe. Il abritait aussi le centre de gestion du CNRS, deux laboratoires du CNRS, le centre de recherches en traduction automatique, et celui de machine à lire. Très accessoirement, il était aussi un centre de service de calcul scientifique. Par exemple, Alain Chedin chercheur à Jussieu au Laboratoire de météorologie dynamique (LMD) y a porté ses travaux. A. Colinot et P.-E. Mounier-Kuhn ont publié en 2010 une histoire de l’IBP. Ils y mettent en lumière la diversité des tâches de l’IBP. Cependant, dans aucune des histoires

36

De l’IBM 360/75 au superordinateur Jean Zay

dont ce centre a fait l’objet il n’est signalé que c’était d’abord le centre de gestion du CNRS. Il est surtout connu comme centre de recherches. Son directeur R. de Possel 48. « Celui-ci [R. de Possel] confie d’ailleurs les services de calcul de l’IBP à deux élèves de Ville, qui commencent aussitôt à y développer des recherches. » R. de Possel était un brillant savant, mais un mauvais gestionnaire. Il voulait faire de la recherche fondamentale lourde, mais sans subir les contraintes qu’elle impose. Il avait aussi des difficultés dans ses relations avec les industriels qui ont besoin de réalisations concrètes et quand il a eu affaire à un industriel il a fait un mauvais choix 49. « Monsieur de Possel a d’ailleurs un grand nombre d’idées qu’il n’a malheureusement jamais rédigées ou rassemblées dans des articles ou dans des notes donnant lieu à une prise de brevet. Il en parle à tout le monde et certaines de ses idées ont été reprises ailleurs sans aucune protection. » Mais l’IBP était censé être le centre de calcul du CNRS. Il est obligé malgré lui d’offrir des services à un flux de scientifiques demandeurs 50. « [Les personnels de l’IBP] ont commencé à initier les chercheurs de toutes disciplines à la programmation, afin de favoriser une forme de libre-service et de dégager du temps pour leur propre recherche. » On met ici en évidence le fait que l’objectif principal était la recherche en informatique et pas le service, avec le souci de consacrer à cette recherche le plus de temps de recherche personnelle et d’exploitation et d’énergie possibles. C’était très difficile à gérer et incompatible avec la satisfaction des besoins en calcul des chercheurs pour lesquels l’informatique était l’outil indispensable. D’ailleurs cette situation n’est pas propre à l’IBP et Pierre-Éric Mounier-Kuhn indique que les mêmes difficultés se présentaient dans les centres de calcul universitaires 51. « Le conflit est permanent dans l’emploi du temps des informaticiens entre service de calcul pour répondre à la demande, toujours plus pressante, et recherche génératrice de publications et de satisfactions professionnelles. » Cet auteur, rend hommage au travail que de Possel a accompli avec son équipe à cette époque. « L’IBP de René de Possel a constitué une petite communauté où se sont rapprochés pendant quelques années décisives, des scientifiques venus de tous les horizons, habités de différentes convictions religieuses ou politiques dans lesquelles ils ont pu puiser une énergie et peut-être une foi nécessaire pour construire “nouvelle science”. » Anne Colinot & E. Mounier-Kuhn, « Forteresse ou Carrefour », La Revue pour l’histoire du CNRS, n° 27-28, automne-hiver 2010, p. 81. 49 Mounier-Kuhn, op. cit., p. 289. 50 Anne Colinot & E. Mounier-Kuhn, op. cit., p. 87. 51 Mounier-Kuhn, op. cit. 48

La création du CIRCÉ 37

L’histoire de cette période est très difficile à appréhender, même cinquante ans après. Il ne faut pas oublier que’ la notion de centre de calcul scientifique voué à ce qui était le calcul intensif à cette époque n’existait pas en France, dans les universités. Dans les deux principaux centres universitaires, à Grenoble et Toulouse, on faisait la gestion de l’université, du bon enseignement, de la recherche en informatique et accessoirement, on avait un service pour les utilisateurs venus d’autres disciplines. Finalement, le CNRS n’était pas différent, partagé entre plusieurs missions. À la création de l’IBP, on y faisait tout. C’était une ruche. Puis de Possel a eu l’intuition qu’il fallait séparer les chercheurs en les affectant à des laboratoires du nouveau type, les laboratoires associés. Ils étaient l’ossature de l’Institut de programmation. Tellement associé que J. Arsac faisait rue du Maroc une partie de ses cours et travaux pratiques. Dans son ensemble, le personnel avait des idées diamétralement opposées aux miennes quant à la vocation de ce qu’ils appelaient « un centre de calcul ». Depuis plus d’un an, des rumeurs de changement circulaient au niveau de l’IBP et une partie du personnel était fortement opposée à la séparation du centre de calcul et de la recherche en informatique. En mai 1968, l’IBP était en grève à 100 %, essentiellement pour obtenir la mise en place d’une structure où les ordinateurs serviraient essentiellement à la recherche en informatique et ensuite seulement aux autres utilisateurs. Les grévistes avaient déjà donné un nom au nouvel ensemble « Groupe de Recherche en Informatique Fondamentale et Appliquée (GRIFA) ». J. Arsac ne dit pas autre chose dans la Revue de l’Enseignement supérieur. « À l’heure actuelle, considérant que l’essor technique n’a de sens que s’il est nourri par une recherche fondamentale, le service entreprend de mettre sur pied une équipe de recherche en analyse numérique 52. » Bref, l’IBP en 1969 réunissait, pour l’informatique de service, au même titre que les centres universitaires toutes les caractéristiques de ce que contre quoi on m’avait mise en garde pendant mon travail aux États-Unis dans un centre de service. J’avais eu l’occasion, de plus, de voir ce qu’à l’IBP on appelait centre de calcul, quand en 1964 j’avais pris la direction de celui de l’observatoire de Meudon à la suite d’Arsac qui l’avait créé. Quand j’ai accepté la proposition de Pierre Jacquinot, ma première condition a été de ne transporter à Orsay que la partie service de calcul et rien de la gestion, ni de l’enseignement ni de la recherche. Je lui ai demandé de prévenir le personnel et de prendre toutes les mesures nécessaires pour que chacun, chercheur et technicien, ait trouvé une structure adéquate pour l’accueillir avant que je me présente au personnel de l’IBP avec mon projet, ce qui a été réalisé. Depuis trois ans, un laboratoire, le RAMI, avait été créé pour de Possel et le reste de la recherche a été divisé fin 1969 en quatre laboratoires associés Enseignement supérieur-CNRS 53 : y ERA 84 Structure de systèmes informatique (Jean Suchard, Jacques Arsac) CNRS - Paris VII qui deviendra le MASI en 1975 ;

52 Arsac,

Revue de l’Enseignement supérieur, n° 2, 1963, p. 67.

53 https://www.lip6.fr/recherche/team.php?acronyme=IBP%201946-1969

38

De l’IBM 360/75 au superordinateur Jean Zay

y GR 22 Structure de l’information (Claude-François Picard) CNRS - Paris VI qui deviendra le LAFORIA en 1975/1977 ; y ERA 247 Laboratoire d’automatique documentaire (Maurice Gross) CNRS - Paris VII qui deviendra le LADL ; y ERA 295 Informatique Théorique (Maurice Nivat 1972, Louis Nolin, Marcel-Paul Schützenberger) CNRS - Paris VII qui deviendra le LITP. La partie gestion est restée inchangée. Le seul contact que la nouvelle direction du centre de calcul d’Orsay aura avec les services restés rue du Maroc sera une période de direction temporaire du centre de calcul de gestion, qui s’est trouvé en difficulté en 1978-1979. Mais même à ce moment-là, il n’y eut pas la moindre interaction entre les deux centres, le directeur et le sous-directeur du CIRCÉ passant alternativement une journée rue du Maroc, en service commandé. Les deux tâches urgentes durant cet épisode auront été le rétablissement de la paie du personnel, celui du paiement des fournisseurs et la recherche d’un directeur pour le centre de calcul de gestion. Le CNRS avait depuis plusieurs années entrepris la construction, sur le campus de la faculté des sciences d’Orsay, d’un bâtiment destiné à abriter les services qui constituaient l’IBP et fonctionnaient à Paris, rue du Maroc. Mais en fait, seule une partie du service de calcul de l’IBP y a été transférée. Elle s’est fondue dans la nouvelle entité qui prit le nom de centre de calcul du CNRS à Orsay. À la première visite que je fis rue du Maroc, souhaitant rencontrer l’équipe technique, je remarquai qu’un nom circulait, celui de Philippe Salzedo, désigné comme l’ingénieur faisant marcher la maison. Je lui ai exposé mon projet. Au bout d’une heure, il a, devant moi, appelé une firme industrielle, (je ne sais laquelle), pour l’avertir qu’il retirait sa candidature. Cette rapidité de décision m’a convaincue qu’il ferait un bon sous-directeur et je lui ai proposé le poste. Il m’a aussitôt donné la liste des personnes qu’il voulait emmener à Orsay si elles acceptaient. Et celles des personnes qu’il ne voulait pas avoir à diriger dans le futur centre. Ceci sans état d’âme car on savait qu’elles avaient déjà leur place dans l’entité qui subsistait rue du Maroc. Donc rien ne changeait pour elles. P. Salzedo, bien qu’ayant l’intention, sauf changement majeur, de quitter l’IBP avait commencé à former une équipe, depuis dix-huit mois, en vue de l’installation d’un matériel IBM puissant, pour cette époque, dans la future localisation. Il voulait quitter l’IBP mais laisser une équipe formée. C’est ainsi qu’a commencé une collaboration de vingt années pendant lesquelles il ne s’est pas passé une journée où, après discussions, nous n’ayons adopté une position commune à afficher. Dans la suite de cette histoire, jusqu’en 1990 où il a donné sa démission, quand j’emploierai « nous » au lieu de « je », ou quand je parlerai de la direction du CIRCÉ, il s’agira de P. Salzedo et moi-même. Des embauches avaient été faites dans ce but en janvier 1968, dont celle de Françoise Perriquet. Ces nouveaux venus se souviennent des heures passées chez IBM-REAUMUR. Ils y ont même reçu des pavés au travers des vitres des locaux d’IBM lors de la visite du président des États-Unis, Nixon à Paris. Ils y testaient les nouveaux systèmes IBM. Puis, les événements de mai 68, avec la grève à 100 % de l’IBP pendant un mois, ont stoppé les travaux préparatoires. Ces jeunes ingénieurs ont constitué les premiers membres de l’équipe système  : Jacqueline Denyset, Bernard Gaulle, Pierre Godot, Françoise Perriquet, Gilles Plançon, Annie Potin, Jean-Pierre Pouchez, Marcel Soberman et Gérard Terrine.

La création du CIRCÉ 39

Ils étaient bien préparés. Certains avaient déjà fait des stages prolongés chez IBM. Tous travaillèrent ardemment dès que les ordinateurs ramenés de Blaise Pascal furent remis en marche après la grève de 1968. IBM les avait pris sous son aile : visite des usines de Corbeil, séminaires, cours etc. Salzedo surveillait les travaux à Orsay chaque semaine. Côté exploitation, Georges Taieb et Robert Binisti et quelques opérateurs vinrent de la rue du Maroc, ainsi que Madame Jouannaud, la secrétaire générale et deux mécanographes. Peu de temps avant le déménagement, à Orsay, ils ont appris qu’il y aurait une directrice « scientifique » à la tête du Centre qui venait de l’observatoire de Meudon. Certains ne m’avaient pas encore rencontrée, mais tous accordaient une totale confiance à Salzedo et étaient prêts à le suivre. Mon décret de nomination comme directrice et celui de Philippe Salzedo comme sous-directeur sont datés d’avril 1969. Lui-même connaissait très bien le bâtiment puisqu’il en avait suivi la construction. Je suis arrivée au moment des finitions et ne suis intervenue que sur un point, la consolidation du plancher de la salle machines qui n’avait pas été prévu pour le poids des nouveaux ordinateurs à venir. Pour le prouver il n’a été besoin que de lancer, pour le traverser, un chariot très lourdement chargé de blocs de ciment. Il est passé au travers de la dalle. Il a fallu la consolider en toute dernière minute. D’où la forêt de poteaux qui la soutiennent et surprennent les visiteurs des locaux techniques. Je n’ai pas promis au personnel du centre de calcul, comme Churchill l’a fait aux Anglais en 1940, du sang et des larmes, mais beaucoup de travail et de nuits blanches. J’étais consciente de la tâche qui les attendait. J’arrivais avec une longue expérience de travail dans un centre de calcul intensif aux États-Unis. Ma recherche personnelle nécessitait des calculs lourds. Mes contacts de travail aux États-Unis dans une équipe multidisciplinaire m’amenaient à la conclusion que beaucoup d’équipes en France devaient avoir les mêmes besoins. Il fallait les leur faire découvrir. Et depuis cinq ans, je dirigeais le centre de calcul de l’Institut National d’Astronomie et Géophysique (INAG).

2.3 Réaction du CNRS et de l’Enseignement supérieur Cette transformation de l’IBP, initialisée par la direction générale du CNRS, a été soutenue sans restriction par Pierre Jacquinot ; son successeur Hubert Curien et le directeur administratif Charles Gabriel qui l’ont portée à bout de bras, tenant la nouvelle équipe d’Orsay, pleine d’enthousiasme, hors des remous politiques. Quel a été l’impact sur les autres centres de calcul du CNRS ? Nul, car ce n’était pas le propos. Un des centres du CNRS a gardé sa complète autonomie. C’est celui de l’Institut National de Physique nucléaire et de Physique des particules (IN2P3) qui s’équipait et travaillait en symbiose avec le Conseil Européen pour la Recherche Nucléaire (CERN). Il était dirigé par Jean Yoccoz et son directeur technique, Jacques Ganouna. Pendant la première décennie, il s’est tourné vers l’Enseignement supérieur pour ses problèmes administratifs et de développement, et ignorait totalement le CNRS. C’est d’ailleurs à l’Enseignement supérieur

40

De l’IBM 360/75 au superordinateur Jean Zay

que se prenaient… ou justement ne se prenaient pas, les décisions. Or, à la mise en place de la Direction Informatique du CNRS (DIS), on a établi une administration commune des quatre centres CNRS (CIRCÉ, centre de Strasbourg, CCPN, la partie CNRS du CCVR). Alors l’IN2P3, n’obtenant rien de l’Enseignement supérieur s’est tourné vers le CNRS. Un accord a été trouvé avec la Commission à l’Informatique : l’IN2P3 obtenait les ordinateurs américains VAX qu’il demandait, si le CIRCÉ se sacrifiait en prenant du matériel français. À la création du centre de calcul CIRCÉ, une opposition directe est venue de l’Enseignement supérieur en la personne de Louis Verlet, qui dirigeait le centre de calcul universitaire d’Orsay. Il était très opposé à l’installation sur le campus d’Orsay d’une usine à calcul. Pour bien lui montrer qu’il garderait ses clients qui appréciaient son centre convivial, il a été nommé dès le début au comité de direction de la dite usine. Le but était de faire ce qu’on ne pouvait pas faire ailleurs, mais pas de casser ce qui marchait. Bon nombre d’utilisateurs de l’UNIVAC étaient très satisfaits d’y avoir leurs entrées et de l’utiliser à leur guise en libre-service. Ils ont continué à le faire, utilisant le CIRCÉ, petit à petit quand ils en avaient vraiment besoin, ce qui est très bien. Les principes qui ont présidé à la création du CIRCÉ allaient à la fois contre les idées affichées d’une partie du «  personnel informatique  » et contre celles de l’Enseignement supérieur pour qui elles étaient suspectes. Si nous avons tant insisté sur ces difficultés, c’est parce qu’elles ont mis des décennies à disparaître. Plusieurs rapports le montrent, écrits au fil des années, par des personnes indépendantes ; ils seront détaillés par la suite. Comme il a déjà été dit, le centre de calcul doit sa survie et son développement au soutien sans faille des directeurs généraux du CNRS, en particulier Pierre Jacquinot, Hubert Curien, Pierre Papon, et François Kourilsky et Catherine Bréchignac, mais, pendant longtemps, avec une attitude très réservée de la plupart des directeurs scientifiques.

2.4 Relations CNRS-Enseignement supérieur Le centre de calcul du CNRS avait donc à défendre son existence vis à vis de l’Enseignement supérieur (ES). À la fin des années 50 et pendant les années 60, l’Enseignement supérieur avait développé des centres de calcul universitaires, dont certains fonctionnaient d’ailleurs en partie avec du personnel CNRS. Ils faisaient la gestion de l’université, de la recherche en informatique et avaient essentiellement un rôle d’enseignement. Ils ont formé des promotions d’ingénieurs pour la recherche et l’industrie. Mais ils n’avaient que peu de temps à consacrer à une activité de service pour les autres disciplines de leur université. Quelques-uns, surtout dans la région parisienne, ont craint de voir leur mode de fonctionnement bouleversé. Que venait faire là cette usine à calcul d’un genre tout nouveau ? Ceux des utilisateurs de ces centres qui avaient de gros calculs ont été vite rassurés, quand ils ont compris que l’usine était là pour satisfaire des besoins qui ne l’étaient pas jusqu’alors. Mais les autorités de tutelle de l’Enseignement supérieur ne l’ont compris que beaucoup plus lentement. Et cela était entretenu par une confusion au plus haut niveau. Au gré des changements de gouvernement, qui étaient accompagnés d’ajustements de leurs ministères, le

La création du CIRCÉ 41

CNRS a dépendu du ministre de la Recherche et de l’Enseignement supérieur, ou du ministère de la Recherche et de l’Innovation, ou de la Recherche, ou de la Recherche et de l’Industrie, ou de la Recherche et de la Technologie et même des Télécommunications. Et les dossiers qu’il présentait en commission étaient en apparente compétition avec ceux de l’Enseignement supérieur, bien que les objectifs aient été différents. Un autre problème de taille auquel le personnel du centre de calcul a été confronté est le manque de considération qu’il ressentait de la part de certains hauts responsables et de certains informaticiens eux-mêmes. On a déjà dit que des livres entiers avaient été écrits sur les frontières entre mathématiques pures et appliquées, entre ces dernières et l’informatique. La question « l’informatique est-elle une science ? » a beaucoup préoccupé les esprits. Au comité national du CNRS, il est question de savoir quelle commission doit abriter l’informatique, qui jusque-là était dans la même commission que la mécanique 54 : « On s’accorde sur la création d’une section de mécanique. Mais quel statut donner à l’informatique ? Le président de séance, André Lichnerowicz, expose d’emblée son point de vue. “La notion même de mathématiques appliquées est à réprouver” et il faut écarter de la discussion la question du service de calcul, qui ne relève pas d’une commission de recherche. » Pendant longtemps, les informaticiens du centre de calcul se sont sentis mal considérés par certains chercheurs en informatique. Ils étaient d’autant plus surpris qu’il est arrivé très souvent qu’un des sujets de recherche et de thèse des chercheurs était le développement d’outils en service depuis des années chez les constructeurs et qu’ils avaient eux-mêmes modifiés pour les adapter aux besoins spécifiques. L’idée centrale qui a présidé à la création du centre de calcul et qui a mis si longtemps à être acceptée est que faire de la recherche en informatique et exploiter un ordinateur de pointe sont deux métiers différents, mais qu’il n’y a pas de hiérarchie entre eux. L’ingénieur qui doit être au fait des dernières possibilités en matériel et logiciel sur les machines de pointe pour les mettre à disposition des chercheurs a une tâche aussi exigeante que celle du chercheur. Pour preuve, s’il était besoin d’en trouver une, un ingénieur sortant d’une université donnant le meilleur enseignement devait travailler un an dans le centre de calcul avant d’être utilisable, c’est-à-dire avant qu’il soit responsable d’un développement spécifique. D’où des difficultés de recrutement considérables qui sont apparues dès 1975. Les nouvelles recrues donnaient leur démission au bout d’un an, jusqu’à ce que l’un d’entre eux avoue qu’à la sortie de son école ils étaient recrutés par une firme qui les envoyait faire une formation d’un an au CIRCÉ, moyennant une prime qui les assurait que l’ingénieur reviendrait bien chez eux après sa formation. «  Par ailleurs, le simple achat d’un ordinateur ne débouche pas nécessairement sur un développement de l’informatique  : dans bien des cas, cette

P.-E. Mounier-Kuhn, « Comment l’informatique devint une science », La Recherche, mensuel 465, p. 92-94, juin 2012.

54

De l’IBM 360/75 au superordinateur Jean Zay

42

acquisition répond à la demande de disciplines ayant besoin de calculs mais ne prenant pas les méthodes de calculs pour objet : mécanique, astronomie, physique nucléaire, cristallographie. Enfin, l’existence de cours de calculs numérique voire d’informatique ne s’accompagne d’un développement de recherche que si ces cours sont assurés par un enseignant de rang suffisant. […] Les enseignements pratiques techniques du calcul sur machine ne suffisent pas. De plus, le conflit est permanent dans l’emploi du temps des informaticiens entre des services de calculs pour répondre à la demande toujours plus pressante et recherche génératrice de publications et de satisfaction professionnelle 55. » Cette citation tirée du livre de P.-E. Mounier Kuhn est extrêmement importante. Elle donne son opinion sur deux idées fondamentales qui font la trame du présent essai sur l’histoire du centre de calcul. D’une part elle reconnaît la difficulté de faire côtoyer dans un même lieu deux activités, service et recherche. D’autre part elle est explicite de l’idée qui était communément répandue – beaucoup moins aujourd’hui – de la place d’un ingénieur de haut niveau d’un centre de calcul dans la hiérarchie de la connaissance et de la compétence. Il faut aussi que l’ingénieur d’un grand centre soit de rang suffisant et sa fonction n’est pas seulement de donner des enseignements pratiques techniques du calcul sur machine. Chacun son rôle. Cet enseignement de base est nécessaire et il est donné dans les centres de calcul par des ingénieurs dont c’est la tâche. Mais pour que le centre remplisse sa mission, il nécessite des ingénieurs qui ont des tâches différentes qui s’apparentent à celles des meilleurs chercheurs. Ils ne sont pas jugés sur leur nombre de publications, mais ils retirent aussi « une satisfaction personnelle » de leur métier et nombre de chercheurs savent ce qu’ils leur doivent et en témoignent. Dans les travaux de réception des machines de dernière génération, généralement assemblées à la demande, ils participent sur un pied d’égalité avec les chercheurs dont les travaux ont été choisis comme tests. Ce sont souvent des spécialistes d’une discipline dans laquelle ils ont quelquefois une thèse ou sont de ce niveau. Certains sont post-docs. Et en plus ils ont une formation d’informaticien. Dans le centre de calcul ils collaborent pendant des périodes de quelques semaines avec les chercheurs sur un problème de pointe. Au bout de quelques temps, ils se lassent de papillonner d’un sujet à l’autre et, s’ils le peuvent, trouvent un poste dans leur spécialité. C’est tout bénéfice pour le laboratoire dans lequel ils atterrissent et en un sens, c’est le rôle du centre de calcul de former des informaticiens de haut niveau. Mais c’est une perte pour lui s’il ne reçoit pas un poste frais en échange, ce qui se passe dans la majorité des cas.

55 Mounier-Kuhn,

op. cit., p. 240.

La création du CIRCÉ 43

2.5 Comment résoudre ces difficultés Ces difficultés de tous ordres ont mis des décennies à disparaître tout en faisant de brèves réapparitions sporadiques. On a vu périodiquement un ministre ou un ministre délégué demander à des autorités de lui faire un rapport sur l’état de l’informatique en France pour en déduire des lignes de conduite. Ils sont volumineux, documentés. Nous les verrons en détail. Mais souvent, ils enfoncent des portes ouvertes et reprennent inlassablement les mêmes questions  : l’informatique, science ou technique ? Doit-on séparer recherche en informatique et centre de calcul, vieilles questions judicieuses mais que les auteurs semblent découvrir à chaque fois, et les solutions proposées sont très nettement influencées par l’institution d’appartenance de l’auteur. Ces difficultés n’étaient que la traduction dans l’informatique de difficultés beaucoup plus générales qui marquaient la vie des deux institutions CNRS et Enseignement supérieur. Pour les comprendre il faut remonter d’un siècle, bien avant la création du CNRS ! Elles se manifestent en fait à la création en 1901 de la Caisse des Recherches Scientifiques (CRS) qui marque la première manifestation des chercheurs scientifiques et leur besoin de s’organiser en dehors de l’Université 56. « La création de la CRS marque peut-être un début de prise de conscience dans deux domaines : la faiblesse, à l’époque, des universités dans le champ des recherches scientifiques et la nécessité de substituer aux distinctions et aux prix qui viennent récompenser chaque année quelques découvreurs, des moyens pérennes pour aider les chercheurs. » Cinquante ans plus tard, Gaston Dupouy, qui développe à Toulouse le microscope électronique dans des locaux exigus de l’université, profite des espaces plus vastes du CNRS, et recherche avec finesse l’emboîtement parfait des politiques des deux institutions, CNRS et Université. Mais cette nouvelle belle entente tourne à la schizophrénie trois ans plus tard au sujet du laboratoire de biologie végétale de Toulouse 57. Ce sera tout l’enjeu de la décennie suivante, que de définir la manière de lier le sort du CNRS et de l’Université. Ce problème a été le sujet de nombreux livres et la façon dont il y est abordé dépend de l’appartenance administrative de l’auteur. Dans celui d’E.-P. Mounier-Kuhn est sous-jacent l’idée que la politique du CNRS fait toujours partie des causes (même si ce n’est pas la seule) du retard de la France en informatique en général. L’expérience malheureuse de l’IBP a été déterminante pour son jugement sur les relations CNRS-Informatique. Elle aurait marqué l’incapacité du CNRS à sa collaboration avec l’industrie. «  On peut faire remonter à cet épisode le faible développement de l’architecture de machines en France – notons que le CNRS, dans les dix années suivantes, ne prendra aucun brevet de dispositifs de calcul numérique. Enfin, l’échec de Couffignal est aussi celui de la collaboration entre le CNRS et 56 Guthleben, 57 Guthleben,

op. cit., p. 15. op. cit., p. 204.

De l’IBM 360/75 au superordinateur Jean Zay

44

l’entreprise Logabax. Il n’a pu que creuser le fossé d’incompréhension ou de méfiance entre la science et l’industrie, entre la recherche fondamentale et la recherche technique 58. »  Malgré tout, il ne faut pas être trop sévère dans un jugement sur l’IBP. Certes le CIRCÉ, suivant ma volonté, a été à sa création un nouveau laboratoire propre que j’ai a voulu totalement indépendant de l’IBP, administrativement et dans sa vocation. Mais si l’IBP était un « foutoir » suivant l’expression de P. Jacquinot, c’est parce que ses fonctions étaient trop nombreuses et incompatibles les unes avec les autres. Mais il ne faut pas oublier que c’est M. de Possel qui a créé l’Institut de programmation, que la plus grande partie du personnel des laboratoires associés informatiques de l’université de Paris-Jussieu et tous leurs directeurs viennent de la rue du Maroc. Jacques Arsac, créateur de l’Institut de programmation, même après sa nomination à l’université où une chaire d’informatique lui a été créée, a continué longtemps à y faire ses cours Dans la collaboration CNRS-Logabax, la seule faute de Couffignal a été de choisir Logabax, qui était comme on l’a déjà vu une société en mauvaise situation financière et ne connaissant rien en électronique. C’était un sérieux handicap pour construire un ordinateur  ! L’échec était prévisible. La leçon à retenir n’est pas que CNRS et industrie ne peuvent pas collaborer, mais qu’il faut qu’une grande attention soit portée sur le choix de l’industriel. Et c’est là que le CNRS a fait une faute qui ne remet pas en cause la collaboration avec une industrie compétente. L’organisation même du CNRS est aussi considérée comme fautive : « Ce qui est particulier à la France, c’est qu’après 1951, le CNRS n’a pas tiré les conséquences de l’échec et a attendu six ans pour prendre des mesures. Au-delà d’un cas individuel, cette inertie met en cause les mécanismes d’évaluation et d’orientation du CNRS de l’époque où les laboratoires propres étaient de véritables fiefs relativement fermés vis-à-vis de l’Université comme de l’Industrie 59. » Pour remédier aux difficultés des relations CNRS-Enseignement supérieur, Pierre Jacquinot engage la création fondamentale des « laboratoires associés » dont le premier sera créé en 1966 60. Le but était aussi de rétablir un peu de discipline dans certains laboratoires universitaires où elle manquait quelque peu. C’était un mariage de raison qui a eu un franc succès mais ne s’est pas fait facilement car « à la veille d’associer aussi étroitement leurs destins le CNRS et l’Université continuent de s’observer en chiens de faïence 61. » Deux exemples montrent la complexité du problème  : Jean Coulomb, alors directeur du CNES après avoir dirigé le CNRS, craignait que l’Université ne voit en lui qu’un pourvoyeur de moyens qu’elle pillerait. À l’opposé, Gérard Dupouy, qui avait été si diplomate pour régler l’affaire du laboratoire de physiologie végétale, lors de son passage à la direction du CNRS, prend parti pour l’Université quand il op. cit., p. 113. op. cit., p. 113. 60 Guthleben, op. cit., p. 250. 61 Guthleben, op. cit., p. 252. 58 Mounier-Kuhn, 59 Mounier-Kuhn,

La création du CIRCÉ 45

retourne à son laboratoire de Toulouse. Il craint, lui, que « le CNRS n’empiète trop sur les prérogatives de l’Université et ne finisse par lui dicter ses recherches 62. » Cette mésentente s’attise souvent aux moments de changement de majorité qui amenait des changements de l’équipe gouvernementale. À  la fin des années 80, elle est devenue critique. «  […] les relations entre l’organisme et sa tutelle, le nouveau ministre des universités confié à Alice Saunier-Seïté sont exécrables, et la ministre n’a, selon P. Creyssel, qu’une obsession : le CNRS est un gros machin, une grosse administration 63… » Les alternances de majorité dans les gouvernements ont entraîné automatiquement la nomination d’un nouveau directeur du CNRS qui souvent avait sur la politique de l’institution des vues différentes de celles de son prédécesseur. Serge Feneuille, en 1987, prend le contre-pied de la réforme préconisée par Hubert Curien quelques mois plus tôt, mais il entretient lui aussi des relations exécrables avec son ministre de tutelle Jacques Valade (le mot « exécrable » est employé pour la deuxième fois par Denis Guthleben) 64. S’il a été autant insisté sur l’histoire du CNRS, c’est parce qu’il y sera fait référence dans les chapitres suivants pour montrer que souvent les décisions prises pour le centre de calcul du CNRS ont été politiques et comment il a su pendant cinquante ans surmonter les incohérences, gardant pour seul objectif le service aux utilisateurs. Comment ces problèmes ont-ils évolué dans les décennies suivantes pour les équipements de l’informatique de service ? Une solution au problème de cohabitation constructive des deux institutions dans notre domaine, très longue à élaborer, a été apportée par la création du GENCI. En revanche, les problèmes de rémunération du personnel dans le contexte actuel ne sont pas résolus et se posent d’une manière plus pressante encore avec le besoin de spécialistes très pointus. Les solutions bricolées qui ont été mises en place au cours des années ne sont plus suffisantes. De nouvelles doivent être trouvées pour l’avenir. Le panorama des difficultés qu’a dû affronter le centre de calcul du CNRS pour devenir ce qu’il est aujourd’hui, un des trois grands centres nationaux, ne serait pas complet si l’on ne mentionnait pas l’instauration du ticket modérateur, qui a donné cours à des situations ubuesques qui seront étudiées dans la suite. Mais l’une d’elles est particulièrement illustrative des difficultés dans lesquelles des décisions ministérielles mettaient la DIS, censée les faire appliquer dans les quatre centres financés par le CNRS : IDRIS, CCVR pour sa part de participation au GIE, IN2P3. À un moment critique de la vie du centre de calcul Vectoriel (CCVR) installé à Polytechnique, la DIS recevait du ministère l’injonction de modifier le ticket modérateur dans ses quatre centres. Il s’agissait de comptabiliser pour pouvoir les facturer le nombre de pages sortant des imprimantes. Et il était bien spécifié que cela devait s’appliquer sur la part CNRS du CCVR alors que plus ou moins officiellement, le calcul y était gratuit pour ses utilisateurs depuis la création du GIE. La confusion était complète. op. cit., p. 252. op. cit., p. 357. 64 Guthleben, op. cit., p. 405. 62 Guthleben, 63 Guthleben,

Chapitre 3 Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 Pour avoir une vue d’ensemble de la vie du centre de calcul du CNRS qui, pendant vingt ans, s’appellera CIRCÉ (Centre Interrégional de Calcul Électronique), il faut non seulement passer en revue les parcs de machines installés, mais aussi les systèmes d’exploitation disponibles en hardware et software, et cela depuis soixante ans. Des bouleversements techniques ont fait passer les composants de la lampe au transistor puis au circuit imprimé, au développement prodigieux. Les architectures scalaires, vectorielles puis parallèles puis massivement parallèles ont fait évoluer les puissances pour les calculs scientifiques et les volumes de stockage de données d’une façon exponentielle. Leurs représentations graphiques se font toujours à l’échelle logarithmique. Ceci en attendant les ordinateurs quantiques qui donneront « théoriquement » une puissance aussi grande qu’on veut quand tous les problèmes annexes auront été résolus. Simultanément, l’explosion de la demande, la formation des chercheurs scientifiques à l’informatique, la banalisation de la mini-informatique et de la micro-informatique, le développement des réseaux, le travail à distance, l’invasion du numérique dans la vie quotidienne ont constamment modifié les possibilités de traitement de l’information dans toutes les formations scientifiques. Mais pour que ces formidables avancées techniques soient accessibles aux chercheurs, il faut qu’elles soient accompagnées d’avancées concomitantes au niveau décisionnel, en gestion des perspectives et des moyens. Or, nous verrons que ce fut une opération difficile. Il faut revoir les schémas directeurs, les évolutions proposées, celles qui ont pu être réalisées, celles qui ont été rejetées et pour quelles raisons. Il faut aussi examiner les avancées scientifiques que le CIRCÉ a permis d’effectuer. L’idée fondamentale est qu’un centre de service est un outil indispensable pour faire une recherche de pointe. Cette idée a été partagée par les directeurs généraux, et au début, pour aussi longtemps qu’il a été en exercice, par le directeur administratif Gabriel qui a été jusqu’à demander quelques leçons particulières pour mieux comprendre les démarches. C’est C.  Gabriel qui m’a introduite auprès des contrôleurs financiers avec lesquels j’ai toujours eu par la suite des rapports constructifs. Il était habité par l’idée que l’administration du CNRS était là pour aider les chercheurs et m’en a fait connaître les rouages dans la mesure où

48

De l’IBM 360/75 au superordinateur Jean Zay

cela pouvait servir mes projets. Mais d’autres instances supérieures n’étaient pas dans le même esprit et au mieux ignoraient le centre de calcul, avec quelques rares exceptions comme Messieurs Lagasse, Charpentier, Rocher, Combarnous, Gagnepain, pour le département Sciences Physiques pour l’Ingénieur (SPI) et Vermelin pour la chimie. Le centre de calcul avait plusieurs péchés rédhibitoires : il coûtait cher et on ne savait pas exactement ce qu’il faisait. Question rituelle, l’informatique est-elle vraiment une science  ? D’ailleurs on ne faisait même pas de recherche en informatique au CIRCÉ. Alors on ne savait pas dans quelle discipline le classer. Au début, il a été rattaché aux mathématiques, puis ce fut au SPI, puis à la Direction de l’Informatique Scientifique (DIS). Celle-ci rapportait directement à la direction générale et participait au comité de direction du siège quand il y était question du CIRCÉ, du centre de Strasbourg, de celui de l’IN²P3, de la participation du CNRS au centre de calcul Vectoriel pour la Recherche (CCVR), des réseaux et de l’informatique de service en général. Puis le centre de calcul du CNRS est devenu une Unité de service (USI). Avec les années, la prise de conscience de son utilité est arrivée au plus haut niveau et maintenant le CNRS fait partie d’un GIE, le GENCI où les décisions sont prises au niveau national et de plus en plus au niveau européen. Comment ces problèmes ont-ils évolué dans les décennies suivantes pour les équipements de l’informatique de service ? Une solution au problème de cohabitation constructive des deux institutions dans notre domaine, très longue à élaborer, a été apportée par la création du GENCI. En revanche, les problèmes de rémunération du personnel, dans le contexte actuel, n’est pas résolue et se pose d’une manière plus pressante encore avec le besoin de spécialistes très pointus. Les solutions bricolées qui ont été mises en place au cours des années ne sont plus suffisantes. De nouvelles doivent être trouvées. Avant de commencer l’étude de l’évolution des puissances installées, il faut préciser quelques définitions et en particulier celle de l’unité de mesure.

3.1 Définitions Le même ordinateur peut suivant les publications s’appeler calculateur, mainframe, supercalculateur ou superordinateur et sa puissance peut être exprimée suivant les besoins en MIPS (millions d’instructions Nom FLOPS par seconde), en OPS (opération point par seconde) ou en FLOPS (Floating Point Operations per second) yottaFLOPS 1024 avec ses multiples (détails dans l’annexe 1). zettaFLOPS 1021 Un ordinateur central ou un macro-ordinateur exaFLOPS 1018 (mainframe computer), est un ordinateur de grande puissance de traitement et qui sert d’unité centrale pétaFLOPS 1015 à un réseau de terminaux. téraFLOPS 1012 Un superordinateur ou supercalculateur est un ordinateur conçu pour atteindre les plus hautes gigaFLOPS 109 performances possibles (HPC) avec les techniques mégaFLOPS 106 connues lors de sa conception, en particulier en ce qui kiloFLOPS 103 concerne la vitesse de calcul.

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 49

La puissance en flops d’un ordinateur se calcule par la formule  : FLOPS = cœurs × fréquence × FLOP/cycle. C’est cette unité qui sera employée dans la suite. Au début, le nom de mainframe était très lié au constructeur IBM et attaché à ses séries 360 et 370. Depuis 1954, avec le 704, IBM a développé parallèlement à sa ligne de gestion une ligne scientifique et c’est uniquement de cette ligne dont il sera question dans la suite de l’histoire du centre de calcul puisque pour diverses raisons, à certaines époques nous n’avons pas pu changer de constructeur. Il est doté d’un processeur arithmétique en virgule flottante, de formats pour nombres entiers et nombres en virgule flottante, de formats de données, de caractères alphanumériques. Ces avancées de conception ont été accompagnées de l’arrivée d’un système rudimentaire développé par General Motors et North American Aviation. Et en 1957, c’est l’annonce du langage FORTRAN développé chez IBM par Bachus, et les premiers cours pour utilisateurs. Très vite, de multiples langages ont vu le jour, Lisp, Pl1, Algol, Cobol etc. développés par les constructeurs et les universités. Le langage FORTRAN a traversé les décennies en se transformant pour s’adapter aux nouvelles architectures et il reste très utilisé avec le langage  C++. Aujourd’hui, en entrant à l’Institut de Développement et Recherche en Informatique Scientifique, IDRIS (c’est le nom qui a été donné au centre de calcul à partir de 1993) on peut, certains jours, voir sur un écran, l’annonce d’un cours FORTRAN, comme on le voyait il y a cinquante ans à la création du CIRCÉ sur le grand panneau d’affichage de l’entrée. Ce n’est plus le même FORTRAN, mais il s’est adapté, comme le même ingénieur qui l’enseigne ici depuis vingt-cinq ans. Pour nombre d’utilisateurs scientifiques de toute discipline, l’arrivée de l’IBM 704, version scientifique, avec la virgule flottante, et celle du FORTRAN, marquent le début de l’introduction du calcul intensif dans la panoplie de leurs outils. À partir de ce moment précis, ils ont compris tout ce que ces nouveautés leur apportaient et ils ont fait des projets qui exigeaient plus que les moyens existants ne le leur permettaient. La course à la puissance et aux capacités de stockage a commencé pour eux et ne se terminera jamais. Évidemment, avec la définition ci-dessus des superordinateurs, leur classement varie avec le temps car l’ordinateur qui est le plus puissant à un instant donné est vite égalé puis dépassé. La complexité des problèmes scientifiques qu’ils ont permis d’aborder et de résoudre suit très précisément leur évolution. J’ai déjà rappelé plusieurs fois qu’en 1963 la NASA explorait l’espace, tournait autour de Mars et en 1969 déposait un homme sur la lune après avoir fait toutes les simulations sur les supercalculateurs de l’époque. Cette définition met aussi en évidence la continuité qui caractérise la vie des grands centres américains depuis les années 50 et du centre de calcul depuis 1969. Les premiers sont passés naturellement de l’IBM 7094 au FUGAKU, et le centre de calcul en France, moins naturellement, de l’IBM 360/75 au Jean Zay. De nouveaux superordinateurs sont apparus dans la recherche publique française et se sont mutualisés dans le GENCI. Depuis les débuts de

50

De l’IBM 360/75 au superordinateur Jean Zay

l’informatique, il y a eu, aux États-Unis, des centres de calcul intensif équipés des meilleurs superordinateurs de l’époque. Ils sont peu à peu apparus ensuite en Europe, au Japon, en Chine, au Pakistan, en Slovénie, etc. La puissance n’est pas le seul critère du service rendu aux utilisateurs. La taille mémoire, le logiciel, le volume de stockage sont aussi importants. Mais la puissance reste le critère adopté pour établir un classement des ordinateurs. La conclusion de ces réflexions, est que dans les graphiques de nos analyses les puissances sont en FLOPS depuis l’apparition de la virgule flottante dans la technique. Ces choix étant bien précisés, les développements suivants portent avant l’étude détaillée année par année sur : − un tableau d’ensemble (figures 5, 6 et 7) donnant pour 1969 à 2019 des renseignements sur les ministères de tutelle, les noms des directeurs généraux, les différentes places du centre dans l’organigramme du CNRS, les noms des différents directeurs et sous directeurs, la comparaison sur cinquante ans des puissances installées et des puissances de crêtes disponibles que nous appellerons le TOP, la liste des constructeurs, celles des différents systèmes d’exploitation au cours du temps ; − les grandes lignes pour les formations ; − les grandes lignes des relations avec l’international ; − les rapports transmis à la direction du CNRS et au ministère. Et tout cela sans oublier les résultats scientifiques obtenus.

3.2 Tableau d’ensemble de la vie du centre sur la période 1969-2020 Ce qui frappe à première vue, c’est la continuité et la rapidité de l’évolution du centre de calcul : − continuité dans les dirigeants, dans la composition des équipes d’ingénieurs et techniciens qui ont eu comme but unique pendant cinquante ans la satisfaction des utilisateurs grâce à leur maîtrise de l’explosion de l’informatique et des matériels nouveaux quand ils apparaissaient ; − ampleur de l’évolution qui lui a fait perdre depuis longtemps sa place de centre de service multidisciplinaire le plus puissant d’Europe mais l’a amené à être l’un des trois grands centres français qui ont leur place dans le réseau européen des supercalculateurs avec l’ambition d’être, pour un temps, le premier centre européen consacré à l’Intelligence Artificielle.

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 51

Figure 5 – Tableau d’ensemble des années 1969 à 2020

52

De l’IBM 360/75 au superordinateur Jean Zay

Figure 6 – Tableau d’ensemble des années 1969 à 1993

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 53

Figure 7 – Tableau d’ensemble des années 1993 à 2019

De l’IBM 360/75 au superordinateur Jean Zay

54

3.2.1 Noms des ministres et secrétaires d’État de tutelle du centre de calcul Ces synoptiques regroupent le nom des 22 ministères de tutelle qui se sont succédés pendant cette période, passant successivement de la tutelle de la Recherche, à celle de l’Industrie, de l’Innovation et même celle du ministère délégué à la Poste, aux Télécommunications et à l’Espace. De rares fois, le ministre ou le secrétaire d’État ne siégeait pas pendant toute la période séparant deux remaniements. C’est ainsi qu’en cinquante ans, on a changé 27 fois de ministre, certains venant d’un univers bien éloigné. Il était difficile dans ces conditions d’avoir une politique suivie. Et souvent, leur première tâche était de demander un rapport sur l’état de l’informatique en France, et dans ces rapports il était question de la recherche en informatique, mais pas de l’informatique de service. Sigle

Nom du ministère de rattachement

MRS

ministère délégué chargé de la Recherche scientifique et des questions atomiques et spatiales

MDIS

ministère du Développement industriel et scientifique

Nom du ministre

Dates

Robert Galley

juillet 1968 à juin 1969

François Ortoli

juillet 1972 à avril 1973

Jean Charbonnel

avril 1973 à février 1974

Michel d’Ornano

août 1976 à mars 1977

Jacques Sourdille

mars 1977 à mars 1978

Pierre Aigrain

avril 1978 mai 1981

ministère de l’Industrie, du Commerce et de l’Artisanat MIR

ministère de l’Industrie et de la Recherche

SER

secrétariat d’État chargé de la Recherche

MRT

ministère d’État, ministère de la Recherche et de la Technologie

mai 1981 à juin 1982 Jean-Pierre Chevènement

MRI

ministère d’État, ministère de la Recherche et de l’Industrie

MIR

ministère de l’Industrie et de la Recherche

Laurent Fabius

mars 1983 à juillet 1984

MRT

ministère de la Recherche et de la Technologie

Hubert Curien

Juillet 1984 à mars 1986

MRES

ministère délégué de la Recherche et de l’Enseignement supérieur

Alain Devaquet

Mars à décembre 1986

Jacques Valade

Janvier 1987 à mai 1988

juin 1982 à mars 1983

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 55

MR

ministère délégué chargé de la Recherche

MRT

ministère de la Recherche et de la Technologie

MRE

ministère de la Recherche et de l’Espace

MESR

ministère de l’Enseignement supérieur et de la Recherche

SER

secrétariat d’État à la Recherche

MPTE

ministère délégué à la Poste, aux Télécommunications et à l’Espace

François Fillon

novembre 1995 à juin 1997

MESRI

ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation

Claude Allègre

juin 1997 à mars 2000

MR

ministère de la Recherche

Roger-Gérard Schwartzenberg

mars 2000 à mai 2002

MESR

ministère délégué à l’Enseignement supérieur et à la Recherche

François Loos

mai à juin 2002

MRNT

ministère délégué à la Recherche et aux Nouvelles technologies

Claudie Haigneré

juin 2002 à mars 2004

MR

ministère délégué à la Recherche

François d’Aubert

mars 2004 à mai 2005

MESR

ministère délégué à l’Enseignement supérieur et à la Recherche

François Goulard

juin 2005 à mai 2007

ministère de l’Enseignement supérieur et de la Recherche

Valérie Pécresse

mai à juin 2007

MESR

Laurent Wauquiez

novembre 2010 à mai 2012

SEESR

secrétariat d’État chargé de l’Enseignement supérieur et de la Recherche

Geneviève Fioraso

mai 2012 au mars 2015

Thierry Mandon

juin 2015 au mai 2017

MESRI

ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation

Frédérique Vidal

depuis mai 2017

mai à juin 1988 Hubert Curien

juin 1988 à avril 1992 avril 1992 à mars 1993

François Fillon

1993-1995

Élisabeth Dufourcq mai à novembre 1995 François d’Aubert

Figure 8 – Tableau des noms des ministres et secrétaires d’État de tutelle

De l’IBM 360/75 au superordinateur Jean Zay

56

3.2.2 Noms des directeurs généraux du CNRS Pierre Jacquinot

1962 à 1969

Hubert Curien

1969 à 1973

Bernard Grégory

1973 à 1976

Robert Chabbal

1976 à 1979

Jacques Ducuing

1979 à 1981

Jean-Jacques Payan

1981 à 1982

Pierre Papon

1982 à 1986

Serge Feneuille

1986 à 1988

François Kourilsky

1988 à 1994

Guy Aubert

1994 à 1997

Catherine Bréchignac

1997 à 2000

Geneviève Berger

2000 à 2003

Bernard Larrouturou

2003 à 2006

Arnold Migus

2006 à 2010

Alain Fuchs

2010 à 2017

Antoine Petit

2017-

Figure 9 – Tableau des noms des directeurs généraux du CNRS

3.2.3 Les directeurs et sous-directeurs du centre de calcul Dans ces cinquante ans d’existence, le centre de calcul n’a eu que six directeurs et sous-directeurs. Deux directeurs étaient des chercheurs, moi-même pendant douze ans à la création et Victor Alessandrini pendant quinze ans à partir de  1993. Quatre directeurs : Philippe Salzedo, Serge Fayolle, Denis Girou étaient d’anciens ingénieurs du CIRCÉ ainsi que P.-F. Lavallée, directeur actuel ; les deux premiers étant sous-directeur ou directeur adjoint dans les périodes où ils n’étaient pas directeurs. De plus, pendant les quarante-deux premières années, P.  Salzedo et S. Fayolle ont dirigé l’équipe technique, assurant la continuité du service avec le souci de la satisfaction des besoins des utilisateurs au mieux des possibilités avec les moyens dont ils disposaient, et chose fondamentale, anticipant l’avenir.

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 57

3.2.4 Courbe de comparaison des puissances installées et du TOP La comparaison fera l’objet du chapitre 4. Mais on est frappé dès maintenant par la continuité de l’évolution des puissances installées au centre de calcul et par le fait que leur somme s’écarte peu de celle de la machine la plus puissante du moment. Le problème est un peu plus complexe car il y a eu pour le centre de calcul des moments difficiles et les courbes ne représentent pas exactement la puissance totale offerte aux utilisateurs qui au travers de liaisons ou de frontales pouvaient utiliser d’autres facilités. Pendant toute l’existence du CCVR, les utilisateurs pouvaient soumettre des travaux au CCVR à travers une frontale installée au CIRCÉ. Les travaux soumis au CCVR représentaient 50 % de la charge totale de ce centre installé à Polytechnique. La parfaite entente de S. Fayolle et J.-C. Adam, directeur du CCVR, a aplani bien des difficultés qui auraient pu surgir.

3.2.5 Architectures Comme dans tous les grands centres de service pour la recherche, les architectures, scalaire, puis scalaire avec processeur vectoriel, puis vectorielle, puis scalaire et parallèle, puis massivement parallèle, se sont succédées.

3.2.6 Constructeurs Les constructeurs qui ont été choisis suivant les époques pour équiper le centre sont CDC, IBM, Amdahl, NAS, Fujitsu, CRAY, et maintenant HPE. En cinquante ans, il n’y a eu que deux périodes où le centre n’ait pas exploité parmi ses machines au moins une IBM. Ce n’était pas la plus puissante du parc. Elle coexistait avec une machine Bull ou une compatible IBM comme Amdahl ou une machine japonaise ou un CRAY. Depuis 2019, Blue Gene IBM a été remplacée par HPE 8600.

3.2.7 Systèmes d’exploitation Du plus ancien système MVT de l’IBM 360/75 on aboutit avec le Blue Gene d’IBM à LINUX Fedora en passant par MVS, VSP, MVS/AIX, COS/UNIX 65. Les superordinateurs sont conçus pour atteindre les plus hautes performances possibles avec les technologies connues, en particulier en termes de vitesse de calcul. En novembre 2006, selon le TOP500, GNU/Linux fait tourner 74 % des 500 plus puissants ordinateurs du monde (contre 20 % pour UNIX) dont les deux serveurs Blue Gene d’IBM (40 960 et 131 072 processeurs). Ce même TOP500 indique que ces taux sont passés respectivement de 85 % et 6% en novembre 2008, à 89,2 % et 1 % en novembre 2009. En novembre 2017, 100 % des TOP500 « utilisent » GNU/Linux pour système d’exploitation. 65 https://fr.wikipedia.org/wiki/Chronologie_des_syst%C3%A8mes_d%27exploitation

De l’IBM 360/75 au superordinateur Jean Zay

58

Constructeur

Modèle

Année installation

OS

CDC

3600

1969

SCOPE

IBM

360/75

1969

MVT

IBM

360/50

1969

MVT

IBM

370/165

1972

MVT

IBM

370/155

1972

MVT

IBM

370/168

1974

MVS

IBM

370/158

1974

MVS

IBM

370/168

1976

MVS

Amdahl

470/V7

1980

MVS

NAS

AS/9060

1983

MVS

NAS

AS/9080

1984

MVS

BULL

DPS8/62M

1984

Multics

IBM

3090-200

1986

MVS

Siemens/Fujitsu

VP200-EX

1988

VSP

IBM

3090-400J

1989

MVS

IBM

3090-600E +VF

1990

MVS/AIX

CRAY

C98

1993

COS/Unix

CRAY

C94

1994

COS/Unix

CRAY

T3D

1995

Super UX

CRAY

T3E

1996

Super UX

Fujitsu

VPP300

1997

UXP/V

NEC

SX-5

1999

Super UX

IBM

Power 3

2001

AIX

IBM

Power 4 & Power 4+

2002

AIX

NEC

SX-8

2006

Super - UX

IBM

Regatta power 6

2008

AIX

IBM

Blue Gene/P

2008

CNK/ SLES 9

IBM

x3750

2013

Linux

2013

CNK/ SLES 9

2020

RHEL 67

IBM HP

66

Blue

Gene/Q 66

HPE 8000

Les nœuds I/O des superordinateurs Blue Gene exécutent un système d’exploitation différent : le noyau de nœud I/O (INK) est basé sur un noyau Linux modifié. 67 RHEL 6,8 « Red Hat Enterprise Linux » : Operating System Open Source.

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 59 100

Linux

90

Unix k.A./ver.

80

Windows

70

BSD

60 %

Mac

50 40 30 20 10

2015

2010

2005

2000

1995

0

FigureLinux 10 – Transition des systèmes d’exploitation des superordinateurs d’Unix (en )Unix vers Linux (en )Linux Unix

k.A./ver. Windows Titan,

k.A./ver. Le le plus puissant supercalculateur fabriqué par CRAY Inc, en Windows BSD novembre 2012, fonctionne avec une version de GNU/Linux appelée CRAY  68. Le Roadrunner BSD Linux Environment d’IBM, qui fut le premier à avoir officielMac lement dépassé la puissanceMac symbolique de 1  pétaFLOPS, fonctionne sous la distribution Linux Fedora 69.

Méga octets

2015

Dans un centre de calcul, l’évolution des volumes de stockage de données est aussi importante que celui de la puissance de calcul installée. Au tableau de l’évolution des courbes de puissance, il faut adjoindre celui de l’évolution du volume de stockage sur disque et celle de la mémoire de masse (figures 11 et 12). 2010

2015 2005

3.2.8 Évolution du volume de stockage

Stockage sur disque et mémoire de masse

100,000,000 10,000,000 1,000,000 100,000 10,000 1,000 100 10 1

Masse Disque

Figure 11 – Stockage sur disque et mémoire de masse 68 https://fr.wikipedia.org/wiki/Linux

69 https://fr.wikipedia.org/wiki/Chronologie_des_langages_de_programmation

De l’IBM 360/75 au superordinateur Jean Zay

60

Liste des mémoires auxiliaires.

Figure 12 – Mémoires auxiliaires

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 61

3.3 Grandes lignes pour la formation des ingénieurs et des utilisateurs C’est un vaste sujet, car il concerne la formation continue des ingénieurs, celle des utilisateurs sous des formes multiples, cours, documentation, assistance personnalisée. Il concerne pour tous, la formation à la veille technologique. Une attention particulière doit être portée sur la formation des « utilisateurs extérieurs ». Ceux-ci sont des chercheurs n’appartenant pas à l’Enseignement supérieur ou au CNRS, mais à des services de recherche d’État ou à des services de recherche d’industries ayant des relations avec l’état. Le CIRCÉ fournissait tous les éléments de comptabilité à l’administration du CNRS qui les facturait directement. Le tableau partiel les concernant extrait des états comptables de la première quinzaine de juin 1975 permet de juger de la diversité de leur origine (figure 13). On y trouve à côté de grands industriels, plusieurs services de tous les ministères : ministère de la Santé, ministère de la Santé psychique, ministère de la Défense, ministère de l’Équipement, ministère du Travail, ministère de l’Agriculture, ministère de l’Environnement, ministère de la Coopération, etc. mais aussi la banque de France, l’Office de la Recherche Scientifique et Technique Outre-Mer 70 (ORSTOM), l’Institut de recherches et d’applications en psychologie du travail etc. Au stade où ils en étaient, ils venaient à cette époque chercher non pas toujours la puissance de calcul, mais la formation qui les initierait à l’emploi de l’informatique dans leurs travaux. Ils y trouvaient aussi un abri sûr pour stocker leurs premières banques de données mais surtout, du personnel qui les guidait pas à pas et qu’ils ne trouvaient nulle part ailleurs, puisqu’il n’y avait alors pas d’autre grand centre de pointe où ils auraient pu faire des stages. Ainsi, l’Institut Curie y a-t-il constitué en lieu sûr ses premières banques de données nominatives. Dans les années suivantes, ces utilisateurs extérieurs se sont équipés en moyens locaux suffisamment puissants et n’ont plus utilisé les services du centre de calcul, sauf certains pour des travaux très lourds. Les utilisateurs extérieurs ne venaient pas seulement chercher au CIRCÉ de la puissance de calcul, mais aussi de l’assistance. Par exemple, Dassault a commencé à développer le logiciel CATIA avec l’aide d’un ingénieur du CIRCÉ, les industriels du pétrole venaient y apprendre à faire des transformées de Fourier pour étudier les spectres des ondes sismiques lors des forages de prospection. Quand les utilisateurs extérieurs nous quittaient pour créer leur propre centre et y faire ce qu’auparavant ils « faisaient ailleurs », la puissance de leur centre a souvent dépassé rapidement celle du CIRCÉ. Ce fut le cas de TOTAL et de l’EDF. Cette tendance a continué. D’après les tableaux du TOP500, Total Exploration Production a eu le centre de plus puissant de France en juin 2019 avec le PANGEA III qui est à la 11e place des systèmes de Calcul Haute Performance mondiaux. C’est le rang le plus élevé obtenu par un centre français et c’est aussi le premier superordinateur à usage industriel du classement. 70

ORSTOM : Office de la Recherche Scientifique et Technique Outre-Mer, organisme aujourd’hui remplacé par l’IRD (Institut de Recherche pour le Développement).

62

De l’IBM 360/75 au superordinateur Jean Zay

Figure 13 – Liste non exhaustive d’utilisateurs extérieurs pendant la première quinzaine de juin 1975

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 63

3.4 Grandes lignes des relations à l’international Dès la première période, de 1969 à 1981, ont été constantes les relations avec les États-Unis, l’Allemagne et la Grande-Bretagne. J’ai noué, à titre personnel des contacts avec Ullman à Berlin, et en Angleterre où se développait le réseau JANET. Puis sont arrivés les premiers réseaux qui se sont développés tant aux ÉtatsUnis qu’en Europe. Des normes sont apparues. Les avancées dans les techniques de communication ont permis, à travers les projets successifs Eurogrid, HPC europa, et DEISA, d’aboutir à PRACE (Partnership for Advanced Computing in Europa), structure qui pilote la progression du calcul haute performance (High-performance computing ou HPC) en Europe. Elle continue maintenant dans EuropHPC.

3.5 Effectifs du personnel et sa formation Dès sa création, à l’image de ce que j’avais vu et voyais dans les grands centres américains avec lesquels je travaillais, j’ai organisé le personnel du centre de calcul en quatre unités principales. Direction du CIRCÉ

Administration & Intendance Équipe système

Assistance Utilisateurs

Équipes Exploitation Administration

Figure 14 – Organigramme du centre de calcul

Le service administration était chargé, entre autres, de la comptabilité et des tâches de recouvrement du ticket modérateur. Le statut des personnels est toujours resté un problème. Si la question de rémunération des ingénieurs a trouvé des solutions avec des primes insuffisantes certes, mais acceptées par le contrôleur financier, le cas des trois équipes d’opérateurs travaillant 24h/24 et 7j/7 était beaucoup plus inédit. Il n’y avait pas d’exemple au CNRS et avant d’ouvrir le centre de calcul aux utilisateurs, j’ai fait la seule grève de ma carrière pour deux raisons. Je savais qu’il y avait assez de travail en attente de calcul intensif pour occuper tout le temps disponible. Et je savais aussi que c’était le point sur lequel il fallait être intransigeante, et que si des solutions n’étaient pas trouvées immédiatement elles ne le seraient jamais. Ce serait toujours du bricolage, ce qui était inadmissible dans l’esprit de la nouvelle entreprise. Charles Gabriel, le directeur administratif du CNRS, a eu beaucoup d’imagination, et le centre de calcul a pu démarrer, avec seulement une semaine de retard.

64

De l’IBM 360/75 au superordinateur Jean Zay

Depuis, les effectifs n’ont cessé de diminuer en nombre, en partie parce qu’il est toujours aussi difficile d’obtenir des postes avec les qualifications nécessaires et surtout parce que les technologies de l’information et de la communication ont considérablement évolué en un demi-siècle. Les machines sont beaucoup plus fiables. Elles peuvent travailler en mode dégradé en cas de pannes partielles. Beaucoup des tâches de maintenance se font désormais à distance, ce qui diminue le nombre de personnes présentes sur le site. L’introduction du travail de saisie des données sur écran a amené la disparition des mécanographes, la soumission et la récupération du travail à distance, la disparition du personnel du dispatching. Puis ce sont les opérateurs qui ont vu leur tâche disparaître avec le pilotage et l’administration des machines à distance par le constructeur. En revanche, le nombre d’ingénieurs a augmenté, ainsi que leur qualification. Dans l’ensemble le volume du personnel est passé de 80 à 50 puis 35. Les technologies évoluant, l’équipe système, le Groupe de Service aux Utilisateurs (GSU), l’administrateur du réseau, tout a changé, mais pour tous, le socle général est resté le même pendant cinquante ans, même si, à l’intérieur de chaque groupe les tâches ont considérablement évolué. Un autre changement important pendant cette période, est celui du statut du personnel qui est devenu fonctionnaire.

3.5.1 L’équipe système L’équipe système est composée d’une dizaine d’ingénieurs. Le centre de calcul recrute des informaticiens débutants 71 ou de jeunes diplômés scientifiques qui vont acquérir une expertise des technologies des grands systèmes du constructeur. Elles ont considérablement varié dans le temps, les machines devenant de plus en plus fiables et les systèmes de plus en plus compliqués. De sa qualité a dépendu et dépend toujours la qualité des services. Dans les premières décennies, les activités principales menées par l’équipe système sont : − installer et maintenir les systèmes du constructeur ; − optimiser les ressources matérielles et logicielles de l’installation ; − sécuriser le fonctionnement du système et l’accès aux données ; − étudier les améliorations apportées par des mises à jour logicielles ; − appliquer les correctifs communiqués par le constructeur pour anticiper les problèmes et stabiliser le fonctionnement du système ; − faire de la veille technologique. En cas d’incidents complexes entrainant l’arrêt des services, l’équipe système est sur le pont pour analyser de bout en bout la manifestation de la panne et procéder à la localisation du problème et à sa définition. Elle effectue les réparations logicielles afin de rétablir le service dans les meilleurs délais. Il se peut que des correctifs soient attendus du constructeur pour corriger définitivement

71

MIAGE de l’université de Grenoble (centre de recherche IBM), de Montpellier (présence d’usines IBM), Paris.

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 65

l’incident. En attendant, l’ingénieur système développera une procédure de contournement (By Pass) de l’erreur pour assurer la continuité des services, ce qui exige une parfaite connaissance du système dans son ensemble et pour chacun une connaissance extrêmement pointue dans le domaine spécifique qui lui est dévolu. En cas de pannes matérielles, c’est la maintenance du constructeur qui intervient suivant les modalités du contrat. Pour suivre les innovations technologiques, les ingénieurs système entretiennent des relations régulières avec les constructeurs, les éditeurs de logiciels et l’opérateur de télécommunication. Chaque année, la direction missionne des membres de l’équipe système pour assister aux réunions des utilisateurs scientifiques de grand système (SEAS en Europe, GUIDE aux États-Unis). Ces réunions initient des stages de durée variable pouvant aller jusqu’à quelques mois, et suscitent des échanges fructueux entre installations semblables au centre de calcul. Elles permettent également l’échange de bibliothèques de programmes scientifiques. Il n’y a pas de formation académique spécifique aux tâches d’ingénieur dans les centres de calcul de pointe autres que chez les constructeurs puisque les dernières nouveautés ne sont que chez eux. Une bonne formation théorique de base est nécessaire, mais elle doit être complétée par une formation sur le site, profitant de l’expérience de ceux qui sont en place depuis plus longtemps.

3.5.2 Procédure de renouvellement du parc machines Le renouvellement du parc machines est une préoccupation permanente du centre de calcul pour répondre aux besoins toujours croissant en puissance de calcul des applications des utilisateurs. Comme on travaillait au début avec un budget au mieux constant, il fallait procéder constamment à des ajustements de matériels pour profiter des baisses de prix de certaines unités. C’est le travail de l’équipe système, mais on verra que la commission informatique a souvent refusé ces propositions qui auraient permis d’économiser des sommes considérables. L’équipe système contribue majoritairement à la préparation de l’arrivée d’une nouvelle configuration de machines, avec l’équipe d’assistance aux utilisateurs. L’arrivée d’une nouvelle machine se prépare plusieurs années à l’avance. Elle commence par l’étude des travaux des utilisateurs et la collecte des nouveaux besoins, suivies par l’inventaire auprès des constructeurs, de ce qu’ils proposent ou annoncent dans un futur proche. Enfin, elle s’appuie sur l’étude des expériences de centres à l’étranger qui exploitent le matériel visé. Elle se concrétise par la rédaction d’un cahier des charges à soumettre à la liste des constructeurs susceptibles de répondre aux attentes. Elle se continue avec la préparation de benchmarks sur les matériels en concurrence. Un benchmark est un banc d’essai de programmes qui permet de comparer les puissances d’ordinateurs. Il comprend en général deux parties, l’une mesurant les temps de passage des algorithmes courants de mathématiques généralement utilisés, l’autre mesurant le temps de passage d’un train de travaux caractéristique du centre.

66

De l’IBM 360/75 au superordinateur Jean Zay

Les benchmarks officiels comme Linpack 72 ne sont apparus qu’en 1993 et servent aujourd’hui à mesurer les puissances de crête des supercalculateurs. Maintenant la première partie utilise une bibliothèque de programmes en FORTAN appelée LINPAC pour la résolution d’équations linéaires de n équations à n inconnues. Le temps de calcul utilisant la virgule flottante est proportionnel à 2n3+n2. Donc il augmente très vite avec le nombre de points traités et le programme est un très bon test de la vitesse de calcul. Puisqu’il est largement utilisé, c’est en conséquence un bon test de comparaison des machines Alors que pour la FFT on a pu passer de n² à nlogn, il a été démontré qu’ici on ne pourra pas améliorer l’algorithme. Il fait partie de ce qu’on appelle les problèmes mal posés. L’algorithme utilisé dans MATLAB permet de s’affranchir de la programmation en FORTRAN. Pour suivre les innovations technologiques, les ingénieurs système entretiennent des relations régulières avec les constructeurs, les éditeurs de logiciels et avec l’opérateur de télécommunication. Un exemple précis sera détaillé par la suite pour notre premier dossier présenté aux commissions.

3.5.3 Le groupe de service aux utilisateurs ou GSU Les cinquante ans d’existence du centre de calcul ont permis de former de nombreux chercheurs à l’informatique, qu’ils aient besoin de calcul haute performance, ou qu’ils appartiennent aux milliers de ceux, venant de toutes les disciplines, qu’il a fallu amener à l’informatique. Les services d’assistance réunissent des compétences pour aider les utilisateurs à mieux maitriser l’accès aux moyens informatiques mis à disposition. Comme pour l’équipe système, le centre de calcul recrute des informaticiens débutants, ou des jeunes diplômés scientifiques qui vont acquérir une expertise des technologies des systèmes du constructeur. Le GSU assure : y Une permanence physique quotidienne pour : − répondre aux demandes d’information ; − aider à corriger des problèmes rencontrés lors de la soumission et/ou l’exécution des programmes ; − établir un calendrier des formations ; − assurer de la formation telle que des cours de programmation autant pour coder que pour utiliser des codes existants, ces cours étant dispensés au centre de calcul ou dans les labos. y La rédaction d’un bulletin de liaison dénommé Interface initialisée lors de la période CIRCÉ du centre de calcul pour informer les utilisateurs : − communiquer sur la vie du centre ; − publier le calendrier des formations ; − prévenir de la disponibilité des machines et des services ; − expliquer le langage de contrôle (JCL) pour soumettre ses travaux ; − expliquer la gestion de fichiers. 72 http://www.netlib.org/linpack/

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 67

La fréquence de la publication d’Interface dépendait de l’information à diffuser. Elle était environ mensuelle. Des numéros spéciaux étaient publiés sur des thèmes spécifiques en fonction de l’actualité technologique du moment. L’IDRIS a maintenu une lettre d’information « papier » jusqu’en 2008. Avec les technologies nouvelles de communication, la diffusion de la lettre est devenue électronique. Elle est constituée de flashs Info accessibles sur le site web de l’IDRIS. cf. : http://www.idris.fr/. y Des services spécifiques : − l’assistance mathématique.  J’avais acquis par l’expérience l’idée qu’aussi bien pour expliquer l’emploi de logiciels existants que pour s’attaquer à des problèmes nouveaux, il fallait adjoindre à l’équipe au moins un mathématicien. Ceux qui au début ont rendu le plus de service sont H. Delouis, mathématicien appliqué qui a fait sa thèse au CIRCÉ et J. Teuler, mathématicien agrégé qui s’est attaché particulièrement aux problèmes des chimistes et à certains de l’INSU. J. Teuler, à la retraite, continue bénévolement à collaborer activement avec les chimistes ; − l’assistance infographie  : traceur BENSON de courbes, unité d’affichage graphique IBM 2250 au départ ; − l’assistance à la connexion de terminaux lourds et terminaux TSO. Le but était de rendre autonomes les utilisateurs pour laisser plus de temps au calcul intensif. Cette partie réseau devenant de plus en plus primordiale a donné naissance à un groupe d’assistance réseau à côté du groupe de service aux utilisateurs (GSU). Le premier responsable de ce groupe, M. Michaut a été détaché à la DIS avant de devenir responsable de l’unité de service réseau du CNRS. L’assistance au groupe d’utilisateurs avait abouti à ce que certains aient acquis suffisamment d’autonomie pour exécuter une partie de leurs travaux en local. Ils libéraient ainsi du temps de calcul qui pouvait être utilisé par les travaux nécessitant du calcul intensif. Il leur fallait de l’aide pour la préparation de leur dossier de demande d’acquisition devant la commission d’informatique. Cela nécessitait une bonne connaissance de toutes les chaines techniques et administratives. Comme ce qui s’est passé pour les réseaux, au GSU un sous-groupe fut consacré aux problèmes de mini-informatique sous la houlette de J.  Denyset. Elle connaissait les chercheurs, leur niveau en culture informatique, leur possibilité de se prendre en main. Elle les a conseillés d’abord au CIRCÉ puis à la DIS, où elle a été détachée, pour soulager le centre de calcul.

De l’IBM 360/75 au superordinateur Jean Zay

68

3.6 Principaux rapports sur l’informatique outil pour la recherche Rapports publiés

Auteur

Date

L’informatique, outil de recherche au CNRS

J. Connes 

1978

Projet CRAY 1 CIRCÉ

P. Salzedo

1981

Informatique Fondamentale et Programmation

M. Nivat

1982

Schéma Directeur 1983 

P. Salzedo

1983

VP200 

P. Salzedo DIS

1985

Rapport sur l’état d’informatisation de la France

J. Sakarovitch

mars 1986

Schéma directeur 1987

P. Salzedo

1987

Bilan du schéma directeur 1983-1988. Propositions  J. Connes 

1988

Audit des centres CNRS

GFI groupe SD-SCICOM

1989

Réflexions sur la place de l’informatique dans la recherche vue par les utilisateurs

J. Connes 

juin 1989

Rapport sur les grands moyens de calcul scientifique et leur organisation en réseau

P. Caseau

janvier 1990

Rapport sur les besoins de la recherche en matière d’équipements informatiques 

J. Yoccoz

décembre 1993

Promouvoir le calcul haute performance

ORAP

avril 2004

La politique française dans le domaine du calcul scientifique

E. Sartorius M. Héon

mars 2005

Rapport d’activité 2017

GENCI

2018

Rapport d’activité 2018

GENCI

2019

Rapport sur les stratégies française et européenne en Intelligence Artificielle

C. Villani

2017-2018

Figure 15 – Principaux rapports sur l’informatique pour la recherche

Détails du rapport 73 d’Emmanuel Sartorius et Michel Héon : «  Par lettre du 21  septembre 2004, le ministre délégué à la Recherche a demandé le concours de l’Inspection générale de l’Éducation nationale et de la Recherche et du Conseil général des technologies de l’information pour 73

Rapport sur la politique française dans le domaine du calcul scientifique par Michel Héon et Emmanuel Sartorius, mars 2005. Inspection générale de l’Éducation nationale et de la Recherche et Conseil général des technologies de l’information.

Vue d’ensemble du centre de calcul du CNRS de 1969 à 2020 69

animer un groupe de travail dont les travaux seraient destinés à définir et à préfigurer les structures de concertation et de décision nécessaires à la mise en œuvre d’une politique forte en matière de calcul scientifique en France. L’ensemble des réunions et auditions ont permis de dégager un consensus sur la nécessité d’un pilotage stratégique du domaine, d’une meilleure coordination entre centres de calcul, et d’un financement à un niveau convenable et surtout régulier du parc français des grands ordinateurs scientifiques. À  partir de là, les avis divergent sur les modalités de mise en œuvre de ces principes généraux ? Il doit donc être clair que les opinions exprimées dans ce rapport et les recommandations qu’il contient sont celles des seuls rapporteurs. » Ce rapport a été à l’origine des réflexions qui ont conduit à la création du GENCI en 2007.

Chapitre 4 Évolution des puissances installées au centre de calcul de 1969 à 2020 Depuis soixante ans, une proportion de plus en plus importante des chercheurs avait bien constaté que dans toutes les disciplines, la résolution des problèmes de pointe demandait des masses de calcul qui dépassaient les possibilités des ordinateurs auxquels ils avaient accès. Depuis l’apparition de la virgule flottante, les constructeurs ont mesuré pour leurs modèles les puissances en FLOPS. Officiellement, IBM les publie en MIPS, mais il en publie quelques-uns en FLOPS et on trouve les autres en FLOPS dans leurs archives. D’ailleurs, on peut les calculer en FLOPS avec la formule vue au chapitre précédent. À partir de juin 1983, paraît deux fois par an en juin et novembre, la liste des 500 ordinateurs les plus puissants installés au monde. C’est le TOP500, et pour toute la période précédant sa publication, en juin 1993, nous appellerons TOP la puissance de la machine la plus puissante du moment depuis le début de l’apparition de l’informatique, que certains historiens font remonter de plus en plus loin. Ce qui suit dans ce chapitre est une comparaison pour la période 1969-2020 des puissances installées au centre de calcul et de celles du TOP. Comparer en faisant des courbes de régression sur la période entière montrerait qu’il y a eu une croissance continue, mais ne permettrait pas d’appréhender la vie du centre et les causes techniques ou autres qui ont été à la source de son évolution. C’est comme si on faisait l’histoire de la température de la Terre avec une seule droite de régression depuis le début d’une période glaciaire jusqu’à aujourd’hui. On dirait que la Terre s’est réchauffée, mais cela ne donnerait aucun renseignement sur les différentes étapes, périodes de refroidissement et réchauffement, leurs différentes conditions et causes. Aussi notre étude est faite en distinguant cinq périodes contiguës dans l’histoire du centre et en traçant les courbes de régression pour chacune des périodes. Il n’a jamais été question d’installer LA machine du TOP à Orsay, mais de donner, avec le budget dont on disposait, un outil adéquat aux chercheurs de n’importe quelle discipline pour traiter leur sujet de recherche qui demandait du calcul intensif. Pour cela, il fallait que la courbe de régression du centre de calcul ne s’éloigne pas trop de celle du TOP. Sinon, pour ces cas, la recherche ne pourrait pas se faire (nous en verrons des exemples), ou bien le chercheur partait à l’étranger. Cela ne veut pas dire qu’on

72

De l’IBM 360/75 au superordinateur Jean Zay

ne pourrait pas faire de la bonne science. Mais nombre de problèmes parmi les plus novateurs ne pourraient pas être abordés. Il s’agit par exemple de tous ceux qui utilisent un algorithme pour lequel le temps d’exécution est proportionnel à une puissance de N supérieure à 1, N étant le nombre de données à traiter.

4.1 Plusieurs chronologies en informatique L’idée d’une telle méthode d’analyse n’est pas nouvelle. L’informatique est une science jeune, mais on trouve déjà beaucoup de livres sur son histoire, et beaucoup de chronologies des différents systèmes qui ont fonctionné. Certaines sont de simples énumérations, d’autres essaient de les replacer dans le contexte scientifique de l’époque. Toutes éclairent à leur façon un objet à multiples facettes. Les unes remontent à l’Antiquité, d’autres au boulier, d’autres à la machine de Babbage, ou d’Alan Turing, avec son processeur mathématique, d’autres à celle de Konrad Zuse, d’autres à la 704 IBM avec son processeur mathématique et son FORTRAN, d’autres à la 6600 CDC, d’autres encore au CRAY et à ses successeurs. Elles s’intitulent Histoire de l’informatique ou Histoire des ordinateurs ou Histoire des superordinateurs, et ceci même si ce dernier mot désigne aussi, à quelque époque que ce soit, l’ordinateur le plus puissant de l’instant. Le CEA revendique son emploi de superordinateurs et de méthodes de simulation depuis cinquante ans. Ce n’est pas notre propos de les passer toutes en revue. Après l’étude de quelques-unes, il sera intéressant de voir comment celle du centre de calcul s’insère dans le paysage global, pour la période 1969-2020.

4.1.1 Université Waterloo En 1995 à l’université de Waterloo, un cours sur une «  très brève histoire de l’informatique » résume les faits marquants dans plusieurs périodes, avant 1900, de 1900 à 1990 et au-delà 74. L’explosion des mathématiques, pendant la guerre, la naissance de l’informatique électronique, puis les nouveautés décennie par décennie sont énumérées dans cet article très succinct.

4.1.2 Université de Stanford En 2006, dans l’encyclopédie de philosophie de l’université de Stanford 75, B.  J.  Copland écrit The modern history of computing qui trace les grandes étapes de son évolution. Il va de la machine de Babbage en 1828 à l’université de Manchester, aux calculateurs analogiques, à la machine universelle de Turing, aux calculateurs électromécaniques puis électroniques, à l’ENIAC, l’EDVAC et à l’apparition de la mémoire à accès rapide.

74 https://cs.wterloo.ca/-shallit/courses/1234.history.html 75 https://plato.stanford.edu/entries/computing-history/

Évolution des puissances installées au centre de calcul de 1969 à 2020 73

4.1.3 Roy Longbottom Dans une autre forme, S. Roy Longbottom 76 entretient depuis de longues années une base de données avec les résultats de benchmarks passés sur 2000 ordinateurs, des micros mais aussi de plus puissants. Le tableau suivant donne la liste des benchmarks utilisés. On y trouve bien entendu LINPACK, mais aussi des tests spéciaux pour la FFT. General

Logged Configuration

Whetstone Benchmark

Dhrystone Benchmark

Linpack Benchmark

Livermore Loops Benchmark

MemSpeed Benchmark

NeonSpeed Benchmark

BusSpeed Benchmark

RandMem Benchmark

FFT Benchmarks

MP-Whetstone Benchmark

MP-Dhrystone Benchmark

NEON-Linpack-MP Benchmark

MP-BusSpeed Benchmark

MP-RandMem Benchmark

MP-MFLOPS Benchmark

NEON-MFLOPS-MP Benchmark

OpenGL Benchmark

Java Drawing Benchmark

CPU MHz Benchmark

Battery Drain Test

DriveSpeed Benchmark

CPU Stress Tests

Floating Point Stress Test

Integer Stress Test

FPU Plus Integer Tests

Errors and False Errors

System Details

Figure 16 – Liste des tests exécutés par Roy Longbottom

4.1.4 Université de Pawsey (Australie) Elle fait commencer son Histoire très brève histoire des superordinateurs 77 à la mise en service de la CDC 6600.

4.1.5 Les grandes dates de l’histoire informatique Elle donne la liste détaillée, commentée et très référencée des ordinateurs depuis ENIGMA en 1930 jusqu’à 2012 78.

76

« Computer Speed Claims 1980 to 1996, Roy Longbottom », https://www.roylongbottom.org.uk/mips.htm Roy’Longbottom’s PC Benchmark Collection. 77 www.pawsey.org.au 78 https://histoire-informatiue.org/grandes_dates/2_3.html

74

De l’IBM 360/75 au superordinateur Jean Zay

4.1.6 Chronologie de l’ENSICAEN À l’université de Caen, Régis Clouard a écrit une histoire de l’informatique 79 avec une chronologie très détaillée du matériel partant de -10  000 avec les Sumériens jusqu’en 1990 et du logiciel jusqu’en 2016. C’est la liste avec commentaires de tous les ordinateurs micros ou superordinateurs jusqu’à 1990 et des développements software. On y trouve les prémices d’UNIX, une histoire des réseaux, la naissance de Fortran sur la 704 IBM d’une puissance de 5 kFLOPS et celle de C++. Cette étude sera utilisée en particulier pour savoir ce qui se passait dans le monde informatique en 1969 au moment de la création du centre de calcul.

4.1.7 Chronologie de Morn Les tentatives pour établir une chronologie complète de «  l’outil de calcul  » sont très nombreuses et se recoupent. Il y a des centaines de références sur des époques distinctes et des articles de synthèse plus ou moins réussis qui se trouvent sur Wikipédia, sous les rubriques Histoire de l’informatique, history of supercomputing, superordinateur, chronique de l’informatique. L’une d’elles 80, commencée en 2014 et mise à jour régulièrement, fait remonter les prémices à la règle à calcul en 1632 avant la Pascaline en 1645 et donne de nombreuses références jusqu’à aujourd’hui. Un tableau 81 (annexe  2), intitulé Chronologie des ordinateurs, donne leur liste avec leur lieu d’implémentation, leur puissance en OPS, kFLOPS, PFLOPS allant de la ZUE 1 de 1938 au FUGAKU de Fujitsu en tête du TOP500 82 en juin et novembre 2020. Elle est intéressante car on voit qu’à partir de 1946 jusqu’en 2010 les ordinateurs les plus puissants ont été installés aux États-Unis sauf en 1984 où la palme est revenue à l’URSS. À partir de 2010, il y a compétition entre les États-Unis, la Chine et le Japon. L’accroissement de la puissance est représenté par un graphique qui s’étend sur 80 ans et va de 1938 à 2019 (figure 17). Les données qui ont permis son élaboration sont publiées dans les Commons de Wikipédia 83. Il a été commencé en 2014 par Morn qui l’a mis à jour jusqu’en juin 2019. Il est devenu une référence et apparaît dans de nombreux articles. Il fournit la liste des données utilisées pour le dessiner et leurs sources. Depuis 1993, ce sont celles du TOP500. Il est maintenant dans le domaine public et on peut l’utiliser et le modifier. Ce sont ces mêmes données qui avaient été utilisées par A. Brenner en 1996 et le seront par D. Dureisseix en 2017.

79

Histoire de l’informatique de Régis Couard https://foad.ensicaen.fr/pluginfile.php/4321/ mod_page/content/14/histoireinformatique.pdf 80 https://foad.ensicaen.fr/pluginfile.php/4321/mod_page/content/14/histoireinformatique.pdf 81 https://fr.wikipedia.org/wiki/Superordinateur#Historique 82 https://top500.org 83 https://commons.wikimedia.org/wiki/File:Supercomputing-rmax-graph2.svg

Évolution des puissances installées au centre de calcul de 1969 à 2020 75

Figure 17 – Vitesse de calcul (Rmax) du top des superordinateurs sur 80 ans

4.1.8 Chronologies de D. Dureisseix et de A. Brenner Ces deux dernières seront étudiées plus précisément car nous utilisons les mêmes méthodes qu’elles, pour établir l’évolution des puissances installées au centre de calcul du CNRS à Orsay. Elles ont été réalisées simultanément et utilisent les mêmes données. Celle de D. Dureisseix 84 dans l’introduction de sa thèse sur une application du calcul parallèle fait un rappel historique qui couvre cinquante ans de 1940 à 1990, mais il ne le commente pas (figure 18). La chronologie, écrite en 1996 par A. Brenner 85, donne la liste des détenteurs de records pour le supercalculateur polyvalent le plus rapide dans le monde, et l’année où chacun a établi le record. Pour les entrées antérieures à 1993, cette liste fait référence à diverses sources 86.

84

Sa thèse de doctorat, soutenue à l’ENS Cachan en 1997, intitulée «  Une approche multi-échelles pour des calculs de structures sur ordinateurs à architecture parallèle » est accessible sur le site des Archives ouvertes : https://tel.archives-ouvertes.fr/tel-00083732/ document. 85 « The Computing Revolution and the Physics Community » et publiée dans Physics today, octobre 1996, p. 24-30. 86 https://www.computerhistory.org/revolution/?tax_id=03.04.01.00#4

76

De l’IBM 360/75 au superordinateur Jean Zay

Figure 18 – Évolution de la puissance de calcul des ordinateurs

A. Brenner était alors Deputy director of the computer and software engineering division of the Institute for Defense Analysis in Alexandria, Virginia. Il était le responsable des calculs au Fermilab en 1984. Puis, il resta conseiller pour l’informatique auprès de la Défense jusqu’en 2000 et jusqu’en 2010 historien de l’informatique 87. Dans son article de 1995, il publie un synoptique classant les ordinateurs depuis 1955 jusqu’en 1996 (figure 19). Il ne fait pas le graphique des puissances, mais leurs courbes de régression. Dans notre étude sur les cinq périodes du centre de calcul d’Orsay, nous étudierons à la fois, les puissances et leurs régressions. Dans le graphique d’A.  Brenner, les puissances de calcul des machines du TOP sont tracées avec une échelle semi logarithmique. Elles s’inscrivent approximativement sur une droite. On en conclut que leur croissance est exponentielle. Sur ces courbes de régression, il porte approximativement les noms des ordinateurs qui en fait s’éloignent peu de cette droite. Mais quel coefficient pour cette exponentielle ? C’est ici qu’intervient la loi de Moore, ou plutôt, les lois de Moore. Ce sont des lois empiriques qui ont trait à l’évolution de la croissance de la puissance de calcul des ordinateurs. La première prédisait un doublement de la puissance de calcul tous les deux ans. Moore, un des ingénieurs spécialistes de semi-conducteurs chez Intel, constata en 1965 que la complexité des semi-conducteurs d’entrée de gamme doublait tous les ans à prix constant. Et il extrapolait que cela continuerait. Puis, la technologie de fabrication des puces et des transistors évolua très vite et en 1975 la prévision du doublement à deux ans fut réduite à 18 mois. Maintenant la vitesse de calcul d’un ordinateur dépend de nombreux facteurs en plus de la densité de transistors sur une même puce. Ce facteur devient critique à cause de son coût et du dégagement de chaleur. Il est tel, qu’aujourd’hui certains centres de calcul se chauffent avec la chaleur 87

Les papiers d’Alfred E. Brenner, qui datent de 1962 à 2010, contiennent des documents techniques et commerciaux relatifs aux ordinateurs à haute performance.

1960

Leading edge

1965

1970

UNIX 1975

DES 1985

2000

Cray T3E Cray T3D

[Structural biology]

$12M

[Pharmaceutical design]

1995

ATM NII Telecom reform Mosaic

Cray T90

1990 Cray C90

WWW

Cray Y-MP Cray 2 Cyber 205

1980

Visicale

NSF HPC program HPCC program Ethernet Bitnet Internet ISDN AT&T divestiture

1960

1965

1970

1975

YEAR

1980

Cray X-MP

1985

1990

1995

2000

Figure 19 – Régression des croissances du TOP ordinateurs de 1955 à 1996 (© National Navy Laboratory, USA, libre de droits)

0.1 1955

103

[72-hour weather] [Higgs boson mass] Intel iPSC Pentium Pro PC TMC CM-1 Cray 1 $5K [48-hour weather] Pentium PC [3D plasma] [Airfoil design] 102 (DEC VAX 780) CDC 7600 [2D plasma] Macintosh PC Sun WS IBM 360/90 IBM PC Apollo WS CDC 6600 10 Illiac IV Apple II IBM 7094 (DEC PDP11) Functional/affordable IBM Stretch Altair 8800 (IBM 360) IBM 7090 (PDP6) 1 IBM 704 Intel 4004 (DEC PDP1) DEC PFP8 $5M $30K

104

105

1955

AA Sabre Arpanet Brooks bill FORTRAN BASIC

Évolution des puissances installées au centre de calcul de 1969 à 2020 77

78

De l’IBM 360/75 au superordinateur Jean Zay

dégagée par leurs ordinateurs 88 et qu’IBM fait des recherches sur des puces fonctionnant à la température de l’hélium liquide. D’autre part, les ordinateurs les plus puissants sont souvent assemblés à l’unité. Ce qui est important dans notre étude est de trouver pour le TOP500 et le centre de calcul l’évolution du facteur de croissance de la puissance de calcul mesurée avec LINPACK 89 ou avec ses prédécesseurs. Nos benchmarks comportaient, en plus, un test sur le temps d’exécution d’un flux de travaux représentatif de notre exploitation et exécuté avec nos priorités. C’est ce facteur de croissance que nous allons étudier. La première utilisation qu’on peut faire de la méthode est la prolongation de la droite de régression effectuée par le National Navy Laboratory à Washington, qui l’a extrapolée jusqu’en 2030 en faisant des spéculations sur le calcul de haute performance (High Performance Computing) :

Figure 20 – Extrapolation des courbes de Brenner par la National Navy à Washington (© National Navy Laboratory, USA, libre de droits)

88

La chaleur dégagée par les ordinateurs de l’IDRIS est tellement grande qu’un accord vient d’être signé permettant sa récupération pour chauffer tous les bâtiments de l’ensemble universitaire Paris-Saclay sur le plateau. C’est l’équivalent de ce qu’il faudrait pour chauffer 1000 logements. 89 Le LINPACK est un test de performance qui sert à classer les ordinateurs les plus puissants. C’est une bibliothèque de fonctions FORTRAN utilisées pour résoudre un système de n équations et à n inconnues. Le temps de calcul croit avec n suivant la formule : 2/3 n3+n².

Figure 21 – Extrapolation des courbes de croissance de Brenner (© National Navy Laboratory, USA, libre de droits)

Évolution des puissances installées au centre de calcul de 1969 à 2020 79

80

De l’IBM 360/75 au superordinateur Jean Zay

Nous-mêmes l’avons prolongée jusqu’en 2050 (figure 21). Connaissant maintenant le TOP500 de novembre 2019, on peut vérifier les extrapolations de Brenner et du laboratoire de la Navy. C’est extrêmement instructif. L’extrapolation des courbes de Brenner conduit à l’EXAFLOPS en 2050 alors que des machines le dépassant sont déjà prévues en 2021. La conclusion est qu’il faut bien choisir les limites dans lesquels faire les calculs de régression pour que leur interprétation ait un sens. La croissance de la puissance peut être lissée par une exponentielle. La représentation de cette exponentielle dans un graphique à coordonnées semi-logarithmique est une droite. La pente de la droite est liée au coefficient de l’exponentielle de lissage. Si les limites du lissage sont bonnes, les données oscillent de façon aléatoire autour de la droite de régression. Si les limites sont mal choisies, il y a décrochage des deux courbes. Dans le cas de l’étude d’A. Brenner, visiblement la période avait été choisie trop longue et a conduit à une extrapolation fausse. La pente de la droite de régression permettra de vérifier la loi de Moore. En 1995, après son analyse historique, Brenner insiste sur l’importance de poursuivre, par l’intermédiaire du National Research Council du gouvernement fédéral de Washington, les initiatives des commissions qui supportent l’infrastructure informatique nationale.

4.1.9 Chronologie de Jean-Marie Gourio Des tentatives de réalisation de superordinateurs utilisant des architectures Von Neumann en général de type parallèle ont été entreprises très tôt. La première est, peut-être, le BIZMAC de RCA, commencé en 1952, il faisait appel à des petits ordinateurs satellites sous-traitant certains travaux (échanges, tris...). Malheureusement, il ne sera terminé qu’en 1958, époque à laquelle il était déjà dépassé 90.

4.1.10 Courbes de croissance du TOP500 Elles vont ici de 1993 à juin 2020 (figure 22). Il y a trois courbes à une échelle semi-logarithmique. Celle du milieu donne la puissance mesurée (Rmax) de l’ordinateur le plus puissant, celle du dessus donne la puissance cumulée des 500 ordinateurs les plus puissants à un instant donné, celle du dessous donne

90

Dans son document, J.-M. Gourio présente une chronologie de 1955 à 2010. https://www. iutbayonne.univ-pau.fr/~dalmau/documents/cours/archi/Parallel2010.pdf

Évolution des puissances installées au centre de calcul de 1969 à 2020 81

la puissance du dernier ordinateur du TOP500. Le graphique donne aussi les droites de régression de ces trois courbes.

Figure 22 – Étude du TOP500 de 1990 à 2020

4.2 Chronologie et loi de Moore au centre de calcul de 1969 à 2019 Comment aborder l’étude de la croissance des puissances installées au centre de calcul et de celles du TOP avec l’expérience des deux cas précédents  ? Nous allons d’abord étudier l’évolution générale et voir comment on peut diviser ces cinquante ans en périodes homogènes. Il faut vérifier pour chacune d’elles que la croissance est bien exponentielle et trouver les coefficients de multiplication annuels. Son carré donne un coefficient de croissance en deux ans à rapprocher de celui de Moore.

4.2.1 Les 25 ordinateurs installés au centre de calcul en cinquante ans et le total des puissances installées Les trois synoptiques suivants donnent, année par année, le nom des machines installées donc en service, leur puissance individuelle en MFLOPS et la puissance totale installée.

Figure 23 – Évolution du parc machine du centre de calcul, 1969-2020

82

De l’IBM 360/75 au superordinateur Jean Zay

Figure 24 – Chronologie du parc machine de 1969 à 1993

Évolution des puissances installées au centre de calcul de 1969 à 2020 83

Figure 25 – Évolution du parc machine du centre de calcul, 1994-2020

84

De l’IBM 360/75 au superordinateur Jean Zay

Évolution des puissances installées au centre de calcul de 1969 à 2020 85

4.2.2 Comparaison des puissances installées au centre de calcul et celles du TOP L’analyse de ces synoptiques peut être menée de deux façons distinctes : soit en établissant la liste des puissances installées comme dans le tableau ci-dessous, soit en traçant les courbes de la puissance totale installée au centre de calcul chaque année mesurée en Mflops et du TOP à la même date (figure 26). Cette méthode sera utilisée dans les graphiques et analyses ultérieurs. Au xxie  siècle, les superordinateurs les plus puissants sont le plus souvent conçus comme des modèles uniques par des constructeurs informatiques « traditionnels » comme International Business Machines (IBM), Hewlett-Packard (HP), ou Bull, qu’ils aient derrière eux une longue tradition en la matière (IBM) ou qu’ils aient racheté dans les années 90 des entreprises spécialisées, alors en difficulté, pour acquérir de l’expérience dans ce domaine. Année

Centre calcul

TOP

Ordinateur/implantation

1969

8

36 CDC 7600

1970

8

36

1971

8

36

1972

19

36

1973

19

36

1974

22

100 CDC STAR

1975

22

150 Burrougs ILLIAC

1976

36

250 CRAY 1

1977

36

250

1978

36

250

1979

36

250

1980

51

250

1981

51

400 CDC CYBER

1982

51

400

1983

102

1984

129

2400 M13

1985

129

3900 CRAY 90/98

1986

286

3900

1987

286

3900

1988

1133

3900

1989

1409

941 CRAY X MP4

10 300 ETA 106G/8

De l’IBM 360/75 au superordinateur Jean Zay

86

Année

Centre calcul

TOP

Ordinateur/implantation

1990

1685

23 200

1991

1685

23 200

1992

1685

23200

1993

7 600

235 800 Fujitsu Japon

1994

11 400

235 800 Fujitsu Japon

1995

30 600

368 200

1996

184 200

1997

167 200

1 453 000 ASCI Red Intel États-Unis

1998

167 200

1 830 400 ASCI Red Intel États-Unis

1999

460 700

3 207 000 ASCI Red Intel États-Unis

2000

458 500

12 288 000 ASCI White IBM États-Unis

2001

598 500

12 288 000 ASCI White IBM États-Unis

2002

6 804 000

40 960 000 Earth-Simulator NEC Japon

2003

6 804 000

40 960 000 Earth-Simulator NEC Japon

2004

6 804 000

91 750 000 BlueGene/L IBM États-Unis

2005

6 804 000

367 000 000 BlueGene/L IBM États-Unis

2006

7 800 000

367 000 000 BlueGene/L IBM États-Unis

2007

7 800 000

596 400 000 BlueGene/L IBM États-Unis

2008

207 300 000

1 456 700 000 Roadrunner IBM États-Unis

2009

207 300 000

2 331 000 000 Jaguar CRAY États-Unis

2010

207 300 000

4 701 000 000 Tianhe-1A Chine

2011

207 300 000

11 280 400 000 Fujitsu Japon

2012

206 000 000

27 112 500 000 Titan CRAY XK7 États-Unis

2013

1 060 000 000

54 902 400 000 Tianhe-2A Chine

2014

1 060 000 000

54 902 400 000 Tianhe-2A Chine

2015

1 060 000 000

54 902 400 000 Tianhe-2A Chine

2016

1 060 000 000

125 435 900 000 Sunway Chine

2017

1 060 000 000

125 435 900 000 Sunway Chine

2018

1 060 000 000

200 794 900 000 Summit IBM

2019

13 000 000 000

200 794 900 000 Summit IBM

2020

16 000 000 000

537 212 000 000 Fugaku Japon

614 400 CP-PACS/2048 Hitachi Japon

Figure 26 – Puissances installées au centre de calcul et TOP de 1969 à 2020

Évolution des puissances installées au centre de calcul de 1969 à 2020 87

Figure 27 – Comparaison des puissances installées en mégaflops au centre de calcul et celles du TOP500 de 1969 à 2020

De l’IBM 360/75 au superordinateur Jean Zay

88

Puissance MIPS

Taille du mot en bits

NB CPU

Compléments d’informations

CDC 3600

0,3

48

1

Déménagé depuis la rue du Maroc à Orsay, ordinateur à bandes

IBM 360/75

0,94

32

1

Première installation à Orsay

IBM 370/165

2,7

32

1

Augmentation de la mémoire à 3 MGo en 1973

IBM 370/155

0,47

32

1

décembre 1973 arrêt IBM 370/165

1974-1980 IBM 370/168

3,1

1

IBM 370/168

3,1

1

IBM 370/168

3,1

1

Date

1969-1972

1972-1974

1976-1980

Type équipement MF

IBM 158 remplacé par un second 168 Amdahl V7 Remplace le premier 168

1980-1983 Amdahl V7

5,5

Amdahl V7

5,5

1

Arrêt du V7 en 1986

11,5

2

NAS 9080 Frontal du CRAY 1 de la CISI

1

IBM 3090 200 Frontal du CRAY 2 CCVR en 1987

1983-1984 NAS 9060 puis 9080 IBM 3090 200 1984-1988 NAS 9080 DPS8/62 M

1988-1990

52 21,5

2

1,5

2

Bull DPS /62 Multics opérationnel

6

IBM 3090 600, upgrade du 200 devient Frontal du CRAY 2 XMP du CCVR

IBM 3090 600 + VF

134

DPS8/62 M

1,5

6

Arrêt du Bull DPS 8 en 1990

NAS 9080

21,5

2

Arrêt du NAS en 1990

533

2

Supercalculateur vectoriel

800

6

IBM 3090 600 VF arrêté le 31.12.1993

VP-200

533

2

TOP500 06/1993 Rang 476 Pic théorique 533 MFLOPS

CRAY Y-MP C90/8

8000

1

Création IDRIS

VP-200

1990-1993

1993

267

IBM 3090 600 + VF

134

800

Figure 28 – Chronologie des installations de 1969 à 1993

2002

2000

2006

2002

2008

2011

2012

2012

1996

1997

1999

2001

2002

2006

2008

2008

VARGAS

2 Go

4 processeurs vectoriels

x3750

Blue Gene/Q

Regata Power 6

Blue Gene/P

SX-8

10 624 cœurs

5536 cœurs

3584 cœurs

40 960 cœurs

80 processeurs

1024 processeurs

Power 4 / Power 4+

224 Go

38 processeurs vectoriels

46 To

65 To

17,5 To

20 To

640 Go

3,1 To

240 Go

12 Go

6 processeurs vectoriels

160 processeurs

32 Go

256 processeurs

8 Go

2 Go

8 processeurs vectoriels

128 processeurs

Mémoire

Caractéristiques

Power 3

SX-5

VP300

T3E

T3D

C94

C98

Modèle

Figure 29 – Chronologie des installations de 1993 à 2013

IBM

IBM

IBM

IBM

NEC

BRODIE (NEC)

BABEL

IBM

IBM

BRODIE (IBM)

ZAHIR

NEC

Fujitsu

CRAY

CRAY

CRAY

CRAY

Constructeur

UQBAR

SHINE

ALEPH

KAOS

ADA

1997

1995

AXIS

2013

1999

1994

ATLAS

TURING

1999

1993

Nom de machine

2013

Date fin

Date début

230 TFlop/s

839 TFlop/s

67 TFlop/s

139 TFlop/s

1,3 TFlop/s

6,5 Flop/s

141 GFlop/s

304 GFlop/s

2,26 Flop/s

153,66 Flop/s

19,26 Flop/s

3,8 GFlop/s

7,6 GFlop/s

Performance de crête

123e en nov. 2012

29e en juin 2012

51e en nov. 2008

10e en juin 2008

59e en juin 2002

48e en juin 2000

12e en nov. 1996

120e en juin 1996

81e en juin 1994

Classement au TOP500

Évolution des puissances installées au centre de calcul de 1969 à 2020 89

De l’IBM 360/75 au superordinateur Jean Zay

90

4.2.3 Étude des droites de régression L’examen visuel de la courbe générale des puissances comparées du centre de calcul et du TOP (TOP500 depuis 1993) de 1969 à 2020 montre que si le développement est exponentiel, il y a eu des changements d’amplitude de ces variations, suivant les périodes. Faire une courbe de régression qui irait de 1969 à 2020 montrerait qu’il y a eu en effet une progression, mais ne permettrait pas de faire une analyse des causes de ces changements. C’est pourquoi la vie du centre de calcul a été divisée en cinq périodes 1969 à 1980, 1980 à 1989, 1989 à 1992, de 1992 à 2013 et de 2013 à 2020. Méthode de l’étude Le but est de définir le facteur annuel de multiplication de la puissance. En l’élevant au carré, on verra comment varie le coefficient de la première loi de Moore qui prévoyait un facteur 2 tous les deux ans. Dans la figure 5 et celles qui suivront, toujours tracées à l’échelle logarithmique, les puissances sont en ordonnées. La variable x qui intervient dans les formules des courbes inscrites sur les graphiques est reliée aux années par la formule : x = année courante - année de départ + 1. Par exemple, pour la période allant de 1992 à 2019, x varie de 1 à 28. Les puissances installées et celles du TOP, croissent exponentiellement. La régression exponentielle des points expérimentaux tracés sur papier logarithmique est une droite. Le logarithme de y peut se mettre sous la forme : Log(y) = ax+b où a est le coefficient directeur de la droite. y(x) = eb eax Si x augmente d’une unité, y(x) est multiplié par exp(a) On en déduit que chaque année, la puissance est multipliée par exp(a). Période 1969-2020 Le graphique qui regroupe les 5 périodes permet, avant l’étude en détail de chacune d’elles, d’avoir une vue d’ensemble de ce qui s’est passé en cinquante ans (annexe 21).

Évolution des puissances installées au centre de calcul de 1969 à 2020 91

Figure 30 – Courbes de régression des puissances des cinq périodes étudiées

92

De l’IBM 360/75 au superordinateur Jean Zay

Figure 31 – Puissances installées et TOP500 et leurs courbes de régression

Évolution des puissances installées au centre de calcul de 1969 à 2020 93

Un premier examen de ces deux graphiques montre que les puissances installées sont toujours inférieures à celles du TOP mais les tendances ne décrochent pas. C’est dans la période 1980-1989 que les taux de croissance ont été le plus voisins. De 1989 à 1992 a eu lieu une période de stagnation. Puis les puissances installées et celles du TOP ont repris une évolution presque parallèle avec des coefficients plus élevés tenant aux changements de technologie. Coefficient a

Facteur multiplicatif

Période

centre de calcul

TOP

centre de calcul

TOP

1969 – 1980

0,17

0,24

1,18

1,24

1980 – 1989

0,42

0,39

1,53

1,47

1989 – 1992

0,05

0,24

1,06

1,27

1992 – 2013

0,52

0,59

1,68

1,82

2013 – 2020

0,268

0,318

1,307

1,374

En moyenne, chaque année, la puissance installée est multipliée par 1,18 et celle du TOP par 1,24 pour la période 1969 à 1980 et respectivement 1,53 et 1,47 pour 1980 à 1989, et 1,06 et 1,27 pour 1989 à 1992, puis 1,68 et 1,82 pour 1992 à 2013, puis 1,307 et 1,374 pour 2013 à 2020. On en conclut que, en moyenne, pendant les vingt-six dernières années tous les deux ans, les puissances du TOP ont été multipliées par 3,31 et celles du centre de calcul par 2,78.

DEUXIÈME PARTIE Étude détaillée de l’évolution du centre de calcul d’Orsay de 1969 à 1981

La vue d’ensemble de la vie du centre a montré son évolution pendant un demisiècle, durant lequel il n’a jamais oublié le but qui lui avait été fixé à l’origine (figure 5). Il s’est adapté à la fois aux bouleversements techniques et à ceux de la société. En 2020, où la course à la puissance bat son plein en devenant un enjeu stratégique, il est l’un des mieux équipés d’Europe. On peut donc dire que l’objectif fixé à la création en 1969 est atteint. Mais l’étude détaillée, année après année, des cinq périodes définies au chapitre 4, montre que cette évolution n’est qu’un ensemble de solutions possibles, un compromis entre les schémas directeurs proposés et les échecs. Dans cette seconde partie, on va étudier le détail de cette évolution année après année, mais aussi comment elle s’est faite, au prix de quelles luttes, de quels compromis. On essaiera d’en trouver les raisons, en soulignant ce qu’on aurait voulu faire, mais en gardant à l’esprit que d’une certaine façon, le but fixé en 1969 est atteint et que la lutte a payé. Les idées suivantes se dégagent de l’étude : I. le CIRCÉ a été imposé par Pierre Jacquinot à l’ensemble des décideurs qui ensuite, pendant vingt ans à l’exception de quelques-uns, l’a ignoré ; II. jusqu’à la création du GENCI, il a survécu grâce à l’opiniâtreté de ses directeurs. Deux d’entre eux en référaient directement au directeur général. S. Fayolle, dans les périodes intermédiaires a œuvré pour que le centre ne soit pas totalement oublié de l’administration générale et que l’équipe technique qu’il a dirigée pendant trente-cinq ans maintienne la qualité des services attendus par les utilisateurs ; III. c’était une copie conforme de celle du centre de la NASA au JPL. La mise en place s’est donc faite rapidement  ; réception du bâtiment, installation des matériels, recrutement du personnel, constitution des 3 groupes : exploitation, système, assistance aux utilisateurs. Dès l’ouverture, le 14 avril 1969 le centre a fonctionné 24h/24, 7j/7. Les trois équipes, exploitation, système et groupe de service aux utilisateurs (GSU), étaient en place le jour de l’ouverture du centre de calcul. Elles ont évolué, mais le cadre est resté. Avec l’arrivée des nouvelles architectures des systèmes informatiques, l’équipe exploitation a fusionné avec l’équipe système. Mais l’ossature est restée intacte et c’est la compétence du GSU au fil des années qui a décidé en partie du choix de l’installation au centre de calcul de la machine dédiée à l’Intelligence Artificielle (IA). Des membres du personnel ont disparu ; pour cause de retraite, de décès, ou par choix de carrière ou d’autres raisons personnelles. Des éléments nouveaux sont arrivés. Mais ils se sont fondus dans un environnement qui a su s’adapter aux profonds changements technologiques et ne s’est jamais écarté de son but : rendre le meilleur service possible. Chaque fois qu’une nouvelle technologie naissait, ils étaient prêts à l’accueillir parce qu’ils l’avaient anticipée.

98

De l’IBM 360/75 au superordinateur Jean Zay

Bien entendu cette structure a évolué. Les effectifs relatifs des groupes ont changé. Des services comme les réseaux sont venus se greffer. Mais les objectifs principaux, qui ont bien été précisés dès l’origine ont perduré au fil des évolutions. À  l’inauguration du supercalculateur, Jean Zay, il a été rappelé que le centre de calcul est un centre de calcul pour la recherche. Ce n’est pas un centre de recherche. Un constat s’est imposé qui est toujours valable après cinquante ans. Dès l’installation d’une nouvelle machine, la puissance offerte est toujours inférieure à celle qu’exigerait la résolution d’un des problèmes de pointe du moment. En 1969, l’un d’eux était la détermination de la pression à la surface de la planète Mars grâce à des simulations et traitement de données tributaires de la transformée de Fourier. Il aurait pris des années de temps machine. En 2020, lors de l’inauguration du Jean Zay, c’est un chercheur en sciences humaines qui explique que son problème demanderait 3000 heures du nouvel ordinateur installé. La période de 1969 à 1990 sera traitée dans les quatre chapitres qui suivent. Elle a vu l’émancipation de quelques équipes qui, après formation, ont pu traiter en local une partie de leurs besoins. L’équipe technique a été, et reste toujours de nos jours, en formation continue avec les constructeurs et d’autres centres étrangers, pour anticiper l’apparition dans le paysage informatique des machines toujours au fait de l’état de l’art en matière de calcul scientifique. Nous traiterons successivement de l’évolution des machines installées dans cette période, du personnel qui les a servies, des projets qui n’ont pas abouti avec les causes de ces échecs, des rapports de la direction du centre avec ses autorités de tutelle et l’Enseignement supérieur. Une étude détaillée de cette comparaison sera faite dans le chapitre  7 qui traite de l’histoire parallèle du centre et les résultats présentés dans la figure 72, p. 159. Enfin et surtout, un bilan sera dressé des résultats scientifiques obtenus.

Chapitre 5 Période 1969-1972 La période 1969-1981 est celle pendant laquelle le CIRCÉ s’est affirmé dans la panoplie d’outils pour la recherche. Elle a été à la fois enthousiasmante mais difficile et riche d’enseignements. Que se passait-il dans le monde informatique mondial en 1969, au moment où démarrait le CIRCÉ, et dans la décennie suivante ? Il existe, nous l’avons vu, de très nombreuses histoires de l’informatique. L’une d’elles, déjà citée, (https://fr.wikipedia.org/wiki/Superordinateur#Historique), est particulièrement intéressante : elle retrace, année après année, l’émergence des idées nouvelles qui ont conduit à l’informatique d’aujourd’hui. « 1940 : pour décrypter les messages de l’armée allemande, les Anglais mettent au point sur le site de Bletchley Park les calculateurs Robinson et Colossus sous la direction du mathématicien Alan Turing. Ce sont les premières machines qui intègrent les concepts d’arithmétique binaire, d’horloge interne, de mémoire tampon, de lecteurs de bande, d’opérateurs booléens, de sous-programmes et d’imprimantes. Tout ceci restera inconnu car “Secret défense” jusqu’en 1975. » C’est avec la machine ENIGMA que le problème de décryptage est résolu. Il y a cinquante-sept ans, en 1963, au MIT, est développé le premier logiciel graphique interactif utilisant un stylo optique pour faire sur écran des dessins techniques. L’année 1964 est particulièrement riche en avancées. Chez Control Data Corporation (CDC), Seymour CRAY lance le CDC 6600 et une bataille commerciale commence avec IBM qui annonce une machine qui ne sera en service que quelques mois après, l’IBM 90. La bataille continue quand CDC met en service la 7600. C’est aussi en 1964 qu’après FORTRAN, IBM lance le langage de programmation PL/1 (Programming Language 1). En mars 1964, IBM lance la série des 360 et inaugure le concept d’une lignée d’ordinateurs compatibles entre eux. Cette série est un grand succès commercial. Un autre grand projet voit le jour. Le MIT avec General Electric et les Bell Laboratories s’investissent dans le projet MULTICS, avec un prototype de nouvel ordinateur et d’un nouveau système d’exploitation pour ordinateur, parfaitement fiable, capable de tourner 24h/24, 7j/7, utilisables par plusieurs personnes à la fois, et capable en même temps de faire tourner des travaux en tâche de fond. Des étudiants du Dartmouth College créent le langage BASIC (eBeginners All Purpose Symbolic Instruction Code).

100

De l’IBM 360/75 au superordinateur Jean Zay

En 1965, la société russe ITMIVT construit en 350 exemplaires de la machine la plus puissante du moment. La même année, BURROUGH annonce l’ILLIAC.IV, avec une architecture parallèle et 64 processeurs. Une seule fut installée à la NASA en 1972 et fonctionnera en 1975. C’est à ce moment que DIGITAL présente le premier mini-ordinateur, le PDP8, cinq fois moins cher que le plus petit IBM 360. En 1966, la fondation du club Amateur Computer Society marque le début de l’informatique personnelle. 1966 est aussi l’année qui voit apparaître la première console de jeu. En 1967, IBM est le plus gros vendeur d’ordinateurs et il construit le premier lecteur de disquettes. L’été 1969, Bell Lab abandonne MULTICS, trop long à mettre au point. Mais, contre l’avis de la hiérarchie de la firme, un groupe de ses informaticiens développe sur un PDP7 récupéré, un nouveau système reprenant quelques-unes des idées de MULTICS dans leur développement. C’est le noyau de ce qu’on appellera UNIX (par opposition à MULTICS). En avril 1970, Digital Equipement Corporation (DEC) lance la ligne PDP11 qui tourne sous UNIX et sur laquelle est porté le langage de programmation de haut niveau, FORTRAN. En janvier 1971, apparaît pour la première fois le nom de Silicon Valley dans la revue Electronic NWS. Le réseau ARPANET relie 23 ordinateurs.

Figure 32 – Machines installées de 1969 à 1980

Période 1969-1972 101

L’étude des droites de régression de la puissance de la période 1969-1980 (figure 33) ammène à plusieurs conclusions.

Figure 33 – Régression des puissances de 1969 à 1981

De l’IBM 360/75 au superordinateur Jean Zay

102

Les calculs de régression ont été faits avec EXCEL qui donne la formule de la courbe de régression. Pour le centre de calcul on relève a = 0,1656 b = 7,088 d’où un coefficient multiplicatif de exp(0,1656) = 1,179. Période

a centre de calcul

a TOP

1969 – 1980

0,165

0,235

Facteur multiplicatif Facteur multiplicatif centre de calcul TOP 1,179

1,235

Il y a deux conclusions : y la période a été bien choisie car les droites de régression ne s’écartent pas beaucoup des valeurs installées. Il n’y a pas de décrochements ; y les puissances en un an ont été en moyenne multipliées par 1,179 pour le centre de calcul et 1,235 pour le TOP, soit pour la loi de Moore un coefficient d’augmentation de 1,39 pour le centre et 1,52 pour le TOP en deux ans. Cette période sera divisée elle-même en deux parties. La première jusqu’en 1972 est celle du démarrage. La seconde de 1972 à 1980 incluse est celle de la tentative pour instaurer un régime de croisière dans un environnement méfiant. Ces années ont été celles de l’installation et de la confirmation du centre de calcul. Il s’est construit autour de sa devise : centre de service où les chercheurs de toutes les disciplines trouveront la possibilité de faire les calculs dont ils ont besoin et qu’ils ne peuvent pas faire ailleurs. Elle était gravée dans le marbre et tout le personnel l’a faite sienne. Cette période décisive de mise en place de la structure a permis au centre de remplir son objectif de service. Les résultats en calcul intensif sont arrivés très vite,  en chimie théorique, dynamique des fluides, spectroscopie et traitement de données astronomiques. En effet les chercheurs étaient prêts et ont immédiatement commencé à faire au CIRCÉ les calculs qu’ils faisaient auparavant à l’étranger faute de moyens chez eux. Beaucoup, à cette époque, avaient travaillé à l’étranger sur du matériel IBM. De sorte que, un an après l’ouverture, 1000 utilisateurs appartenant à 250 laboratoires étaient recensés et soit faisaient du calcul intensif, soit s’initiaient à l’informatique, tous sous la houlette du service d’assistance aux utilisateurs. Après que les bases ont été posées et consolidées, le régime de croisière s’est instauré. Cela ne veut pas dire que tous les problèmes aient été résolus. Au contraire, ils commençaient. Mais le bateau était lancé. Il survivra aux tempêtes.

5.1 Évolution des puissances de 1969 à 1981 C’est au milieu de tout ce bouillonnement, à l’étranger, d’idées et de réalisations que le centre de calcul cherche, pour son installation un matériel puissant, le plus fiable possible et dans son budget. Pendant que se mettait en place chez nous le premier centre de service, à l’étranger on en était déjà aux débuts d’UNIX qui remplaçait MULTICS, aux réalisations de CRAY, à la mise en place des premiers réseaux. Il était temps de prendre le train en marche. Peu importe l’origine de l’outil et du modèle d’organisation puisqu’ils avaient largement fait leurs preuves. L’important était ce que l’on allait en faire.

Période 1969-1972 103

Le figure  33 a montré une évolution exponentielle des puissances offertes, et chaque année la puissance moyenne a été multipliée par 1,18, alors que celle du TOP l’a été par 1,24. Ce ne sont pas de mauvais choix techniques qui nous ont empêchés de faire plus, mais la nécessité de faire évoluer le centre à budget constant et les nombreux rejets de la commission informatique.

Il a déjà été dit qu’au centre de calcul les documents concernant cette époque avaient été détruits. Il en reste cependant quelques-uns, épars, en particulier un exemplaire d’une plaquette présentant le CIRCÉ datant de 1970 à usage de ses utilisateurs. Elle rend sensible le fait que, à sa création le CIRCÉ avait deux catégories d’utilisateurs. Les uns avaient des programmes qui utilisaient toutes les ressources de la machine, qu’ils satureraient volontiers. Les autres abordaient l’informatique et il fallait leur expliquer ce qu’étaient, un mot, un octet, la mémoire vive, les mémoires auxiliaires etc. Faire coïncider ces deux mondes et qu’ils soient satisfaits tous les deux était un difficile travail d’équilibriste. La plaquette est touchante, parce que non seulement c’est un cours d’informatique pour débutants, mais parce qu’elle tente de faire comprendre l’engagement de tout le personnel 91. Son style marque une époque. Et ça a marché  ! Non seulement, nous l’avons vu, pour les utilisateurs extérieurs, mais pour les sciences humaines. C’est le centre de calcul qui est devenu le centre de rencontre des diverses spécialités de sciences humaines qui se côtoyaient pour les premières fois.

5.2 La période de mise en place du centre : 1969-1972 À cette époque, l’architecture des ordinateurs du marché se réfère à celle définie par Von Neumann 92. Les gammes de machines des constructeurs sont assez disparates selon que le client souhaite effectuer des calculs scientifiques ou exécuter des applications de gestion d’entreprise. 91

Plaquette du CIRCÉ. Archives de la DIS. L’architecture de Von Neumann est un modèle d’ordinateur qui utilise une structure de stockage unique pour conserver à la fois les instructions et les données demandées ou produites par le calcul. De telles machines sont aussi connues sous le nom d’ordinateur à programme enregistré. La séparation entre le stockage et le processeur est implicite dans ce modèle. (https://fr.wikipedia.org/wiki/Architecture_de_von_Neumann) 92

De l’IBM 360/75 au superordinateur Jean Zay

104

La série IBM 360, de troisième génération, annoncée en 1964, comporte de nombreuses innovations permettant qu’elle soit aussi performante pour les applications scientifiques (arithmétique flottante) que pour celles de gestion (arithmétique décimale). La série 360 a massivement contribué à imposer les ordinateurs IBM dans le monde tant scientifique que celui des affaires 93. Les modèles de la série sont installés dans les grands centres de calcul français tels que ceux du CEA, EDF, etc. comme dans ceux de grandes entreprises privées.

5 .2 .1

Matériel

On retrouve beaucoup de ces renseignements techniques dans la première plaquette du CIRCÉ 94. À sa création, le centre de calcul dispose du parc de machines suivant : − un ordinateur 3600 Control Data « diskless » (à bandes magnétiques) ; − un IBM 360/50, mémoire 512KB, cycle 2000 ns, environ 0,3 MIPS ; − un IBM 360/75, mémoire 1MB, cycle 750 ns, environ 1 MIPS. Date

Type Puissance Nombre d’équipement en MIPS de CPU

CDC 3600 1969IBM 360/50 1972 IBM 360/75

Complément d’information

0,30

1

déménagé depuis la Rue du Maroc à Orsay

0,30

1

installé à Orsay

0,94

1

installé à Orsay

5 .2 .1 .1 . L’ordinateur 3600 Control Data C’est un ordinateur de moyenne puissance qui comporte : − une mémoire centrale de 64 000 mots de 48 bits dont le cycle de base est 1,5 µs environ ; − Gibson Mix → puissance 337 kIPS ; − un lecteur lisant 1200 cartes à la minute ; − une imprimante dont la vitesse est de 1200 lignes par minute.

93 94

https://fr.wikipedia.org/wiki/IBM_360_et_370 Plaquette CIRCÉ de 1972.

Période 1969-1972 105

Les mémoires auxiliaires disponibles comportent huit dérouleurs de bandes magnétiques type 607 permettant d’écrire jusqu’à 800 caractères par pouce (800 bpi), dont deux contiennent le système d’exploitation et des programmes dits de service. Le 3600 est utilisé suivant le mode classique des trains de travaux (ou moniteur), pour la mise au point ou l’exploitation de programmes de recherche. L’introduction des travaux et l’impression des résultats sont faits séparément sur CDC 3600 ou sur IBM 360.

Figure 34 – William Norris, président de Control DATA, au pupitre du CDC 3600 (© Courtesy of Gwen Bell)

5.2.1.2. L’ordinateur IBM 360 modèle 50 Ses principales caractéristiques sont : − une mémoire de 524 KB Des mémoires auxiliaires à accès sélectif qui sont caractérisées par le fait qu’il est toujours possible de choisir et de sélectionner une information et d’aller directement chercher celle-ci, là où elle est stockée, par opposition aux mémoires dites séquentielles, telles les bandes magnétiques où la recherche suppose le défilement de la bande jusqu’au moment où l’information désirée passe devant le mécanisme de lecture. Les mémoires auxiliaires comprennent (figure 35) : − une unité de huit disques amovibles 95 2314, dont la capacité de stockage est de 233  millions d’octets et le temps moyen d’accès est de 60 millisecondes ; − un débit d’un canal d’E/S 1,3 MB/s ; − un tambour magnétique IBM 2301, capacité 4 MB, débit 1,2 MB/s, temps d’accès moyen 8,6 ms ; − un disque amovible IBM 2314, capacité 29 MB. Il comprend en outre : − un lecteur de ruban perforé type 2671, lisant 1000 caractères/seconde ; − un perforateur de bande, type 1012.

95

En raison de leur apparence, ils ont acquis le surnom de « Fours à pizza ».

106

De l’IBM 360/75 au superordinateur Jean Zay

Figure 35 – Schéma d’ensemble des IBM 360/75 et 360/50

Figure 36 – IBM 360/75

Période 1969-1972 107

5.2.1.3. L’ordinateur IBM 360 modèle 75 (figure 35)

Il comprend (figure 36) : − une mémoire de 1048 kB dont le temps d’accès est de 750 ns pour 8 octets ; − une mémoire à ferrites supplémentaire, à accès direct de 1 048 octets ; le temps complet de lecture et d’écriture, pour un bloc de 8 octets est de 8 µs ; − deux tambours magnétiques, type 2301, de 4  MB chacun, dont le délai moyen d’accès est de 8,6 millisecondes et la vitesse de transfert de 1,2 million d’octets par seconde ; − une unité de huit disques amovibles 2314, en commun pour ces deux ordinateurs 360 ; − une mémoire à cellules de 400 MB et d’accès relativement plus lent : entre 175 et 600 millisecondes ; − une unité de disques 2311 dont la capacité de stockage est de 7,25 MB et le temps moyen d’accès de 75 ns ; − huit dérouleurs de bandes 2401 ; la vitesse de lecture et d’écriture est de 60 Mo/s avec une densité d’enregistrement de 800 bpi ; − six imprimantes fonctionnant à 1000 lignes par minute ; − deux lecteurs-perforateurs de cartes (lecteur  : 1000 cartes par minute  ; perforation : 600 cartes par minute) ; − deux traceurs de courbes ; − deux terminaux à écran cathodique 2260 ; − une unité de visualisation graphique 2250 ; − deux unités de contrôle de terminaux, permettant la connexion de terminaux lents (type 2740, machine à écrire) et rapides (petits ordinateurs type 1130 ou lecteurs-perforateurs-imprimantes 2780).

5.2.2 Système d’exploitation Le 50 et le 75 travaillent en multiprogrammation sous le système MVT/ASP, le premier étant consacré aux entrées-sorties et le second aux calculs. Le schéma ci-dessous montre le trajet d’un travail dans les deux ordinateurs depuis l’entrée des données au lecteur jusqu’à la restitution des résultats sur l’imprimante ou une console graphique interactive.

Figure 37 – Cheminement des travaux dans l’ensemble 360/50, 360/75 travaillant sous MVT/ASP

108

De l’IBM 360/75 au superordinateur Jean Zay

5.2.3 Comment utiliser les ordinateurs Aujourd’hui, dans la salle machine, il n’y a que des baies (ou racks) techniques contenant les éléments matériels du supercalculateur tels que les lames 96, les nœuds 97 de calcul et les processeurs 98. D’autres baies, incluent les serveurs du système de fichiers et d’autres serveurs de service. Enfin, des baies de brassage réseaux complètent les éléments de configuration matérielle dans la salle machine. Des ingénieurs travaillent dans leurs bureaux aux étages et un technicien surveille le réseau. Le silence est total. Et cela pour deux raisons : la première est que l’exploitation et la maintenance du matériel sont assurées à distance par le constructeur, la seconde est que le centre comme tout autre de cette importance est sous surveillance constante. Tout visiteur qui franchit la première porte doit déposer ses papiers d’identité dès l’accueil. Ils ne lui seront remis qu’à sa sortie. Puis il est pris en charge par un membre du personnel qui ne le quittera plus. Ce personnel est divisé en plusieurs groupes, munis chacun d’un badge qui lui donne accès aux parties du bâtiment où son travail risque de l’appeler. Les salles de cours et la cafétéria où il risque d’y avoir « foule » occupent les ailes droite et gauche du rezde-chaussée aussitôt après l’accueil et la première porte, après le premier contrôle. Deux autres successives au rez-de-chaussée protègent la salle des machines. En 1969, l’ambiance était très différente. On a peine à imaginer à la fois les conditions de travail d’alors et le nombre de personnes nécessaires au maintien et à l’exploitation des machines pour un service fiable et sans interruption. À ses débuts, le bâtiment est une « ruche » dans laquelle l’utilisateur entre et sort sans contrôle d’accès, sauf dans la salle machine, bien protégée. En cas grave, un rideau métallique actionné de l’intérieur peut se déployer et en renforcer l’isolement. À cette époque, la façon de travailler de l’utilisateur dépend de sa situation géographique.

5.2.4 Traitement par lots

Figure 38 – Schéma de traitement par lots 96

Chaque lame contient des nœuds de calcul CPU ou 1 nœud de calcul CPU+GPU. Les nœuds comprennent deux processeurs (ou sockets), et pour les nœuds GPU, 4 cartes graphiques accélératrices (GPU). 98 Chaque processeur est constitué de plusieurs cœurs physiques. 97

Période 1969-1972 109

S’il est physiquement dans le centre de calcul, il est souvent venu par la navette du centre de calcul qui, à certaines heures en début et fin de journée, fait des trajets entre la gare du RER au guichet à Orsay et le CIRCÉ. Une fois sur place, il a le choix entre le libre-service et le dispatching. S’il est entre 7 h et 20 h, si son job (le passage en machine du travail soumis) dure moins d’une minute, s’il ne demande pas de montages de mémoires auxiliaires, s’il aboutit à moins de 1000 lignes d’impression, alors il intro- Figure 39 – Dépôt au duit lui-même ses cartes dans le lecteur réservé et dispatching récupère ses résultats. Le temps d’attente dépend de la charge. Par exemple, les 20 et 21  octobre 1969, le temps moyen d’attente était de 3 minutes 30 secondes. Si son job ne répond pas à ces conditions, il remplit un formulaire (figure  4), donne son paquet de cartes, programmes et données à un technicien du dispatching qui le transmet à un des opérateurs qui lui, l’introduit dans un lecteur, d’où il rejoindra la file d’attente. C’est le traitement par lots  : un autre technicien du dispatching, récupère les listes de résultats qui sortent des imprimantes, les découpe, les classe par nom d’utilisateur indiqué en fin d’impression Figure 40 – Terminal 2740 de chaque travail. Il met chaque liasse dans les cases spéciales devant lesquelles il y a embouteillage d’utilisateurs attendant leurs résultats, un peu comme dans les aéroports où on attend ses bagages qui tournent sur le tapis roulant. L’utilisateur qui n’a pas la possibilité de venir à Orsay, mais est localisé à Paris, peut déposer ses travaux à un des points relais dans la capitale : faculté des sciences de Jussieu, École Normale Supérieure, École polytechnique, Muséum, Maison des sciences de l’homme, où un chauffeur du CIRCÉ passe matin et soir, prendre les paquets de cartes à traiter, quelquefois une bande magnétique transportant des données et ramène les résultats. Enfin le CIRCÉ étant le centre national, l’utilisateur de province n’a d’autre ressource que les services postaux. À  la poste d’Orsay, le chauffeur avait une place spéciale réservée dans la salle de tri pour tous ses colis journaliers à déposer ou à récupérer.

5.2.5 Télétraitement À l’ensemble 360/50 et 360/75 étaient reliés des terminaux. Les uns, dits lourds ou passifs, au nombre de 4, ne faisaient que lire les cartes, les transmettaient à la file d’attente et restituaient les résultats. Les 24 autres, gérés par

110

De l’IBM 360/75 au superordinateur Jean Zay

le système CRBE 99, étaient dits conversationnels. Ils se composaient de deux machines à écrire avec clavier, l’une pour l’entrée des informations, l’autre pour l’impression des résultats. Ils offraient aussi la possibilité de consultation de fichiers et de mise au point des programmes. Tous étaient reliés aux ordinateurs par lignes téléphoniques. Ils étaient installés au CIRCÉ ou chez les utilisateurs. C’est la direction du CNRS qui statuait sur l’attribution d’un terminal à un laboratoire. Celui-ci devait soumettre un rapport pour avis technique au CIRCÉ. Il comprenait outre la description du matériel une copie de la convention passée entre le CIRCÉ et le demandeur qui fixait les responsabilités de chacun.

5.2.6 Personnel et fonctionnement du centre Toute cette organisation devait fonctionner 365  jours par an, à plein, sans heurts, du lundi matin 7 heures au dimanche matin 7 heures et à effectif réduit le dimanche, consacré essentiellement aux travaux lourds ainsi que trois jours fériés : Noël, Pâques, 1er mai. L’organigramme du centre de calcul en régime de croisière est décrit ci-dessous. Il tournait avec 4 équipes d’opérateurs, 3 étant au travail et une en récupération 100, 5 personnes au dispatching et 2 chauffeurs. Tous travaillaient en horaires décalés. L’enjeu dès la création a été la continuité de l’exploitation, élément primordial pour l’atteinte du but fixé  : que les chercheurs puissent mener à bien leur recherche. L’administration comprenait outre les deux secrétaires de direction, une responsable du groupe et sa secrétaire, une secrétaire pour la comptabilité du ticket modérateur et une autre s’occupant des achats, une documentaliste, deux chauffeurs, un agent d’entretien. L’effectif de ces groupes va considérablement varier dans les cinquante ans à venir. La rémunération du personnel a nécessité des initiatives de la part de Charles Gabriel à la direction générale du CNRS et de M. Morvan, le directeur régional à Gif-sur-Yvette. Un système de primes et temps de récupération compliqué mais très encadré a permis d’ouvrir le centre avec le personnel travaillant suivant les règles imposées. Il n’y a pas eu de période de transition.

99

Le système CRBE a été développé en interne par les ingénieurs système du CIRCÉ et a été remplacé par TSO. 100 Les trois-huit ou 3×8 sont un système d’organisation d’horaires de travail qui consiste à faire tourner par roulement de huit heures consécutives trois équipes sur un même poste, afin d’assurer un fonctionnement continu sur 24h. Chaque semaine, les équipes changent de tranche horaire.

Période 1969-1972

111

Figure 41 – Organigramme du personnel du CIRCÉ pendant la première décennie

5 .2 .7

Problèmes de logistique

Des problèmes de logistique ont dû être résolus avant l’ouverture du centre aux utilisateurs. Le centre était une copie de celui du JPL, mais ce dernier était situé dans un très grand campus où étaient installés tous les services annexes nécessaires à des chercheurs ayant des horaires décalés et quelquefois travaillant 24 h d’affilée. Notre « usine à calcul » était et est toujours logée sur le territoire de la faculté Paris-Sud, appelée le plateau, reliée à la vallée par une route sinueuse. Une annexe de la cantine y ouvrait pour les laboratoires du plateau entre 11 h 30 et 14 h. En 1969, nous n’avions pour voisins que quatre laboratoires distants les uns des autres d’une centaine de mètres et dont le personnel travaillait à des heures normales. Il y avait bien des chercheurs qui travaillaient quelque fois la nuit, mais ils étaient discrets. En dehors de ces heures, bordé d’un côté par la forêt toute proche et à la limite de champs de blé, la zone construite du plateau était un désert complet, loin de toute activité. Il est difficile d’imaginer le plateau d’alors au moment où on y construit le campus Paris-Saclay avec ses seize grues géantes, et un service d’autobus qui le dessert et bientôt un métro. Mais en 1969, il fallait bien que le CIRCÉ vive. Aussi a-t-il fallu dès l’ouverture organiser un service de navettes avec deux chauffeurs, matin et soir pour le personnel et les utilisateurs. Au second étage, ont été aménagées deux pièces communicantes pompeusement appelées cafétéria, ouvertes au seul personnel. Une personne de service, appartenant à la société de nettoyage, s’y tenait pendant les heures ouvrables pour servir un café à ceux qui voulaient faire une courte pause ou au retour de la cantine. C’était une salle de réunion informelle, où elle préparait une simple collation à ceux qui n’avaient pas le temps d’aller à la cantine. Elle faisait avec le chauffeur les

112

De l’IBM 360/75 au superordinateur Jean Zay

quelques courses nécessaires. Quand elle n’était pas en service, la cafétéria restait ouverte au personnel. Les opérateurs disposaient d’un grand réfrigérateur pour leurs provisions. Ils y prenaient leurs repas de nuit et leur petit déjeuner avant de repartir le matin avec le chauffeur à la gare du Guichet à Orsay, la première équipe de jour ayant déjà été amenée à pied d’œuvre 101.

5.2.8 Rapports avec les autorités de tutelle. Ticket modérateur Pierre Jacquinot a quitté la direction générale du CNRS peu après la création du centre de calcul. Il a remis son «  testament  » à son ministre le 17  juillet 1969. Son successeur, Hubert Curien, avait vu à travers ses collègues étrangers que l’informatique est «  un outil d’avenir  » et a fait tout ce qui était en son pouvoir pour soutenir le jeune CIRCÉ. Quatre ans après, il est devenu directeur du CNES (Centre National des Études Spatiales). Il n’ignorait pas la place de l’informatique dans les programmes spatiaux. Il connaissait bien le CNRS et son fonctionnement puisque depuis trois ans, il était directeur scientifique du département Physique-Mathématiques. Il avait déjà mesuré le manque d’enthousiasme de ses collègues pour l’informatique. Dès notre première rencontre, il m’avait prévenue : « Vous discuterez directement avec moi les questions du centre de calcul. Je les verrai moi-même avec les directeurs scientifiques. » Mais a-t-il ajouté avec son sourire légendaire : « J’espère que je ne le regretterai pas. Vous travaillez sans filet. Vous n’avez pas droit à l’erreur. » Il s’est trouvé dès le début confronté à notre premier handicap  : nous devions faire des plans de remplacement de matériel. Seuls des matériels étrangers répondaient à notre cahier des charges. Mais le gouvernement avait mis en place des comités, missions et commissions informatiques présidés par Wladimir Mercouroff, qui non seulement nous invitaient à choisir du matériel français mais exerçaient leur droit de veto si nous choisissions un autre constructeur. Nous vivions dans la terreur de ces commissions. Nous étions revenus au temps où le service Blaise Pascal voulait construire une machine française. Mais cette fois, en plus, ce n’était pas nous qui choisissions du matériel français inadapté. On nous l’imposait. Hubert Curien a trouvé une solution. En février 1971, il a appelé W. Mercouroff au poste de directeur scientifique d’un département « résiduel » qui englobait les mathématiques, l’astronomie, la géophysique, la géologie et l’océanographie 102. Ce dernier cumulait cette fonction avec celles qu’il avait au ministère. Ainsi, il se trouvait dans la situation ambiguë de défendre au nom du CNRS des dossiers qu’il devait refuser en tant que directeur au ministère.

101

La copie du centre du JPL avait été jusqu’à celle du mobilier de la cafétéria. Elle était décorée de photos de Mars à côté de superbes fractales. 102 Wladimir Mercouroff, Témoignage  : «  L’informatique dans l’enseignement et au CNRS au début des années 70  », Histoire de la recherche contemporaine, tome  IV, n° 2015.

Période 1969-1972 113

Pour éclairer la situation, il va être fait de larges citations du texte intitulé  Témoignages 103, que W.  Mercouroff a écrit en 2017 au sujet de ses premières fonctions ministérielles. «  Bien que débutant en la matière, j’ai accepté en mars 1970 de devenir “chargé de mission à l’informatique” au ministère de l’Éducation nationale. En fait, ces fonctions m’ont donné des responsabilités très larges au sein du ministère : l’enseignement de l’informatique dans tous les ordres d’enseignement, l’introduction de l’informatique dans la gestion de l’Éducation nationale, l’utilisation des ordinateurs pour l’enseignement et la recherche, ainsi que la gestion du parc de matériels informatiques. C’était le deuxième parc français après celui du ministère des Finances. À moins de trente-six ans, j’ai eu rang de directeur au ministère. » Tout est dit dans cette citation puisque la politique du gouvernement était d’imposer le matériel français qui ne nous convenait pas. W. Mercouroff précise ses charges ministérielles : « Il y avait déjà une Commission des équipements informatiques ; elle examinait tous les projets d’équipement. Elle était, pour l’essentiel, interne au ministère, mais un représentant du délégué à l’informatique y siégeait en application de sa mission interministérielle : il avait un pouvoir de veto, qu’il faisait jouer plutôt en faveur de l’industrie nationale que de la cohérence du projet, mais il ne pouvait pas toujours faire usage de ce droit. » Dans ces conditions, pour ce qui est des équipements, W. Mercouroff a donné une grande attention à ses missions au ministère et à l’Enseignement supérieur, beaucoup plus qu’au CNRS, probablement pour deux raisons. Ses préoccupations allaient à l’enseignement et à la gestion. Or, au CNRS on faisait dans les centres de calcul un enseignement très ciblé sur les matériels utilisés ou à venir et pas du tout de gestion. Il n’est pas venu au CIRCÉ. Et dans son témoignage, il n’a écrit que trois fois le nom CIRCÉ, une fois pour dire qu’il est sous sa tutelle, deux fois pour dire qu’on n’y appliquait pas le ticket modérateur, ce qui est faux. C’est le centre qui l’a appliqué le plus sérieusement quoi qu’il en dise. Les seuls contacts professionnels que j’aie eus avec lui se situent pendant un voyage à Moscou en 1979. J’étais invitée en tant que chercheur par G. Zhizine et Vassili Moroz, de l’Académie des sciences soviétique, pour discuter d’un projet d’interféromètres à construire et à installer dans un bâtiment neuf, conçu spécialement pour abriter leurs recherches en spectroscopie par transformée de Fourier. À cette époque, W. Mercouroff, qui avait quitté le CNRS en 1975, y était revenu comme directeur des relations extérieures, ce qui explique probablement sa participation au voyage. Même pendant ce voyage, nous avons eu deux programmes complètement séparés. Les deux actions marquantes de W.  Mercouroff au CNRS, écrit-il, ont été la fermeture de deux laboratoires  : liquidation de ce qui restait de l’ancienne informatique de la rue du Maroc, et fermeture du centre de calcul de Luminy. 103 Wladimir Mercouroff, Témoignage : « L’informatique dans l’enseignement et au CNRS au début des années 70 », Histoire de la recherche contemporaine, tome IV, n° 2015.

114

De l’IBM 360/75 au superordinateur Jean Zay

À la dissolution de l’Institut Blaise Pascal, Jacquinot avait pris grand soin de préserver la partie recherche en créant quatre laboratoires associés. Ne restaient que l’informatique de gestion à laquelle personne n’a touché et le laboratoire propre de de Possel, créé quatre ans auparavant pour l’abriter lui et son technicien, avec leurs recherches en traduction automatique. On croyait ce problème définitivement réglé. Mais Mercouroff a dissous ce laboratoire propre. Il a aussi fermé le centre de calcul de Luminy, âprement défendu par des chimistes de renom, mais apparemment mal géré, pour le remplacer par un centre universitaire installé à Marseille sous la direction de Mme G. Connat. Dans les années suivantes, elle est devenue représentante de l’Enseignement supérieur dans les commissions informatiques et autres instances ministérielles auxquelles le CNRS était soumis. W. Mercouroff a fait des choses importantes pour les universités qu’il a dotées de matériel français, pour l’organisation de l’enseignement de l’informatique, pour l’informatisation dans le secondaire. En particulier, dans les universités, il a créé les Méthodes Informatiques Appliquées à la Gestion des Entreprises (MIAGE). Aujourd’hui elles sont devenues des masters. On comprend comment l’appui de H. Curien a été déterminant pour nous à cette époque. Imposer du matériel Bull au CIRCÉ, c’était signer sa disparition ; W. Mercouroff rappelle que, en tant que directeur scientifique de l’informatique, au CNRS, il avait sous sa tutelle, les centres de Strasbourg, de l’IN2P3 et du CIRCÉ. En fait les dossiers les plus importants des demandes en équipement du CNRS étaient remis à J. Curien qui les soumettait ensuite à son directeur scientifique avec charge de les défendre. Ce qui a fait dire à W. Mercouroff : « J’ai fait honnêtement appliquer la préférence nationale, résistant aux pressions, y cédant parfois. Ainsi, le remplacement du matériel IBM de l’INAG (Institut National du CNRS pour l’Astronomie et la Géophysique) a donné lieu à un psychodrame  : Jean Kovalevsky, président de la section d’astronomie et de géophysique du CNRS, a été dépêché pour m’expliquer que si j’imposais un autre matériel qu’IBM, tout le travail qui avait été fait pour les calculs astronomiques du Bureau des longitudes était anéanti ; comme j’étais aussi directeur scientifique au CNRS pour l’astronomie, je me suis incliné. » Mais il est une autre de ses initiatives qui fut très importante pour nous aussi. C’est l’instauration du ticket modérateur. Faute de trouver le moyen de contrôler l’opportunité des travaux soumis au centre de calcul, et pour trouver des crédits pour financer les centres universitaires, Mercouroff a institué le ticket modérateur, c’est-à-dire le paiement d’une partie du calcul par les utilisateurs sur leurs crédits de fonctionnement 104 : au début elle ne s’appliquait qu’à l’Enseignement supérieur. Mais elle a été étendue aux centres du CNRS : « J’ai pu définir les centres de calcul interuniversitaires, qui regroupaient des moyens de calcul alors très coûteux, comme centres de services pour l’enseignement, la gestion et la recherche de plusieurs universités. Ils devaient faire 104 Wladimir Mercouroff, Témoignage  : «  L’informatique dans l’enseignement et au CNRS au début des années 70  », Histoire de la recherche contemporaine, tome  IV, n° 2015.

Période 1969-1972 115

payer un “ticket modérateur” 105 en facturant des heures de calcul ; le coût de l’heure ne dépendait que des frais de maintenance et de fonctionnement, les investissements étant exclus. Cette règle, laborieuse à faire appliquer, a été utile pour éviter le gaspillage, et donner quelque aisance aux centres. C’est au CNRS, dans le Centre Inter-régional de Calcul Électronique (CIRCÉ) d’Orsay, que j’ai eu le plus de mal à la faire appliquer. Le chargé de mission à l’informatique que j’étais a écrit dans ce sens une belle lettre au directeur général du CNRS qui l’a transmise, délicieuse ironie, au directeur scientifique du CNRS que j’étais devenu à ce moment-là… » H. Curien ne m’a jamais mentionné cette lettre. Il savait que, n’ayant pas droit à l’erreur, je suivais à la lettre les directives émanant du ministère. Mais il a beaucoup discuté du ticket modérateur avec moi, car dès 1970 le CIRCÉ avait plus de 1000 utilisateurs et la comptabilité occupait un ingénieur et une secrétaire à plein temps. Dans cette déclaration, W. Mercouroff donne une définition du centre de calcul universitaire à l’opposé de celle d’un centre de service, que d’ailleurs il ignore. Il n’avait pas pu empêcher la création du CIRCÉ, mais toute son action future a été de limiter son développement.

5.2.9 Les modalités pour obtenir du temps calcul Elles sont rappelées dans la plaquette du CIRCÉ de 1970 : « Le centre de calcul ne peut en aucun cas, attribuer lui-même des heures de calcul. Il gère les attributions faites par la direction du CNRS qui tient compte de l’avis des commissions et du montant total d’heures à distribuer. Il rend compte de sa gestion aux utilisateurs. Les demandes sont déposées annuellement avec les autres demandes de crédits pour l’année suivante. Une révision peut être faite en cours d’année. L’autorisation de calcul est accompagnée de l’attribution automatique de crédits correspondants. »

5.2.10 Fonctionnement du centre Le centre de calcul fonctionne avec : − un comité de direction ; − une assemblée d’utilisateurs qui exposent leurs résultats, leurs réclamations et suggestions sur le fonctionnement du centre, leurs prospectives sur leurs besoins. Ils choisissent leurs représentants dans les différents comités et ceux qui participeront à l’élaboration des schémas directeurs successifs.

L’informatique dans l’enseignement et au CNRS  : «  Comme pour les soins médicaux, le principe du ticket modérateur consiste à ne faire payer au bénéficiaire qu’une fraction du coût total d’une prestation ». 105 Document  :

116

De l’IBM 360/75 au superordinateur Jean Zay

Le rôle de cette assemblée grandira avec les années. Trois comptes rendus de réunion de ces comités ont été retrouvés et seront discutés à leur place chronologique.

5.3 Le système Les dix ingénieurs système étaient soumis à un régime très dur, car les machines d’alors tombaient souvent en panne, matériel ou logiciel. Un, ou si nécessaire, plusieurs ingénieurs de maintenance du constructeur étaient sur place nuit et jour. Mais les ingénieurs CIRCÉ connaissaient les travaux en attente au moment de la panne. Ils avaient les éléments pour identifier l’origine de la panne : détection d’une erreur système imputable au constructeur ou due à des modifications du constructeur ou du personnel.

Figure 42 – L’équipe système au travail

Les mises en place de modifications du système, de test des améliorations proposées par le constructeur, de la mise en route des nouvelles versions, avaient toujours lieu la nuit. Dès la création du centre de calcul, une équipe d’ingénieurs système prend en charge le système d’exploitation (OS, pour Operating System) livré par le constructeur IBM. Son rôle est : − d’installer les systèmes ; − d’optimiser les ressources matérielles et logicielles ; − de sécuriser le fonctionnement des systèmes ; − d’étudier les nouvelles versions de l’OS. Face à la pénurie en compétences, le centre de calcul recrute des informaticiens débutants 106, ou des jeunes diplômés scientifiques, qui se convertissent – par institut de formation interposé – aux grands systèmes 107. Par expérience, il 106 MIAGE

de l’université de Grenoble (centre de recherche IBM), de Montpellier (présence Usines IBM), Paris. 107 Le centre de formation d’IBM a permis de former les ingénieurs système pour en faire de véritables experts des grands systèmes.

Période 1969-1972 117

est constaté qu’en moyenne, une année est nécessaire pour qu’un jeune ingénieur devienne opérationnel au sein de l’équipe.

Figure 43 – L’ingénieur système Annie Potin

Compte tenu de la complexité de l’OS des grands systèmes IBM, MVT puis MVS, et de l’ampleur des tâches à accomplir, chaque ingénieur se charge d’un domaine fonctionnel tel que : − OS/MVT  : performances et mise à niveau des versions successives du système, dimensionnement des configurations CPU, mémoire et unités de stockage de données ; − VM : environnent pour analyse et tests des nouvelles versions ; − ASP : traitement par lots ; − Temps partagé : connexion et choix des terminaux. Pour suivre les innovations technologiques, les ingénieurs système entretiennent des relations régulières avec les constructeurs d’ordinateurs, les éditeurs de logiciels et les opérateurs de télécommunication et constructeurs de terminaux. En cas d’incidents complexes entraînant l’arrêt des services, l’équipe système est sur le pont pour analyser de bout en bout la situation. Elle effectue les réparations logicielles afin de rétablir le service dans les meilleurs délais. Il se peut que des correctifs soient attendus du constructeur pour corriger définitivement l’incident. En attendant, l’ingénieur système développera une procédure de contournement (Bypass) de l’erreur pour assurer la continuité des services. En cas de pannes matérielles, c’est la maintenance du constructeur qui intervient suivant les modalités du contrat. Chaque année la direction missionne des membres de l’équipe système pour assister aux réunions des utilisateurs scientifiques de grands systèmes IBM. Ce sont les associations : − Share aux États-Unis ; − SEAS en Europe. Les réunions sont programmées deux fois par an, sur la côte Est et la côte Ouest des États-Unis alternativement pour le Share. Elles comportent des

118

De l’IBM 360/75 au superordinateur Jean Zay

programmes de conférences et des forums improvisés sur des thèmes communs à plusieurs utilisateurs (BOF : Birds of a feather). C’est un lieu de rencontre unique entre utilisateurs de grands centres de calcul IBM. Elles sont une source de formation continue et l’opportunité de prendre connaissance des nouveautés technologiques et du calendrier des nouvelles versions système.

Figure 44 – Article Magazine Ordinateur, Françoise Perriquet, mai 1983

C’est l’occasion de visiter des centres de calculs scientifiques étrangers comparables au centre de calcul d’Orsay et échanger avec les équipes techniques pour améliorer les processus de gestion de grands centres de calcul. Des visites de centres de recherches IBM, comme le Watson Lab., sont organisées avec l’aide d’IBM France. Ce centre a été fondé en 1945 auprès de l’université Columbia sous le nom Watson Scientific Computing Laboratory, situé sur la côte Est des États-Unis. Ces visites permettaient de s’informer sur les évolutions de futures versions de systèmes. Le Thomas Watson Research Center est aussi connu pour le développement de la série des superordinateurs Blue Gene, au début un superordinateur avec 20 racks de 1024 processeurs, puis des versions de plus en plus élaborées, avec une performance de 36,00  Téraflops et au-delà au test LINPACK 108 dont des modèles seront installés en 2008 à l’IDRIS. Ces associations d’utilisateurs IBM vivent encore à ce jour.

5.4 Service aux utilisateurs Les vingt-cinq ans d’existence du CIRCÉ ont permis de former de nombreux chercheurs à l’informatique, que leur recherche relève du calcul haute performance ou pas et d’informer sur la vie du centre. Les services d’assistance réunissent des compétences pour aider les utilisateurs à mieux maîtriser l’accès

108 Le

LINPACK est un test de performance servant à classer les plus puissants superordinateurs du monde dans le TOP500.

Période 1969-1972 119

aux moyens informatiques mis à disposition. Comme pour l’équipe système, le centre de calcul recrute des informaticiens débutants 109, ou des jeunes diplômés scientifiques qui vont acquérir une expertise des technologies des systèmes du constructeur. Une permanence physique quotidienne est assurée pour : − répondre aux demandes d’information ; − aider à corriger des problèmes rencontrés lors de la soumission et/ou l’exécution des programmes ; − assurer de la formation, telle que des cours de programmation tant pour coder que pour utiliser des codes existants. La rédaction d’un bulletin  de liaison dénommé Interface est initialisé. Le premier numéro est publié en octobre 1972. Il sert à : − communiquer sur la vie du centre ; − informer de la disponibilité des machines ; − expliquer le langage de contrôle (JCL) pour la soumission de travaux ; − apprendre à gérer des fichiers. Des services spécifiques : − l’assistance mathématique ; − l’assistance traceur (BENSON) de graphiques ; − l’assistance à la connexion de terminaux lourds et terminaux TSO. Des questionnaires de satisfaction sont régulièrement soumis aux utilisateurs du centre de calcul. Les résultats de l’enquête sont communiqués dans la revue Interface.

Figure 45 – Exemple de calendrier de cours

De plus, des suggestions formulées par les utilisateurs et les réponses données par les responsables des services du centre sont publiées dans la revue Interface. Un exemple de sommaire est donné ci-dessous.

109 MIAGE de l’université de Grenoble (centre de recherche IBM), de Montpellier (présence Usines IBM), Paris.

120

De l’IBM 360/75 au superordinateur Jean Zay

Figure 46 – Exemple de sommaire d’Interface (collection personnelle de S.  Fayolle, cédée au centre).

Les membres de l’équipe d’assistance développent des procédures qui facilitent l’utilisation des moyens informatiques, des mémentos didactiques et des articles dans Interface. L’équipe a pris en main la mise à disposition de logiciels permettant la gestion des bases de données scientifiques. Au cours du temps, la bibliothèque des programmes du centre de calcul n’a cessé de s’enrichir. Les plus connus sont les SSP (Scientific Subroutine Package) distribués par IBM et les BMD (Biomédical Computer Program). Développés à l’université de Californie à Los Angeles, ils sont conçus pour l’analyse statistique de données. Certains programmes développés par les utilisateurs ou obtenus d’autres centres français ou étrangers sont mis à disposition et viennent enrichir les bibliothèques. À titre d’exemple, voici le sommaire d’un numéro spécial d’Interface « Bibliothèques ».

Période 1969-1972 121

Figure 47 – Numéro spécial d’Interface sur les bibliothèques (collection personnelle de S. Fayolle, cédée au centre).

5.5 Rôle des services d’exploitation Le travail des pupitreurs consiste à assurer le fonctionnement des machines et répondre aux ordres commandés par le système tels que : montage de bandes ou de disques, lancement de procédures de copies de fichiers, sauvegardes des données des utilisateurs, sauvegardes incrémentielles des systèmes : − le dispatching des résultats imprimés sur papier (listings) des travaux aux utilisateurs ; − l’administration et la surveillance des liaisons des terminaux des utilisateurs connectés au système central ; − les équipes d’opérateurs fonctionnent en 3/8 pour assurer un service 24h/24. Dans le chapitre suivant nous détaillons ces rubriques année après année.

Chapitre 6 Période 1972-1981 C’est à la suite des années 1969-1972 que le centre s’est affirmé et s’est aguerri car il a dû lutter pour ne pas dévier de ses objectifs : devenir et rester le centre de calcul intensif où on fait ce qui ne peut pas se faire ailleurs. Et aussi le lieu où l’on initie à l’informatique des disciplines qui jusqu’à présent n’étaient pas utilisatrices. Commença dès la création ce que Pierre Papon appellera plus tard « la bataille du centre de calcul ». Celle-ci s’est déroulée sur deux fronts : d’un côté renoncer au meilleur choix technique, faute de crédits et faire face à l’hostilité d’instances qui redoutaient de nous voir devenir « trop gros », de l’autre maintenir l’enthousiasme des chercheurs et celui du personnel, dont il était primordial de soutenir la motivation. Les trois tableaux suivants donnent une idée générale de l’évolution des matériels et des logiciels d’exploitation dans cette période. Elle sera commentée année par année. Les problèmes de recrutement et de formation des équipes qui l’ont servie, seront évoqués. Son étude ne serait pas complète sans un récapitulatif non exhaustif des résultats scientifiques qu’elle a permis. Le synoptique ci-dessous extrait de la figure  29 montre l’évolution des matériels. Date

Type équi- Puissance NB Puissance pement MF MIPS CPU Mflops

Compléments informations

2,7

1

Augmentation de la mémoire à 3 MGo en 1973

0,47

1

Décembre 1973 : arrêt IBM 370/165

IBM 370/168 19741980 IBM 370/158

3,1

1

0,7

1

1976- IBM 370/168 1980 IBM 370/168

3,1

1

3,1

1

1980- Amdahl V7 1983 IBM 370/168

5,5

1972- IBM 370/165 1974 IBM 370/155

3,1

Installation IBM 370 158 en remplacement du 370/155 IBM 158 remplacé par un second 168 Amdahl V7 Remplace le 1er 168

1

Figure 48 – Évolution du matériel du CIRCÉ

Arrêt du 370/168 en 1983

De l’IBM 360/75 au superordinateur Jean Zay

PA R C M A C H I N E S C I R C É P É R I O D E 1 9 6 9 - 1 9 8 4 11.5

1969-1972

1974-1980

3.1

5.5 3.1

1976-1980

1.5

1980-1983

NAS 9060 puis 9080

Amdahl V7

IBM 370/168

Amdahl V7

IBM 370/168

IBM 370/168

IBM 370/158

IBM 370/168

IBM 370/155

IBM 370/165

1972-1974

3.1 0.7

0.47

0.3

IBM 360/50

0.94

0.3

3.1

2.7

DPS8/62 M

5.5

IBM 360/75

14 12 10 8 6 4 2 0

CDC 3600

Puissance Mips

124

1983-1984

Figure 49 – Le parc machines du centre de calcul

Plus précisément :

Figure 50 – Évolution des matériels et systèmes en 1973-1974

6.1 Années 1972-1973 Les faits marquants de cette époque sont : 1. l’installation d’un IBM 370/165, mémoire 2 MB, cycle 25 ns, 2,7 MIPS, cache 16 K, cycle 80 ns remplace le 360/75 ; 2. l’installation de l’IBM 370/155, 0,47 MIPS qui remplace le 360/50 ; 3. la mise en œuvre du relai hertzien pour le télétraitement ; 4. la connexion des IBM 1130 installés dans certains laboratoires de recherche.

Période 1972-1981 125

Figure 51 – Pupitre IBM 370/165

Figure 52 – Salle machine CDC et IBM/370

Ce parc de machines IBM est exploité sous le système d’exploitation OS/MVT. Bien que celui-ci inclût de nombreuses facilités, il n’était pas complet, et des produits additifs ont été développés pour combler les lacunes. Beaucoup d’utilisateurs ont remplacé la fonctionnalité primitive de spool fournie nativement par  MVT. Les très grandes installations, comme le centre de calcul ont utilisé ASP pour gérer non seulement la file d’attente des travaux, le multitraitement mais encore la charge de travail. Cette même année 1972 voit la mise en œuvre de TSO (Interactif Timesharing Option), un sous-système, temps partagé interactif. C’est une option de l’OS/MVT qui offre la possibilité du travail à distance, de soumettre des travaux par lots, d’être avisé de leur réalisation et d’afficher les résultats sans attendre les rapports imprimés. TSO est largement utilisé pour le développement de programmes parce qu’il inclut un éditeur et intègre des débogueurs pour certains des langages de programmation utilisés sur système 360. Une salle équipée de consoles TSO a été mise à la disposition des utilisateurs dans un espace attenant au dispatching. Un terminal Tektronix affichait l’entrée d’un travail dans la file d’attente, son exécution et sa sortie, comme on peut suivre l’arrivée des départs et des avions dans un aéroport. En mai 1973, la mémoire de l’IBM 370/165 passe de 2 MB à 3 MB.

126

Figure 53 – Salle TSO

De l’IBM 360/75 au superordinateur Jean Zay

Figure 54 – L’attente devant l’écran IBM 3270, affichage de l’avancement de la file d’attente des travaux

6.2 Années 1974-1975 En mai 1974, un 370/158 remplace un 370/155. Ces années ont été marquées par un premier échec. L’accroissement du nombre d’utilisateurs et de la charge induite en grande partie à l’augmentation du calcul intensif, a conduit à envisager le remplacement de l’IBM 370/165 le plus rapidement possible. L’analyse de la charge, le résultat des benchmarks a amené au choix du 7600 CDC, qui était en concurrence avec l’IBM  370/168. C’était à ce moment-là, la meilleure machine pour le calcul scientifique lourd. Elle aurait permis pleinement de remplir la mission du centre en faisant ce qu’on ne pouvait pas faire ailleurs. Le CEA et le CIRCÉ préparaient des consultations pour les mêmes machines. La préparation du dossier a été très poussée. Plusieurs ingénieurs système y ont travaillé plus d’un an, réglant autant que possible tous les problèmes de transition d’un environnement IBM à celui de CDC. Ils ont fait plusieurs séjours aux États-Unis pour passer des trains de travaux dans des centres équipés de 7600, pendant que la direction du centre de calcul discutait âprement les réductions et engagements possibles consentis par le constructeur. Le jour où je suis allée avec P. Salzedo déposer le dossier final dans les mains de Gabriel, qui les avait soutenus dans leur démarche, il nous a annoncé qu’il n’avait pas pu avoir un arbitrage en leur faveur en comité de direction et que le choix devait aller au moins cher, c’est-à-dire IBM. Ce fut une terrible déception, mais pas la dernière. Il nous restait à annoncer la nouvelle aux ingénieurs qui avaient travaillé au projet, leur expliquer qu’ils n’avaient pas travaillé pour rien. Il fallait les remotiver pour qu’ils oublient CDC et se remettent en 24 h au travail sur IBM pour en tirer le maximum. Nous avons appris en lisant l’histoire du CNRS de Guthleben que le CNRS en général, après des années glorieuses, entrait dans « un trou d’air ». Ce fut aussi la fin des années glorieuses du CIRCÉ. Comme nous allons le voir, la dotation directe du CNRS n’a cessé de décroître. Pour non seulement survivre mais tenter au maximum de continuer à servir, les utilisateurs dont les besoins augmentaient, il n’a fallu compter que sur la baisse du coût des matériels

Période 1972-1981 127

à puissance constante, ou ce qui revient au même, l’augmentation de puissance à coût constant, les recettes du ticket modérateur et l’habileté de Salzedo. Il jonglait avec les compatibilités et les choix avisés, suivant le moment, de l’achat ou de la location de chaque unité de bandes, de disques ou de terminal. La première initiative en ce sens a été le remplacement de l’IBM 370/165 par un IBM 370/168 d’architecture identique mais plus puissant et doté de la mémoire virtuelle. La performance est poussée à 1,6  ns cycle par instruction pour une puissance de 3,1 MIPS.

6.2.1 La mémoire virtuelle Première machine (avec le 370/158) de la longue série des IBM 370, le modèle 370/168 est doté d’un système d’exploitation qui met en œuvre la mémoire virtuelle. C’est le système d’exploitation MVS (Multiple Virtual Storage) qui a pris la relève du système MVT. Le DAT (Dynamic Address Translation) est le mécanisme qui permet de convertir les adresses virtuelles en adresses réelles. Avec les systèmes TSO et VM/CMS, dès le milieu des années 70, la ligne de terminaux à écran IBM 2260 puis 3270 remplace les terminaux à boule IBM 2741 peu silencieux. Les terminaux 3270 servent également de pupitre aux opérateurs pour la conduite de l’exploitation des systèmes. OS/MVS est certainement le plus élaboré et le plus fouillé des systèmes d’exploitation IBM, certains disent le plus complexe et le plus lourd.

6.2.2 Le système VM/370 En 1974, IBM généralise la mémoire virtuelle à toute sa gamme 370. Le système VM/370 est annoncé en même temps. Le système VM/370 110 (Virtual Machine), combinaison d’un hyperviseur et d’un mini système conversationnel CMS, permet de simuler plusieurs machines virtuelles sur un seul matériel réel. Il est possible de faire tourner des systèmes d’exploitation différents, par exemple pour préparer les migrations d’une version système à l’autre. Le système VM/370 a facilité les tâches de mises à niveau des versions d’OS et les divers tests fonctionnels en partageant des ressources disques et fichiers. Il a aidé considérablement les ingénieurs système du centre de calcul à mener à bien leurs activités sans commander des arrêts de l’exploitation.

6.2.3 Qualité du service C’était une gageure d’essayer de faire fonctionner à plein une usine à calcul sans interruption, avec du matériel de l’époque sujet à des pannes et non redondant. Actuellement, quand il y a une panne d’un élément, la machine se reconfigure 110 Historiquement,

VM/370 dérivait de l’hyperviseur CP-67, mis au point en partie à l’université de Grenoble.

128

De l’IBM 360/75 au superordinateur Jean Zay

automatiquement et travaille en mode dégradé avec les parties en état de fonctionner. C’était une situation dont je n’avais pas l’expérience. Ce qui m’avait frappée à l’arrivée au JPL, c’était la régularité du service due en partie aux étages d’unités centrales, de dérouleurs de bandes magnétiques et de disques, tous redondants. C’est grâce à ce déploiement de matériel, et probablement à un système d’exploitation bien rôdé, que l’utilisateur ignorait les pannes qui devaient arriver comme partout ailleurs avec le matériel de l’époque. Au centre de calcul, la configuration n’avait rien à voir. Et les exigences étaient incompatibles avec l’idée d’un service 24h/24, 7j/7. Le personnel travaillait suivant ces horaires, mais les temps consacrés à l’exécution des travaux des utilisateurs étaient inférieurs. Il faut ajouter que les ingénieurs, tous jeunes, n’avaient aucune expérience des gros systèmes, qui n’étaient pas au programme de l’enseignement qu’ils avaient reçu. Ils apprenaient sur le tas, d’ailleurs en même temps que les ingénieurs de maintenance du constructeur. Au tout début, pour le CIRCÉ, la charge était moins grande et les utilisateurs moins exigeants sur les temps de restitution des travaux soumis car ils étaient à l’euphorie de la découverte de la puissance de calcul. Mais après quatre ans, l’état de grâce était fini et ils attendaient les miracles qui leur permettraient de faire tous les calculs dont ils avaient découvert le besoin. Le premier trimestre 1974 a été particulièrement fertile en projets avec : − le remplacement de l’IBM 370 Modèle 165 par un IBM 370 Modèle 168 ; − le passage à la version 3 d’ASP, et mise en œuvre d’un nouveau relais hertzien pour le télétraitement. Les difficultés se sont superposées et succédées. On aurait pu espérer que le remplacement du 165 par un 168 aurait été transparent, étant donnée la compatibilité des deux machines. Rien ne s’est passé comme prévu (annexe 3). Entre le 3 et le 10 janvier, 14 heures de panne d’accès aux disques. Puis, quelques jours après, panne de mémoire, puis pannes successives du tambour de 10 à 40 minutes. En février, il n’y a eu que 9 heures de pannes de matériel, mais le logiciel a pris le relai, avec les instabilités de la nouvelle version d’ASP et un temps de connexion quasi nul pour les terminaux lourds pendant une semaine. L’équipe système avait corrigé nombre de problèmes sur la nouvelle version avant de l’installer, mais plusieurs dizaines n’étaient pas apparus pendant la période de tests. L’équipe IBM, renforcée de spécialistes étrangers, en a corrigé une partie. L’équipe système a corrigé le reste. Sur toutes les modifications qu’elle avait apportées elle-même au système pour l’adapter à notre environnement, seules deux d’entre elles leur étaient imputables. Donc au total sur trois mois, 88,75 heures de panne matérielle, ont réduit de 5,76 % le temps de production attendu. De plus, 121,30 heures soit 7,87 % de ce même temps ont été perdues par suite d’avaries du système. À tout cela s’ajoutent des dysfonctionnements pour le télétraitement dus à la mise en place d’un nouveau relais hertzien. En effet, les PTT ont mis en service un nouveau central téléphonique à Saclay. Un câble spécial reliait ce central au CIRCÉ. Toutes les liaisons de terminaux devaient l’emprunter. Au-delà de Saclay, pour les terminaux « lourds », la transmission se faisait par ondes hertziennes entre Saclay et Meudon, d’où elle repartait par des câbles téléphoniques. C’est la mise en service du faisceau hertzien qui a été douloureuse.

Période 1972-1981 129

Annoncée pour fin 1973, elle a été différée par les PTT jusqu’au début mars. Après quelques tâtonnements, les premières liaisons ont bien marché. Mais dès qu’il y en a eu plusieurs, elles se sont perturbées mutuellement. Les choses n’ont pas été facilitées par l’intervention nécessaire de plusieurs services PTT qui s’ignoraient ou s’opposaient. Et les retards dus aux pannes s’accumulaient sans pouvoir être vite comblés. Les utilisateurs des terminaux ASP ont ainsi traversé une période où ils ne savaient plus quoi ne fonctionnait pas du 168, d’ASP, des modems ou de la ligne, Le résultat étant toujours le même : pas de service. Ainsi, pendant trois mois, le service fourni par le CIRCÉ a été considérablement perturbé. Cela a été ressenti d’autant plus vivement que le 168 a remplacé un 165 dont le matériel et le système fonctionnaient bien 24h/24, 7j/7. Étant à peine plus puissant que le 165 (unité centrale 15 à 25 % plus rapide, unités périphériques identiques), le 168 a tourné à pleine charge dès les premiers jours : 1540,5 heures de production effective sur un trimestre, soit 514,5 heures par mois, c’est près de deux fois plus que de nombreux ordinateurs installés depuis plusieurs années. Dans ces conditions, on rencontre plus rapidement des cas d’utilisation très particuliers qui mettent en évidence une panne du matériel ou du système comme c’est le cas lorsqu’on dispose d’une réserve de puissance à l’installation d’un nouveau matériel. Fin avril, les problèmes matériels étaient progressivement descendus à un niveau normal. L’unité centrale semblait saine, les unités périphériques fonctionnaient correctement. Bien que les canaux paraissaient encore le point faible, l’ensemble de la configuration avait atteint un régime de croisière correct.

6.3 Année 1976 C’est une année charnière dans l’histoire du centre de calcul. Une histoire factuelle relate dans ce chapitre ce qui a pu être réalisé c’est-à-dire ce que les utilisateurs ont pu voir. Mais il y a eu, cette année-là, bien d’autres travaux importants qui seront étudiés dans le chapitre  7, en particulier le dépôt d’un rapport sur l’évolution à long terme. Les renseignements concernant l’histoire factuelle de 1976 sont extraits du rapport du comité de direction de décembre 1976 111.

6.3.1 Évolution du matériel Cette année a été marquée par trois changements d’ordinateurs qui ont eu lieu pour des raisons différentes : − le premier en avril 1976 annoncé lors du comité de direction du 25 novembre 1975 : concernait le remplacement du 158 par un second 168. Cette opération, finalement, a pu être réalisée après de longues discussions entre la direction du CNRS, le secrétariat d’État aux universités et le ministère de l’Industrie ; 111 Procès-verbal

de la réunion de direction du 17 décembre 1976, Archives de la DIS.

130

De l’IBM 360/75 au superordinateur Jean Zay

− le deuxième en juillet 1976  consista dans le remplacement de l’ancien 168 par un autre 168 ayant les mêmes caractéristiques et remplissant les mêmes fonctions. Opération purement financière qui se solda par une économie de 3,1 MF pour le CNRS ; − le troisième en novembre 1976 n’était pas prévu. On aurait pu croire qu’après les années de mise en place, la vie du centre serait plus facile. Il n’en a rien été. D’énormes difficultés non anticipées sont apparues. On espérait qu’une usine à l’organisation bien huilée, au bout de trois ans, tournerait sur sa lancée. Pas du tout. Première difficulté et de taille : les ordinateurs, même de la meilleure réputation en ce temps-là, n’étaient pas fiables. Les pannes venaient soit de composants défaillants, soit d’erreurs système non détectées parce que l’environnement n’avait jamais été exactement le même pendant les tests, soit parce qu’il fallait ajouter au système des modifications maison pour l’adapter aux besoins. Il faut bien comprendre que même si ces gros ordinateurs font partie d’une série, chacun est unique. Dans la salle de montage des ordinateurs IBM en construction à Poughkeepsie (N.Y.) chaque machine porte une étiquette avec son nom par exemple : France-Orsay. L’unité centrale du 168 qui remplaçait le 158 s’est révélée défectueuse  ; le taux de panne a augmenté considérablement. Elle a été remplacée en novembre. Les trois axes autour desquels s’organisent nos efforts sont : augmentation de la puissance de calcul, développement des capacités de stockage de données, développement des réseaux. La configuration de novembre 1976 est la suivante : − deux ordinateurs 370/168 avec 4  millions d’octets, et une capacité de stockage en accès direct de 3400 millions d’octets ; − à ces deux ordinateurs sont connectés : 49 terminaux lourds et 76 terminaux conversationnels.

6.3.2 Rapport du comité de direction du CIRCÉ de décembre 1976 Le comité de direction comportait 15 membres : M. Malavard

Président du comité de direction

M. Lagasse

Directeur scientifique du CNRS

MM. Boucher, Laborde, Rocherolles

Membres du comité de direction

MM. Valensi, Salem

Représentants des utilisateurs et du groupe chimie

MM. Bolliet, Verlet, Berthet

Directeurs des centres de calcul du SEU de Grenoble, Paris-Sud Informatique et Paris- Dauphine

Mme Connes

Directrice du CIRCÉ

M. Salzedo

Sous-directeur du CIRCÉ

MM. Godot, Planchon

Représentants des personnels du CIRCÉ

M. Aubert

Spécialiste de pétrographie à l’INAG

Période 1972-1981 131

Ce rapport mérite d’être étudié en détail pour une raison fondamentale : il met en lumière toutes les difficultés que rencontrera l’informatique de service jusqu’à la création du GENCI. Des plaintes viennent des utilisateurs du calcul intensif qui demandent que le groupe d’assistance mathématique soit étoffé et de nouvelles bibliothèques de programmes installées. D’autres, des sciences humaines, en particulier, s’initient à l’informatique et voudraient plus d’attention. M.  Benzécri vient d’inventer l’analyse factorielle des correspondances permettant de traiter de grandes masses de données afin de visualiser et hiérarchiser l’information. Il indique que les plaintes ne viennent pas des chercheurs, mais des thésards auxquels il vient d’interdire l’accès direct au CIRCÉ car ils se plaignent autant de l’encadrement chercheur que de l’assistance informatique. « M. Malavard se fait l’interprète des membres du comité de direction qui estime qu’il est maintenant reconnu que le CIRCÉ rend d’éminents services à la communauté scientifique. » Mais il doit faire face à des problèmes qui dépassent ceux de la gestion d’un simple centre de calcul. S’en suit une très longue discussion sur l’évolution du CIRCÉ. Comment sortir du problème d’un centre saturé avec toutes les contraintes et les problèmes qui en découlent, quand il sait que son budget ne peut augmenter et que ses passages en commission aboutiront à un refus essentiellement pour des raisons politiques. Le fait que le flux soit régulé par un ticket modérateur complique encore la situation. On ne commencera à en sortir que plus de vingt ans plus tard sous des pressions extérieures. Une longue discussion s’engage entre Messieurs Lagasse, Boucher et la direction pour évoquer des solutions possibles. M. Lagasse rappelle le concept fondamental : la fonction du CIRCÉ est de faire ce qu’on ne peut faire ailleurs 112. M. Lagasse : « La clientèle informatique du CNRS est très variée (des mathématiques aux sciences humaines). Il faudrait arriver à rassembler un certain nombre de travaux qui seraient caractéristiques de ce qui se fait au CIRCÉ et ne peut se faire ailleurs. Il faudrait aussi comparer les coûts d’un certain nombre de travaux qui pourraient passer dans les différents centres. C’est une étude compliquée, mais la seule qui permettrait de résoudre le problème. » Pour lui, la seule étude capable de trouver une solution, comporterait deux étapes. C’est d’abord de faire l’inventaire des travaux qu’on ne peut pas faire ailleurs. Puis comparer les coûts d’un certain nombre de travaux qui pourraient passer dans les différents centres. Ceci semble très rationnel. Mais c’était très difficile à réaliser pour être significatif. Un examen approfondi des travaux qui utilisent plus de cinq minutes de CPU montre qu’ils ont évolué. Trois ans avant, ils utilisaient essentiellement du CPU. En 1976, il n’y en a que 5 % qui n’utilisent pas de fichiers. Ceci rend très difficile la constitution de trains de travaux représentatifs de la charge et utilisables sur d’autres machines à des fins de comparaison de performances et de coût. C’est ce travail qui est fait pour la préparation de benchmarks en prévision d’un 112 Procès-verbal

de la réunion de direction du 17 décembre 1976, Archives de la DIS.

132

De l’IBM 360/75 au superordinateur Jean Zay

changement de machines et/ou de constructeurs. C’est un gros travail de conversion. Et le problème supplémentaire dans le paysage informatique de l’époque est : où trouver un centre susceptible de recevoir un train significatif de travaux du CIRCÉ, à part chez les constructeurs ? Au CEA avec de la conversion, mais pas dans les centres universitaires de l’époque. En revanche, j’ai suggéré de refaire ce qui a déjà été fait. On avait pris un certain nombre de travaux qui passaient à Marseille et ils ont été passés dans d’autres centres, dont le CIRCÉ. Ils étaient représentatifs de ce qui était fait à Marseille, absolument pas de ce qui était fait au CIRCÉ. Pour ces travaux, le prix de revient au SEU s’est avéré dix fois plus élevé à Marseille qu’au CIRCÉ. Ce facteur 10 s’explique de la façon suivante. Pour les travaux sélectionnés par Mme Connat, directrice du centre de calcul du Pharo à Marseille, le prix facturé au CIRCÉ était divisé par 5 par rapport à celui facturé à Marseille (au tarif « ticket modérateur »). Or, le taux de couverture du ticket modérateur (c’est-à-dire recettes effectives du ticket modérateur divisées par coût total du centre) est deux fois plus faible à Marseille qu’au CIRCÉ, donc les prix de revient d’un calcul au SEU et au CIRCÉ sont dans un rapport 10. À ce point de la discussion, on peut résumer ainsi les constatations qui se sont fait jour 113 : − il est acquis que l’usine à calcul fonctionne et est utile ; − elle est saturée de jour par les petits calculs et de nuit par le calcul intensif. Le rythme de l’augmentation de la charge laisse prévoir son explosion ; − le sentiment général des utilisateurs est donné par M. Valenci : « Il me semble que nous sommes plus satisfaits d’un grand centre que d’un centre petit ou moyen. C’est dans un grand centre, avec un minimum d’efforts et le maximum de services que l’on trouve un système d’exploitation de bonne qualité. » ; − M. Lagasse poursuivant son idée se demande si l’on ne pourrait pas soulager le CIRCÉ d’une partie des travaux qui y sont effectués et qui pourraient être dirigés vers un centre doté de moyens du type IRIS 80, ce qui retarderait le phénomène de saturation ; − M. Bolliet (de Grenoble) pose une bonne question : « Qui doit faire des prévisions ? Il faudrait faire une étude au niveau CNRS-SEU et éventuellement d’autres organismes pour définir une ligne de conduite. » ; − le constat général approuvé et signé dans le compte rendu de ce comité de direction du 17 décembre 1976 par Messieurs Lagasse et Malavard a été formulé par P. Salzedo : « Accompagner l’accroissement du besoin par un accroissement des moyens n’est pas un problème technique, ni même, à la rigueur, un problème financier. On peut penser que de nouveaux matériels seront plus puissants à prix constant, mais la question est autre  : supposons que l’on veuille installer un troisième ordinateur IBM ou remplacer un 168 par un ordinateur IBM 113

Compte rendu du conseil de direction du 17 décembre 1976, p. 13, Archives de la DIS.

Période 1972-1981 133

plus puissant et que l’on puisse régler les problèmes de financement (par autofinancement ou par coût constant), tous les problèmes actuels de nature politique empêcheraient de le faire. » C’est exactement ce qui s’est passé en 1979, 1981 et 1989. Tout l’avenir du centre de calcul est contenu dans la conclusion de ce comité de direction de décembre 1976. Pendant dix-sept ans, le centre de calcul aura à se battre, jusqu’à ce que, poussé par la pression d’éléments extérieurs, il puisse, jusqu’à aujourd’hui, poursuivre la mission pour laquelle il a été créé. Arrivé à ce point de la discussion, j’ai rappelé une proposition faite depuis plusieurs années : celle de créer en province un CIRCÉ 2 (annexe 9). « Nous avons soumis, depuis un certain temps, une proposition de création d’un CIRCÉ 2 qui devrait être équipé de matériel français. »  Mais on prévoit des oppositions, car ce serait augmenter les capacités de calcul du CNRS.

6.4 Année 1977 Cette année ne voit pas de changement dans les unités centrales, mais beaucoup dans les unités périphériques, tant il est vrai que le traitement et le stockage des données jouent un rôle aussi prépondérant que la puissance du CPU. En 1977 : � Remplacement de l’unité de visualisation 2250 par un Tektronix 4081 plus performant en mode local. L’unité IBM 2250 Display a été Figure 55 – Console graphique annoncée avec la série IBM 360. IBM 2250 L’unité 2250 offre la possibilité de représenter l’information sous forme de graphiques et de faire progresser certains utilisateurs du CIRCÉ dans leur recherche 114. Pour recueillir l’information, sur l’écran l’unité était équipée d’un « light pen » qui transférait les coordonnées x, y à l’application. Par exemple, Hélène Charnassé, musicologue, a utilisé l’informatique pour son travail. Elle a d’abord travaillé sur le CDC 3600 et utilisé la représentation graphique des portées musicales. L’étude portait sur le répertoire instrumental des xvie, xviie et xviiie siècles, conservé sous forme de tablature. La transcription brute, phase systématique qui a pour but de traduire chaque caractère en note équivalente sur la portée (hauteur du son, représentation rythmique provisoire) ne soulève en général aucune controverse. C’est la prise de conscience de tels automatismes qui a conduit à confier la phase de « transcription brute » à un ordinateur. Ce faisant, l’objectif était double  : délivrer les musicologues et 114 Transcription

automatique de la tablature  : Bernard Stépien et Hélène Charnassé Rayonnement du CNRS, n° 61, printemps 2013.

De l’IBM 360/75 au superordinateur Jean Zay

134

interprètes de la part la plus longue et fastidieuse du travail, d’autre part, mettre à leur disposition un certain nombre de recueils d’un accès difficile du fait de leur mode de notation, ou rares parce qu’ils s’adressent à des instruments peu usités. � Ajout d’une imprimante électrostatique gérée par le même logiciel que le Tektronix, attendue impatiemment pour les mises au point de cartes. Les sciences humaines se développaient et étaient très demandeuses de capacité de stockage et d’imprimantes performantes. À cette époque elles n’avaient pas d’autre endroit où s’adresser. Ainsi Monique Le Guen a travaillé avec A. Piatier, directeur du Centre d’Études des Techniques Économiques Modernes (CETEM) sur la ruralité, les dotations et les attractions communales. Ses listings étaient volumineux (annexe 10).

    Figure 56 – Listings d’un laboratoire de Sciences humaines

− Installation d’une mémoire de masse. Simultanément suite de l’étude et de la comparaison d’un système de base de données qui l’utilisera. Cette étude est commencée depuis un an. − Passage au système MVS. − Étude du remplacement de la mémoire centrale IBM par les mémoires INTEL fournies par TELEX, pour des raisons d’optimisation financière de l’IBM.

6.5 Années 1978-1979 Au début de la décennie, le remplacement d’un IBM System/370 Modèle 165 par un CDC 7600 avait échoué, bien que ce fût le meilleur choix technique. Augmenter les services du centre, par des améliorations successives des performances des mêmes unités centrales, a atteint ses limites. Un changement de matériel s’imposait et en conséquence la préparation d’un nouveau passage en commission. Le rapport soumis à la commission en 1978, pour faire face à une augmentation de charge, rappelle que le CIRCÉ, laboratoire propre du CNRS est ouvert plus largement à tous les chercheurs de l’Enseignement supérieur 115. 115 Annexe

1.

Période 1972-1981 135

Or, dans la pratique, c’est cette appartenance du centre qui pose problème à l’Enseignement supérieur et fait que dans le labyrinthe des commissions informatiques, il met quelquefois son véto aux projets d’agrandissement du CIRCÉ, bien que celui-ci ne soit pas sous son autorité. C’est en vue du passage devant les commissions que le rapport remis à la commission au ministère, pour un changement de machine, en fin de décennie, est composé de trois parties 116,

6.5.1 Évolution souhaitée La première expose le projet d’évolution d’un des IBM 168 par un 3033 deux fois plus puissant, avec une consommation électrique multipliée par 0,7 et une dissipation calorifique par 0,8. Tous les matériels informatiques connectés au 168 peuvent l’être au 3033 sans adaptation. Aucune modification n’est à prévoir ni dans l’aménagement du bâtiment ni dans les programmes utilisateurs. De plus le tableau suivant montre que l’ensemble des opérations permet des économies. En résumé on fait des économies en multipliant la puissance par deux. En tenant compte des opérations présentées, sans préjuger des achats d’unités périphériques, déjà installées qui pourraient être proposées en 1979, les dépenses pour 1979/1980 sont détaillées dans les tableaux qui suivent.

6.5.2 Analyse financière Dépenses prévues

Figure 57 – Dépenses en 1979

Financement En 1978, la prévision du ticket modérateur, qui s’est révélée juste permettra au CIRCÉ de contribuer aux dépenses de location et de maintenance (donc, participation de l’achat déjà réalisé du 168 et à l’achat proposé de ses canaux et 116 Procès-verbal

la DIS.

de la réunion du comité de direction du 17 décembre 1976, Archives de

136

De l’IBM 360/75 au superordinateur Jean Zay

de la mémoire Telex exclue) pour un montant d’environ 6,3 MF, conformément au tableau suivant :

Figure 58 – Financement du remplacement d’un 168 par un 3033

La dotation directe du CNRS pour les ordinateurs du CIRCÉ est passée donc de 19,1 MF en 1978 à 9,61 MF et 7,63 MF en 1980, cette diminution résultant de l’achat de la première unité centrale 168, et des opérations de replacement de périphériques.

Figure 59 – Ventilation des moyens de financement

Période 1972-1981 137

6.5.3 Passage en commission En mars 1978, bien que ce soit ahurissant, la commission refusa le dossier sur un projet prévoyant une amélioration de la puissance avec prix en baisse. En termes choisis, elle émit sa décision : « compte tenu de l’état d’avancement des travaux sur le schéma directeur des universités, il apparut que quelles que soient les décisions finales retenues au niveau du ministère, on ne pouvait envisager pour le CIRCÉ une évolution d’une rapidité telle qu’aucun des deux 168 ne reste en place jusqu’à fin 1979 ». Le terme « rapidité » appelle un commentaire. On met le doigt sur une des composantes du « mal français », l’ignorance du rythme de l’évolution des possibilités à l’étranger.

6.5.4 Solution de repli Le gel total des opérations concernant le CIRCÉ n’était cependant ni possible ni souhaitable. Il s’imposait de présenter un nouveau dossier aux autorités compétentes. En mai 1978, nous demandions un avenant au marché IBM préexistant et un marché de fournitures. Les autorités et commissions compétentes ont donné leur accord pour une prolongation de la location d’un des 168 jusqu’au 31 décembre 1978. La configuration de disques magnétiques et de frontaux de télétraitement, notoirement insuffisante, pouvait être aménagée mais à dépense constante. Un dossier devait être déposé le plus tôt possible. Le centre était saturé et le volume de données à traiter et à sauvegarder explosait. La figure 60 schématise la configuration en place, fin 1978 qui comporte deux unités centrales 370/168, leurs consoles (3066) et unités d’alimentation et de refroidissement (3067). Le 168 acheté (168 n° 2) comporte une 3066 et une 3067 achetées, une mémoire d’un million d’octets IBM (achetée), et trois millions d’octets supplémentaires loués à la société TELEX, entre-temps absorbée par MEMOREX. Ces unités centrales se partagent en particulier : − une unité de contrôle et huit dérouleurs de bande magnétique 1600-6000 bpi ; − deux unités de contrôle et trois disques à têtes fixes (11 Moctets/disque, débit 1,3 Moctets/seconde) ; − sept unités de contrôle et 42 unités de disques (100 ou 200 millions d’octets par disque, capacité totale 5,4 milliards d’octets) ; − deux calculateurs frontaux de télétraitement (64 portes pour terminaux asynchrones 1200 à 20 kbauds ou 80 portes pour terminaux asynchrones 110 à 4800 bauds) ; − six imprimantes (1000 lignes/minutes), trois lecteurs de cartes (1000 cartes/ minute), deux perforateurs de cartes (300 cartes/minute), un lecteur de ruban perforé (1000 caractères/seconde). Sont également connectés sur un canal l’IBM S/7 du Laboratoire d’informatique pour les sciences de l’ingénieurie qui gère des expériences en temps réel, ainsi qu’une imprimante rapide, un lecteur de cartes et une console, installés dans le même laboratoire. La deuxième partie du dossier présente l’état actuel du centre, son financement et fait une analyse de l’utilisation de ses moyens. La troisième est la présentation de quelques résultats scientifiques.

138

De l’IBM 360/75 au superordinateur Jean Zay

Figure 60 – Schéma des deux 168 et de leurs auxiliaires

Période 1972-1981 139

Les images ci-dessous illustrent l’importance de la place du stockage de données qui, dès cette époque était une des caractéristiques du centre : puissance de calcul et volume du stockage de données.

Figure 61 – IBM 3330 – (Avec l’aimable autorisation de Mme Le Guen)

Figure 62 – IBM 3330 – (Avec l’aimable autorisation de Mme Le Guen)

Figure 63 – Janine Connes au milieu des bandes magnétiques

Cette photo illustre à elle seule la complexité du travail des opérateurs et la concentration qu’elle exigeait de leur part.

140

De l’IBM 360/75 au superordinateur Jean Zay

6.5.5 Liste des terminaux connectés Terminaux lourds − 6 terminaux IBM 1130 et S3 − 1 terminal IBM 1800 (concentrant 4 terminaux) − 1 terminal IBM 360/65 (concentrant 8 terminaux) − 7 terminaux IBM 3780, 5950 et 3775 − 5 terminaux MITRA 15 et 125 − 3 terminaux IRIS 45 et 50 − 3 terminaux T1600 − 1 terminal H.B. 62/40 − 3 terminaux SOLAR − 2 terminaux H.P. 30 − 17 terminaux ORDO/COORDO – SFENA − 2 terminaux SFENA − 1 terminal C.I.I.-H.B. Mini 6 − 1 terminal SOLAR Soit un total de 65 terminaux « lourds » (y compris INAG). Terminaux conversationnels − 17 terminaux DIABLO − 12 terminaux MEMOREX 1377 − 18 terminaux IBM 2741 - 3277 - 3287 - 5110 72CMC − 5 terminaux HAZELTINE 1500 - 2000 − 17 terminaux TEKTRONIX 4006 - 4010 - 4012 - 4013 - 4014 - 4051 et 4081 − 10 terminaux I.T.T. − 2 terminaux IMLAC TITN − 2 terminaux DIGITAL − 7 terminaux ANDERSON JACOBSON − 1 terminal OLIVETTI TE 318 − 3 terminaux TÉLÉTYPE − 11 terminaux TEXAS − 1 terminal H.P. 30 − 1 terminal SETELEM − 1 terminal DIGI-LOG − 3 terminaux DELTA - WANG − 1 terminal MODULAR ONE − 2 terminaux REGENT - ADDS − 1 terminal TERMINET 300 − 1 terminal DIGIT LA 36 − 1 terminal TEKTRONIX − 1 terminal TELERAY − 1 terminal TELETYPE Soit un total de 119 terminaux conversationnels.

Période 1972-1981 141

Les graphiques ci-après représentent la répartition des terminaux.

Figure 64 – Terminaux parisiens

142

Figure 65 – Terminaux de province

De l’IBM 360/75 au superordinateur Jean Zay

Période 1972-1981 143

6.6 Année 1980 La fin des années 70 voit l’arrivée sur le marché des ordinateurs IBM dit « compatibles ». À partir de 1980, le parc machines du centre de calcul profite des innovations technologiques des compétiteurs tels qu’Amdahl et NAS sans remettre en question la compatibilité des logiciels et des Figure 66 – Gene Amdahl – applications. L’architecture IBM 370 est stricteSource  : https://m-cacm.acm. ment copiée. Pour la première fois on a ce que org/news/194192-in-memoriam-gene-amdahl-1922-2015/ dans le jargon, on appelle une machine « incasfulltext?mobile=true sable » sur le matériel d’origine nippone. Ces machines compatibles bénéficient de performances en matériel accrues et d’un haut niveau de fiabilité, pour des coûts inférieurs à ceux d’IBM. L’Amdahl 470 V7 est le premier ordinateur compatible qui entre dans le parc machines du centre de calcul. Il remplace le premier IBM 370/168 apportant une puissance de calcul de 5,5 MIPS.

6.7 Personnel et formation Pendant cette décennie le personnel était en moyenne de 70 personnes sans compter quelques aides transitoires et des stagiaires. Les figures 67 et 68 illustrent l’organisation.

Figure 67 – Organigramme du personnel

144

De l’IBM 360/75 au superordinateur Jean Zay

Figure 68 – Répartition du personnel dans les groupes de travail

Tout le centre était une ruche de formation à tous les niveaux, formation de la direction, formation du personnel, formation des utilisateurs, formation des dirigeants d’autres centres de calcul et de personnel pour ces centres.

6.7.1 Formation permanente pour la direction Je poursuivais mon travail de recherche à la NASA où j’étais utilisatrice de centres de calcul intensifs en pleine évolution. Je faisais partie d’une équipe interdisciplinaire qui travaillait sur un projet spatial de pointe  : la préparation des projets VIKING d’exploration de la planète Mars et continuait ses travaux de simulation qui allaient en s’affinant. L’enthousiasme de l’équipe à laquelle j’appartenais aux États-Unis depuis 1963 et de celle que j’avais fondée en France était intact et ne laissait pas place aux états d’âme. Tous les utilisateurs de calcul intensif étaient très exigeants. Quand il fut compris que la commission informatique n’autoriserait, à la rigueur, que du matériel IBM parce que moins cher, Salzedo décida de se former à fond sur le dit matériel. À 28 ans, il était déjà bien connu chez IBM et en 1968, il avait fait partie d’une délégation visitant le centre de recherches IBM à La Gaude en compagnie de Gabriel et Jacquinot (figure 69). Depuis 1965, alors qu’il était encore au CNRS rue du Maroc, il assistait au congrès Share des utilisateurs de moyens IBM,

Période 1972-1981 145

avec Benssoussan, chercheur en informatique. Il fut détaché pour six mois, du 21 juin au 31 décembre 1974, dans le laboratoire IBM de Yorktown aux ÉtatsUnis. Ceci lui permit, non seulement, de bien connaître le matériel qu’il installerait au CIRCÉ, mais de voir quelles étaient les orientations du constructeur pour l’avenir. Il continua par la suite de faire de nombreux voyages à l’étranger principalement aux États-Unis, en Grande-Bretagne, et au Japon. Et il eut des relations semblables avec le constructeur CDC quand le centre se préparait à accueillir une 7600 et ensuite avec Seymour CRAY.

Figure 69 – Réunion à la Gaude en 1968 2e à gauche C.  Gabriel directeur financier CNRS, 5e P.  Jacquinot directeur général CNRS, 6e J. Jobert directeur scientifique, 4e à droite P. Salzedo ingénieur CNRS

6.7.2 Formation pour les ingénieurs Il a déjà été insisté sur la complexité de la formation des ingénieurs. Tout d’abord parce qu’ils étaient très jeunes et inexpérimentés sur les grands systèmes qu’ils n’avaient jamais vus dans leurs études. Et aussi parce que dans certains cas, ils se trouvaient à travailler sur des sujets de pointe qui étaient nouveaux pour les utilisateurs eux-mêmes. C’était le cas en traitement du signal. Pour rattraper le retard, si on ne voulait pas réinventer la poudre, il fallait aller voir comment travaillaient ceux qui avaient fait leurs preuves dans le domaine. C’est ainsi que, à Pâques 1970, je décidai d’emmener Hervé Delouis et un groupe de jeunes utilisateurs de calcul intensif du CIRCÉ suivre une semaine de conférences et de cours organisée sur le sujet, à Aspen, par l’Air Force Systems Command de l’US Air Force. C’était une sorte de baptême du feu, où j’ai fait quelques cours avec

146

De l’IBM 360/75 au superordinateur Jean Zay

Delouis, mais surtout où tous ont beaucoup appris. L’important était de ne pas laisser passer un autre train sans monter dedans, le rôle d’un centre de calcul ne se limitant pas à l’installation de matériel.

Figure 70 – Colloque d’ASPEN en 1970

Plusieurs autres se sont inscrits pour participer à des congrès de différentes disciplines. Mais la médaille avait un revers. Les nouveaux engagés restaient rarement plus d’un an et partaient juste au moment où ils étaient opérationnels. L’un d’eux en donnant sa démission, a avoué qu’à la sortie de l’école plusieurs d’entre eux avaient été recrutés par une entreprise. On leur versait une prime pour qu’ils aillent se former un an au CIRCÉ. On peut considérer que c’était du devoir du centre de former des agents pour le service public, car à cette époque c’était difficile de trouver un autre site équipé de machines de cette puissance. Mais les former pour le privé prenait trop des forces vives du centre. Et puis, certaines situations étaient embarrassantes. Par exemple, le ministère des Affaires étrangères nous a dépêché un responsable vietnamien accompagné de deux jeunes hommes. Nous devions les former tous les deux aux fonctions de chef de centre de calcul, et désigner le meilleur. C’est ce que nous avons été obligés de faire à la fin de leur première année de stage. À l’annonce de la décision qui les concernait, faite par leur responsable en notre présence, leurs réactions ont été surprenantes pour nous. Celui qui avait été évincé a simplement marqué par un signe de tête qu’il prenait note. L’autre prolongeait son stage d’un an, sans même prendre de courtes vacances pour aller faire connaissance avec son bébé, né quelques jours après son départ, un an auparavant. À la fin de la décennie, plusieurs membres du personnel, parmi les meilleurs, sont partis dans le privé où on leur offrait des salaires plus élevés, ou pour fonder leur entreprise d’assistance. Leur départ avait plusieurs raisons : une question de salaire bien sûr, mais ils étaient fatigués de former des jeunes qui donnaient leur démission aussitôt formés et aussi de voir que l’avenir du centre de calcul ne présentait pas de perspectives intéressantes. La puissance augmentait à prix constant, les utilisateurs se multipliaient, mais tous nos dossiers novateurs étaient rejetés par la commission. Ils étaient conscients de la valeur de leur expérience. Ayant travaillé avec des chercheurs de toute discipline, ils étaient prêts

Période 1972-1981 147

à s’engager dans l’aventure informatique, mais pensaient que ce n’était pas au CIRCÉ qu’ils le pourraient.

6.8 Résultats obtenus En 1978, une grande partie des décideurs était toujours hostile à la présence d’un gros centre. Pour les convaincre eux et une partie des directeurs scientifiques, les utilisateurs et moi-même avons décidé de réaliser une brochure pompeusement intitulée  : l’informatique, outil de recherche au CNRS 117. Sur 880 chercheurs, 200 ont répondu à mon appel. J’ai classé les 200 réponses en 7 catégories qui correspondent à peu près aux comités thématiques d’aujourd’hui. Les sujets fondamentaux de chimie moléculaire, de météorologie, d’écoulement des fluides, par exemple étaient traités à cette époque en faisant du calcul intensif sur les machines d’alors. Il sera intéressant de suivre leur évolution pendant 40 ans, en corrélation avec les puissances disponibles.

Figure 71 – Brochure sur l’informatique outil de recherche au CNRS 117 L’informatique,

outil de recherche au CNRS, Centre national de la recherche scientifique, 4e circonscription, Gif-sur-Yvette, ISBN : 2-222-02470.

Chapitre 7 L’histoire parallèle du centre de 1969 à 1975 Nous avons dans le chapitre 3 donné une vue d’ensemble du développement du centre pendant cinquante ans depuis sa création jusqu’à 2021. Nous savons donc qu’il se développera jusqu’à devenir maintenant l’un des trois grands centres nationaux. À première vue, on conclurait à un certain succès, puisque conformément à la mission qui lui a été assignée en 1969, il fonctionne 24h/24, 7j/7 que le nombre d’utilisateurs comptabilisés est monté à 3500 et qu’il est relié par des terminaux lourds ou conversationnels à des laboratoires dans toute la France, l’Europe et le monde C’est aussi un des maillons d’un réseau reliant les centres. Un survol des matériels installés, des logiciels disponibles, du travail des groupes exploitation, système, assistance mathématique et informatique aux utilisateurs, un recensement des travaux des utilisateurs, permet de tracer un tableau rassurant. C’est celui que la direction voulait, depuis le début, donner à ses équipes pour maintenir leur enthousiasme et il semble qu’elle y soit partiellement parvenue. On se réfère à un article humoristique écrit en 2004 (annexe 4), dans une interface de fantaisie, pour le départ à la retraite d’un ingénieur système qui travaillait au CIRCÉ depuis sa création. On y parle du «  Centre  » qui était pour eux l’objet de tous les soins 118. La seule préoccupation majeure des utilisateurs devait être de faire les calculs dont ils avaient besoin. Pour cela ils devaient trouver des «  crédits calcul  ». C’était difficile et ça leur prenait beaucoup de temps. Aussi avaient-ils tendance, au début, à nous faire trop confiance pour que la croissance du centre suive celle de leurs besoins. De plus, la comparaison de l’organisation du centre avec celles du NCAR et de Livermore avec lesquels ils continuaient de collaborer les rassurait. Il a fallu très tôt leur faire comprendre que leur rôle était important dans la gestion du centre. Ils ont répondu régulièrement à nos enquêtes sur leurs résultats scientifiques, participé à l’élaboration des schémas directeurs. Ils nous ont fait part régulièrement des facilités qu’avaient leurs collègues étrangers. L’un d’eux nous a donné à méditer 118 Note

de l’auteure  : Les membres restants de l’équipe de la première décennie sont restés tellement soudés par leur aventure, qu’ils continuent de se réunir actuellement, et même faire des voyages communs, bien que leur travail les ait transportés vers d’autres horizons.

150

De l’IBM 360/75 au superordinateur Jean Zay

une copie intégrale de sa collaboration avec Kenneth Wilson qui utilisait aux États-Unis les premiers array processors. Mais précisément à cause des liens serrés et intimes que nous avions liés avec eux, nous leur avons épargné le récit de toutes les mesquineries dont le centre était la cible. Ils ont quelquefois eu du mal à comprendre des décisions absurdes que nous étions contraints de prendre brusquement et qui contrastaient avec toutes les études que nous avions menées avec eux. C’était assez que nous perdions notre temps, sans qu’ils perdent aussi le leur. Nous ne les avons fait intervenir directement dans nos transactions politiques, qu’en dernier recours, quand c’était vraiment indispensable. Il suffisait qu’ils comprennent que le personnel avait le même but qu’eux : faire avancer la recherche. Avant de répondre à un appel d’offres ou d’envisager une nouvelle application, ils venaient en débattre avec les diverses assistances et nous-mêmes. C’était pour eux s’assurer que notre organisation du centre de calcul, leur permettrait de remplir leurs engagements. Mais il y a une autre réalité moins réjouissante. Comme il a déjà été écrit : «  On aurait pu faire beaucoup mieux et pour beaucoup moins cher, et on aurait su le faire. Tout était prêt. » Le constat est sans appel. À sa création en 1969, le CIRCÉ était le centre d’informatique de service le plus puissant d’Europe. Une décennie après, il est le seul centre d’Europe à ne pas avoir remplacé son 168 par un 3033 plus puissant et moins cher. Quand il propose en 1980 d’installer un CRAY 1, il y en a déjà 11 installés dans les universités européennes et il lui sera refusé. Comment expliquer cette régression ? Une mauvaise direction ? De mauvais choix ? En France, on est très fort pour ce genre d’introspection qui cherche des excuses a posteriori. On s’est posé et on se posera toujours les questions : − Pourquoi l’Institut Blaise Pascal a-t-il été un échec ? − Pourquoi le plan calcul n’a-t-il pas répondu aux attentes ? − Pourquoi le CIRCÉ n’a-t-il pas remplacé son 168 existant par un 3033 plus performant et moins cher ? − Pourquoi, malgré tous ses efforts, n’a-t-il pas installé un CRAY dès la fin des années 70 comme dans tous les centres homologues en Europe ? Dans les décennies qui ont suivi celle de la création, quelques directeurs généraux, des ministres de la Recherche, de l’Industrie, de l’Enseignement supérieur, inquiets du sentiment naissant d’un décalage par rapport à l’étranger, ont demandé à des chargés de mission, à des groupes de travail, à des personnalités reconnues, de leur faire un état des lieux et des propositions pour l’informatique en France, comme si la rumeur d’un problème arrivait jusqu’à eux. Mais l’objet de la requête a été interprété différemment, suivant le passé, la discipline ou l’institution à laquelle appartenait celui qui la recevait. Tous ont été très critiques de l’état existant, mais pour des raisons différentes, et leurs propositions étaient souvent antagonistes. En général, l’informatique de service ne faisait pas l’objet de leurs préoccupations majeures et certains dans les ministères l’ignoraient ou pire l’accusaient de tous les maux. En revanche, tous étaient d’accord pour mettre en exergue deux des handicaps contre lesquels nous avons eu à nous battre dès la création : l’inadaptation, pour nous, du matériel français et celle du ticket modérateur telle qu’elle nous était imposée. Dans le chapitre Comprendre

L’histoire parallèle du centre de 1969 à 1975 151

de son rapport de 1983, J. Yoccoz 119 parle des multiples causes de notre retard en général et donne son point de vue sans vouloir polémiquer : «  Mais il importe plus de chercher à les expliciter au mieux que de les démêler pour pointer d’inintéressantes responsabilités. » Il serait ridicule de vouloir refaire l’histoire ou de discourir sur ce qu’on aurait dû faire ou d’émettre des jugements. La seule chose utile et rationnelle est de montrer par l’analyse ce qui s’est effectivement passé pendant cinquante ans dans un centre de calcul qui se débattait face aux difficultés qu’ont pointées tous les rapports ultérieurs et à celles que tous ces rapports ne soupçonnaient même pas. L’analyse aura deux objectifs principaux. Le premier, c’est rendre sensible la vitesse à laquelle l’équipe technique et les utilisateurs ont intégré à la fois, ce que leur apportait le calcul scientifique, mais aussi la somme de travail et l’investissement individuel qui en découlaient pour eux. C’est très important et nous allons le détailler. Le second est de montrer que le caractère inéluctable du besoin de calcul intensif n’a pénétré que lentement nos autorités de tutelle. Le Centre s’est tiré de toutes ses difficultés grâce à l’opiniâtreté de ses directeurs et de son équipe technique, sans laquelle rien n’aurait pu être fait. Cette aventure a tellement marqué et soudé les premières équipes que leurs membres restants, bien que dispersés, ont continué, jusqu’à très récemment, à se réunir annuellement et même à organiser des voyages en commun (jusqu’au Japon). Car c’est une histoire qui finit bien. Il a fallu quarante ans pour que l’outil calcul accède dans les textes officiels au rang de grand instrument et cinquante pour que lui soit confirmée sa place particulière dans la panoplie d’ensemble d’outils pour la recherche de pointe en Europe, avant qu’il n’en devienne le fer de lance. À la fin des années 70, on en était loin. L’installation en 1969 d’une usine à calcul fonctionnant sans interruptions a créé dans la communauté un sentiment de stupeur et d’incompréhension qui a mis des décennies à disparaitre. La stupeur a encore été plus grande de voir le centre saturé en six mois. Toutes les précautions avaient pourtant été prises pour rassurer en affirmant que surtout il ne s’agissait pas de toucher à ce qui existait, marchait bien, et devait continuer à fonctionner sans changement, tels le centre de calcul de la Physique Nucléaire (CCPN) de l’IN2P3 ou le centre de calcul de la faculté Paris-Sud (PSI). Les autorités de tutelle, autres que le directeur, ont été mises devant le fait accompli et ont mis bien des années à être converties. Ce qui est intéressant à montrer, c’est comment le centre a lutté mois après mois, année après année, à certaines époques jour après jour et par quelles étapes il est passé pour remplir la mission qui lui avait été confiée. Pourquoi est-ce intéressant ? Parce que cette lutte a laissé des traces, mais que c’est une belle histoire pour le CNRS. Il lui a été reproché d’avoir raté tous les tournants en informatique, de ne pas avoir tiré de leçons de ses échecs en la matière. Au moins a-t-il été pionnier, en France, dans la mise en service d’une usine de calcul intensif pour toutes les disciplines, à mesure qu’elles en ont découvert l’absolue nécessité. C’est-à-dire connaître suffisamment bien les besoins des utilisateurs, pour qu’une veille technologique 119 J. 

Yoccoz, Rapport sur les besoins de la recherche en matière d’équipement informatique.

152

De l’IBM 360/75 au superordinateur Jean Zay

et la qualité des équipes qui le servaient permettent de leur offrir en continu à peu près l’outil dont ils ont eu besoin à un instant donné. En 1980, au moment où après quatre ans de bataille on installe enfin un compatible IBM, après le refus d’installer un CRAY  1, toutes les difficultés et incompréhensions sont à leur paroxysme et annoncent d’autres combats. C’est cette vie parallèle qui fait l’objet des deux chapitres suivants. Ce n’est pas une idée originale pour aborder une étude historique. Dans l’épilogue de son histoire du CNRS, Denis Guthleben, dit qu’il faudrait écrire, un jour, un complément à cet ouvrage, L’histoire dans l’histoire du CNRS 120. Avant d’entreprendre d’écrire L’histoire dans l’histoire du centre de calcul, je dois expliciter deux concepts généraux que j’ai découverts tout de suite car ils se sont présentés comme des évidences, mais que j’ai dû intégrer très vite, sans y avoir été préparée. Je travaillais encore en partie, et dans l’enthousiasme, au JPL de la NASA, dans un laboratoire où l’outil principal était l’ordinateur, et où on se préparait à aller sur Mars. Je voyais tous les jours progresser le robot qui à une date encore lointaine partirait vers cette destination, (et à ce stade il me paraissait bien gracile pour ce long voyage) et je croyais que tout était possible. Mes plus importantes sources de documentation, sont, outre quelques rapports de comités de direction ou d’utilisateurs, une abondante correspondance avec le directeur général, et C. Gabriel. Leurs réponses seront souvent manuscrites. J’utiliserai aussi mes notes prises pendant les réunions des divers comités 121 et quelques rapports de ces dits comités, ainsi que les rapports d’activité du CNRS, et une collection complète d’Interface, journal du centre qui va de 1969 à 2008. J’avais anticipé certaines difficultés, mais pas toutes. J’étais préparée à des pannes hardware, à des difficultés d’installation de logiciels, à un niveau insuffisant des ingénieurs pour assister les utilisateurs dans leurs problèmes de pointe, à un niveau insuffisant en mathématiques. Il a fallu apprendre et vite. Il a fallu assimiler que l’enthousiasme ne suffisait pas, et que pour convaincre, il ne suffisait pas d’avoir raison. Et c’était une découverte. Les nouveautés dans l’approche des problèmes pouvaient susciter la méfiance, la compréhension ne se faisait pas en un éclair, mais demandait beaucoup de temps. J’ai vite compris que le développement difficile du centre de calcul n’avait rien d’exceptionnel. C’est celui classique des débuts de toute entreprise qui se lance hors des chemins battus. Enfin, il a fallu apprendre que les réponses qui m’étaient faites avaient parfois des raisons cachées parce qu’elles étaient plus ou moins inavouables et qu’elles étaient prises dans un cadre beaucoup plus vaste. C’est-à-dire que vous pouviez démontrer n’importe quoi, la seule raison des refus était l’hostilité, non pas à votre personne, mais à ce que vous représentiez. Et là, il fallait admettre qu’on vous était hostile pour des raisons qui dépassaient vos compétences politiques. La seule solution possible a été d’imaginer les attitudes qui limiteraient les dégâts, de contourner les difficultés, pour offrir aux utilisateurs à peu près les outils dont ils avaient besoin. C’était tout un apprentissage, pas spécifique à 120 Denis Guthleben, Histoire du CNRS de 1939 à nos jours, septembre 2013, éditions Armand Colin, p. 464. 121 Notes manuscrites de J. Connes, Archives de la DIS.

L’histoire parallèle du centre de 1969 à 1975 153

notre entreprise, qu’il aurait fallu faire dans une formation antérieure. Mais là il n’y avait plus le temps d’apprendre. Plongés dans le problème, il fallait trouver les solutions immédiatement. Philippe Salzedo est devenu un maître en la matière. Il a transformé en outil de gestion le ticket modérateur qui, tel qu’il était conçu dans notre environnement était un désastre. Il s’est ingénié à trouver des matériels compatibles à des prix tels qu’ils rentraient dans le budget abondé par les recettes. C’était une acrobatie qui demandait beaucoup de travail de toutes les équipes toujours en perpétuelle installation pour maintenir la qualité du service. Moyennant quoi, il n’avait pas besoin pour augmenter la puissance ou les volumes de stockage de demander des augmentations de crédit dont il savait qu’elles lui seraient refusées. Dès les premiers mois, la direction du centre savait bien qu’il y aurait une part de travail «  administratif  ». Mais j’ai dû intégrer, dès l’installation, que notre tâche serait divisée en deux parties distinctes. La première consistait à faire fonctionner le centre à la satisfaction des utilisateurs, avec le meilleur choix possible d’ordinateurs que permettaient les contraintes, et de préparer l’avenir. En somme, nous disions aux utilisateurs : dites-nous ce que vous voudriez faire et travaillez. Et ils attendaient du centre des miracles. C’était pour nous la récréation, ce à quoi notre formation et notre expérience nous avaient préparés. L’autre partie, de loin la plus dévoreuse de temps et d’énergie, consistait à se battre contre ce qui à ce stade était appelé l’extérieur, pour arracher aux instances de tutelle de haut niveau, les avis favorables d’acquisition. C’était la première étape, pas suffisante, mais indispensable, pour la fourniture du service souhaité. Le second objectif qu’il a fallu assimiler très vite, c’est que dans la lutte pour la croissance du centre, il ne fallait pas se tromper dans l’identification des obstacles. Il aurait été facile au début d’attribuer nos difficultés à la direction du CNRS au sens large, parce qu’ils étaient les plus proches. Mais à l’examen, le CNRS lui-même a fait ce qu’il a pu. Il lui a été plus facile d’être généreux pendant les Trente Glorieuses 122. Dans un article de presse, en 1948, le directeur de l’Enseignement supérieur le remercie de l’avoir sauvé 123. «  Ces dernières années, c’est en fait le Centre National de la Recherche Scientifique 124 (CNRS) qui a suppléé à notre manque de crédits. Il a ainsi été détourné de sa mission (...) subventionner les grandes créations scientifiques, promouvoir les disciplines nouvelles grâce à sa grande souplesse administrative. » Mais cet âge d’or n’a pas duré. Dès le début des années 70, le CNRS est entré dans son « premier trou d’air » d’après D. Guthleben et n’a plus jamais eu les moyens de toutes ses ambitions. Régulièrement depuis cette époque, jusqu’à

122 C’est

la période de forte croissance économique qui a commencé en 1946. du CNRS, Guthleben, p. 120. 124 « Il faudrait cinq milliards pendant cinq ans pour loger convenablement nos universités », Le Monde, 31 octobre 1948. 123 Histoire

154

De l’IBM 360/75 au superordinateur Jean Zay

aujourd’hui cette situation est pointée par des personnalités. Encore actuellement, le 9 janvier 2021, Antoine Petit, actuel directeur général du CNRS, écrit 125 : « La recherche française a besoin d’argent et de simplifications, La situation budgétaire n’est plus tenable. » Cela dépasse de beaucoup la question du centre de calcul. Quand il s’agit d’administrer la pénurie, chacun a tendance à protéger son secteur. C’est la règle générale. Il ne reste plus qu’à descendre dans l’arène, pour, au minimum, contribuer à l’information générale, en faisant connaître ce que l’on fait. C’est un problème que le CEA ne semble pas avoir eu, ni la société TOTAL, ni EDF, toujours en mesure de commander, pour leurs besoins propres, la machine la plus puissante commercialisée à un moment donné. P.  Jacquinot m’a très précisément mise en garde contre les difficultés que j’allais rencontrer avec l’Enseignement supérieur. Mais je n’y ai pas prêté une attention suffisante, faute de compréhension. Pourtant il a été très explicite et m’a tenu très exactement à cette époque les propos qu’il reprendra lors de son interview de 1984.

7.1 Avertissement de P. Jacquinot Il se trouve qu’on connaît bien les opinions de P. Jacquinot sur l’informatique et la place du CNRS dans le paysage de l’époque grâce au compte rendu de la visite en 1965 de Charles de Gaulle à son laboratoire et à une longue interview qu’il a donné en 1984, transcrite dans les archives orales du CNRS. Il y parle longuement des années où il a été directeur général à la fin des années 60. Nul ne connaissait la maison mieux que lui, depuis sa préhistoire. En effet, Aimé Cotton, professeur à la Sorbonne, lui avait obtenu en 1933 une bourse de la Caisse Nationale des Sciences, ancêtre du CNRS pour venir travailler avec lui au laboratoire de l’électro-aimant de Meudon-Bellevue. C’était, dès cette époque, le cas type de ce qu’on appellerait aujourd’hui un enseignant-chercheur qui trouve une place à son élève, dans un cadre où il pourra se consacrer à plein temps à la recherche. Il n’a quitté sa fonction de chercheur que pour devenir trenteet-un ans plus tard, en 1964, directeur général du CNRS. Son rôle en 1969 a été prépondérant pour la diffusion de l’informatique de service en France, mais rien dans son passé scientifique ne l’y disposait : « Je suis totalement incompétent. Ça ne veut pas dire que j’y étais opposé, mais disons que ce n’était pas dans ma philosophie. » Mais il s’est trouvé qu’en 1957, le problème scientifique qui l’intéressait nécessitait, sans qu’il en ait l’intuition, du calcul intensif sur un ordinateur plus puissant que ceux disponibles. C’est exactement, et ça le sera toujours, le cas éternel des problèmes de pointe. Pendant les années qui ont suivi à la direction générale du CNRS, il a découvert des sujets ayant les mêmes exigences. En même temps, il a compris à travers mes recherches et mon travail dans un centre 125 Antoine

Petit, https://www.cnrs.fr/fr/cnrsinfo.

L’histoire parallèle du centre de 1969 à 1975 155

de calcul de la NASA ce qu’était un centre de calcul intensif. C’est cette motivation suivant laquelle, pour certains problèmes, c’était l’ordinateur ou rien, que n’ont pas eue d’autres directeurs. J’ai tout de suite compris qu’une telle occasion ne se reproduirait pas et qu’il fallait en profiter. Il m’en a donné les moyens en matériel et personnel. On pourrait dire a posteriori que cette création aurait pu être préparée plus doucement, dans la concertation. Mais étant donnée l’atmosphère à l’époque, des discussions de cet ordre étaient impensables en France. Et il y avait urgence, vu le retard qu’on avait accumulé. Et puis on ne partait pas de rien. Au point de vue international, ce n’était pas une nouveauté. De tels centres fonctionnaient à l’étranger et j’avais réussi à redresser le centre de calcul de l’INAG, qui, à cette époque, était un centre dédié aux astronomes et aux géophysiciens. Mais il y a un autre domaine dans lequel l’expérience de P. Jacquinot a été primordiale. C’est la mise en garde qu’il m’a faite contre les difficultés de cohabitation du CNRS et des universités. Elle tient à l’organisation de la recherche publique en France, partagée entre le CNRS et l’Enseignement supérieur. Il avait tout fait pour y remédier en créant les laboratoires associés. Mais des difficultés subsistaient. Au début, ses propos me sont restés étrangers, mais au bout de six mois je les ai parfaitement intégrés. L’existence du CNRS, spécificité française, est une chance pour les chercheurs que nous envient les étrangers  : quel luxe de pouvoir faire de la recherche à plein temps ! Mais leur coexistence demande de la diplomatie. À la création du CNRS, Jean Perrin a bien expliqué que le CNRS était une nécessité parce que la recherche à l’université n’était pas à un niveau suffisant, qu’on n’y travaillait pas assez, et ça passait très mal chez les universitaires. Plus tard, P. Jacquinot remarque : « Qu’il y ait une sorte de “relation amoureuse” entre le CNRS et l’université avec tout ce que cela implique de contradictions. Dans une certaine mesure le CNRS se méfie de l’université. Les universitaires ont un certain nombre de caractéristiques qui ne doivent pas déteindre sur le CNRS. » Il regrette aussi : «  Que certains ministres “universitaires” semblent avoir eu une politique anti-CNRS affirmée. » Ce n’était pas pour faciliter la tâche d’un centre au service de chercheurs de toute appartenance. Pendant toutes les années où il a été directeur général du CNRS, P. Jacquinot avait eu à défendre le CNRS contre les autorités de tutelle et l’Enseignement supérieur pour lui garder son indépendance. Dans l’interview déjà citée, il analyse avec finesse la complexité de la place du CNRS dans les divers ministères qui le concernent : « Pendant très longtemps, le CNRS dépendait de l’Éducation nationale, alors qu’il existait simultanément un ministère de la Recherche. Situation paradoxale que nos visiteurs étrangers ne pouvaient pas comprendre et qu’il était d’ailleurs difficile de leur expliquer. Gaston Palewski 126, par exemple, n’avait 126 Membre

du Conseil constitutionnel.

156

De l’IBM 360/75 au superordinateur Jean Zay

pas de droit de regard sur le CNRS. Il était responsable de ce qu’on appelait l’enveloppe recherche. C’était l’organisation de l’époque, le budget était établi avec le comité des sages, dont le secrétaire général était la Direction générale de la Recherche Scientifique et Technique (DGRST). L’articulation était un peu complexe. C’est le ministre de l’Éducation nationale qui nommait le directeur du CNRS. » Il confesse : « Il y a deux choses que je suis fier d’avoir faites. L’une c’est la création des laboratoires associés et la deuxième plus contingente, d’avoir obtenu que le CNRS soit exclu de la loi d’orientation de 1968 127. Je me suis donné un mal fou aidé par Claude Lasry, directeur administratif et financier du CNRS, pour obtenir qu’un certain article  37, devenu par la suite 42, stipule que les dispositions de la présente loi ne s’appliquent pas au CNRS. D’ailleurs, d’autres établissements, dont le Collège de France, ont obtenu de figurer aussi dans cet article 42… Quand nous avons vu ce qui se préparait, nous avons compris que c’était la mort du CNRS. » Et très intéressant pour notre propos, quand on lui demande comment il y est parvenu, il répond : « À force d’insistance, de persévérance, et, peut-être, de persuasion. » La direction du centre de calcul a insisté, persévéré. Sans doute n’a-t-elle pas su persuader. Et on regrettera toujours le temps perdu. Mais peut-être dans ce qu’on appelle le contexte français, n’était-il pas possible d’aller plus vite. Et on peut se consoler avec le fait que le centre de calcul a contribué à montrer par l’exemple que le calcul intensif était un outil d’avenir pour la science du futur. Grâce à lui, quand l’opinion a été enfin prête, elle a trouvé une structure et surtout une équipe prête à affronter les grands défis. Son rôle n’était pas terminé. Il partait pour de nouvelles aventures dans un autre environnement, mais avec les mêmes objectifs. On ne dirait plus : «  Faire ce qu’on ne pouvait pas faire ailleurs. Mais faire une partie de ce qu’on ne pouvait faire ailleurs. » D’autres centres semblables font maintenant les autres parties. Et c’est là l’essentiel. Il a déjà été fait allusion à plusieurs reprises au fait que l’histoire du centre de calcul suivait étroitement celle du CNRS. Pas plus que le CNRS, le centre de calcul n’a disparu malgré les embûches. Au contraire, l’un et l’autre ont su démontrer leur utilité et ont su s’adapter. Mais quand le centre de calcul allait mal, souvent c’était parce que le CNRS avait aussi à se battre pour sa survie. Dans la suite nous verrons les armes employées par la direction du CIRCÉ pour survivre lui aussi.

127 La

loi du 12  novembre 1968 d’orientation de l’Enseignement supérieur dite «  Loi Faure » réforme administrativement l’université. Elle crée le « conseil universitaire » et intègre des activités d’enseignement et de chercheurs, via le statut d’enseignant-chercheur.

L’histoire parallèle du centre de 1969 à 1975 157

7.2 Vue d’ensemble sur la vie parallèle du centre pendant la première décennie Par son exemple et ses réalisations, il a amené la conscience collective des autorités de tutelle à reconnaître la nécessité, pour la recherche en général, du besoin de calcul intensif.

7.2.1 Comparaison entre nos propositions et nos réalisations La mise en place d’une usine à production de calcul avait été une surprise. Ce qui a été aussi inattendu, c’est la prise de conscience instantanée par l’équipe technique de la tâche qui était la sienne et du fait qu’elle a été prête à s’investir immédiatement, d’où le succès de sa professionnalisation. Et il faut se rappeler qu’on sortait tout juste de Mai 68. Bien sûr, dès le début avec C.  Gabriel, j’ai travaillé à faire reconnaître leurs compétences. Mais ce ne sont pas les maigres compensations obtenues qui ont motivé les ingénieurs. Pour eux, il fallait accepter de préparer, dans la journée, les travaux qu’ils passeraient eux-mêmes pendant leurs heures réservées, la nuit et le week-end. Parallèlement on a assisté à une évolution des utilisateurs. Un grand nombre sont devenus experts et utilisaient le système dans toutes ses extensions. C’est en tenant compte de ces considérations qu’a été menée l’étude de la machine du VIe Plan. En fait, pour bien comprendre cette période, il faudrait un tableau à quatre dimensions. Les deux premières périodes sont illustrées par le tableau chronologique ci-dessous. Il est à comparer à celui de la figure 72. Il reprend les 24 premières années du centre, vues à la figure 28 du chapitre 4 en intégrant ce qui aurait pu être si les diverses instances de décision avaient approuvé les projets présentés par la direction. En fait, la liste entre les refus, que dans la suite nous appellerons au choix les échecs ou les solutions manquées, n’est pas la meilleure qui soit. C’est la moins mauvaise, compte tenu des circonstances. Ce tableau est l’illustration parfaite de l’écart qui existait entre la volonté des équipes du centre qui visaient un centre de pointe et les instances de décision. Les premières préparaient des dossiers pour acquérir des ordinateurs spécialisés pour travail scientifique de pointe, CDC 7600 et CRAY, 3033 IBM, les mieux adaptés au calcul intensif, ce qui était sa vocation première. Les secondes mettaient leur véto et les premières essayaient d’offrir la meilleure qualité possible de calcul intensif avec des ordinateurs qui avaient une image moins connotée. Il manque deux autres dimensions. La première mesurerait l’évolution de la prise de conscience généralisée de l’importance du calcul intensif. La dernière serait la mesure de la diversité et de la complexité croissante des tâches demandées à l’équipe technique du centre. Elle avait anticipé et il fallait que le moment venu, elle soit prête. Elle continuera l’aventure dans les meilleures conditions possibles avec le matériel adéquat enfin accessible.

De l’IBM 360/75 au superordinateur Jean Zay

158

Date

1969-1972

Type équipement MF

Puissance NB MIPS CPU

CDC 3600

0,30

1

Déménagé depuis la rue du Maroc à Orsay

IBM 360/75

0,94

1

Installé à Orsay en 1969

IBM 360/50

0,30

1

Installé à Orsay

08/05/1970

Projet de CDC 7600 

24/09/1971

CDC 7600 

1972 1972 1973

1974-1976 1975-1976 Début 76 1976-1979 1979-1980 1980-1983

1983-1984

1984

1984-1986

Puissance Compléments informations Mflops

REFUSÉ

Proposition de création de CIRCÉ 2 IBM/370/165

2,70

1

Augmentation de la mémoire à 3 MGo en 1973

IBM 370/155

0,47

1

Décembre 1973 arrêt IBM 370/165

IBM 370/168

3,10

1

IBM 370/158

0,70

1

Installation IBM 370 158 en remplacement du 370 155

Dossier Remplacement du 370/158 par REFUSÉ IBM 3033 Document de prospective pour le long terme. Sans effet IBM 370/168

3,10

1

IBM 370/168

3,10

1

Avril 76 : un second IBM 370 168 remplace l IBM 370 158

Dépôt de demande CRAY

REFUSÉ

Amdahl V7

5,50

1

Amdahl V7 remplace le premier 168

IBM 370/168

3,10

1

Arrêt du 370 168 en 1983

Amdahl V7

5,50

1

Arrêt du V7 en 1986

NAS 9060 puis 9080

11,50

2

NAS 9080 Frontal du CRAY 1 déménagé dans le centre de l’École polytechnique

DPS8/62 M

1,50

2

Installation du Bull DPS 8 le 4/10/1984

CRAY

Installation au CCVR

IBM 3090 200

32,00

2

NAS 9080

21,50

2

VP200 DPS8/62 M

216

Frontal du CRAY 1 CCVR créé en 1984 533

1,50

2

IBM 3090 200 + 2 VF

Installation du VP200 sept. 1986 Bull DPS /62 Multics opérationnel

L’histoire parallèle du centre de 1969 à 1975 159

Date

1986-1990

1990-1993

Juin 1993

Type équipement MF

Puissance NB MIPS CPU

IBM 3090 600E

89,00

6

NAS 9080

21,50

2

VP200

1

DPS8/62 M

1,50

2

IBM 3090 600 S VF

100,00

6

NAS 9080

21,50

Puissance Compléments informations Mflops 696

IBM 3090 600 E + 6 VF Frontal du CRAY 2 CCVR en 1987

533

Calculateur Vectoriel Arrêt du Bull DPS 8 en 1990 et du NAS 9080

800

IBM 3090 600 S + 6 VF Frontal du CRAY 2 CCVR jusqu’en 1993

VP200

1

533

Noté au TOP500 06/1993. Rang 476 Pic Théorique 533 Mflops

CRAY Y-MP C90/8

1

8000

Création IDRIS. Arrêt IBM 3090

Figure 72 – Tableau chronologique des installations réalisées et de celles souhaitées et préparées

Et pendant ce temps, le CIRCÉ travaillait ! Tous les documents auxquels on se réfère, dans la suite, n’ont pas trait à la marche normale du centre avec ses problèmes administratifs normaux  : demandes de crédits, rapports d’activité, prospectives etc. Ils sont spécifiques aux luttes qu’il a fallu mener pour la survie du centre. Ils sont indispensables pour comprendre les empreintes qu’elles ont laissées à travers les années. Les luttes ont été de plus en plus dures, jusqu’au dépôt de notre lettre de démission. Elles se divisent en plusieurs étapes. Pour les comprendre, il faut s’appuyer sur les données fournies par un service de comptabilité dont il a été jugé nécessaire de donner les grandes lignes.

7.2.2 Caractéristiques de la charge et comptabilité adaptée Il est apparu dès le début que la direction devrait convaincre et persuader. Convaincre les utilisateurs toujours avides de plus de facilités qu’on essayait de faire le mieux possible avec ce que nous avions, persuader les décideurs de la nécessité de notre existence. C’était facile avec les utilisateurs car nous vivions avec eux, et leurs réactions étaient immédiates. Ils nous adressaient directement et dans l’instant leurs critiques. Nous n’avions pas les mêmes armes avec les décideurs. Eux seuls pouvaient savoir si les résultats scientifiques obtenus étaient intéressants. Une discussion sur la pertinence des résultats obtenus grâce au calcul intensif, c’est ce que nous avons demandé pendant vingt ans. Faute d’être qualifiés pour en décider, au moins pouvions-nous fournir à ceux dont c’était la fonction, des éléments pour

160

De l’IBM 360/75 au superordinateur Jean Zay

étayer leur décision. L’un d’entre eux a été la mise en service d’une comptabilité complète et sophistiquée, digne d’une entreprise de notre taille. Il fallait, à la fois, être capable de sortir facilement, à la demande, des documents permettant aux directeurs scientifiques ou de laboratoires de suivre leurs chercheurs, et de répondre aux critiques dont nous étions l’objet sur notre coût et nos capacités de gestionnaire. Pour justifier nos projets, il était indispensable de présenter des comptes non seulement complets, mais clairs. D’où, dès l’ouverture, l’implantation d’un service qui a occupé un ingénieur à plein temps, et une secrétaire, puis un agent supplémentaire à l’instauration du ticket modérateur en juin 1972. La saturation d’une configuration complexe qui sert à la fois à la mise au point, à l’exploitation, au télétraitement et à la promotion de techniques nouvelles, est une notion complexe ; elle ne peut se mesurer ni par le nombre de travaux effectués journellement (l’exécution de 1800 travaux courts d’étudiants ne prend que quelques heures), ni par le temps sous tension, mais par une étude critique de ces deux facteurs et des conditions d’exploitation 128. Il faut introduire les notions de : Heures ouvertes, pendant lesquelles le CIRCÉ peut employer et rémunérer le personnel du lundi 7 heures au dimanche 7 heures soit 6843 h 25 de mai 1970 à mai 1971. C’est le temps horloge. Heures sous tension, pendant lesquelles les ordinateurs sont effectivement utilisés. Leur total peut être inférieur au précédent, si à la fin de la semaine, il ne reste que des travaux trop longs pour le temps d’ouverture restant et qu’on ne peut donc commencer. Temps d’exploitation, c’est le temps sous tension diminué de celui de la maintenance préventive, des pannes hardware et software imputables au constructeur, des arrêts de climatisation ou une mauvaise alimentation électrique il est de ­90,56 % du temps horloge. Le tableau suivant (figure 73) récapitule les divers temps mesurés. On voit que dans notre cas de mai 1970 à mai 1971, sur 12 mois, le taux d’utilisation est de 98,76 % du temps horloge. Il est de 100 % pendant 5 mois, dont le mois de décembre. C’est difficile de faire mieux. Pour faire une comptabilité correcte avec un système travaillant en multiprogrammation, il a fallu introduire les notions de temps CPU et de temps pondéré TPO. Nous distinguons le temps CPU (C) qui est le temps total de fonctionnement de l’unité centrale. Dans l’exploitation du centre, il varie de 90  % du temps sous-tension, pendant les mises au point de la journée à 95 % pendant les travaux de nuit. Ce sont des taux qu’il semble difficile de dépasser. Il comprend à la fois le temps de calcul pour des « programmes utilisateurs » CPU (P) et celui absorbé par l’ensemble des tâches système, opérations d’entrées-sorties, gestion des terminaux. Le temps CPU (P) est en moyenne de 54,16 % du temps sous tension. La chaîne de comptabilité donne encore, pour chaque travail, beaucoup d’autres renseignements, le nombre de cartes lues, le nombre de cartes perforées, le nombre de lignes imprimées, le nombre de montages de volume de stockage individuels, bandes ou disques. 128 Rapport

au comité de direction du CIRCÉ du 16 juin 1971, p. 5.

L’histoire parallèle du centre de 1969 à 1975 161

Figure 73 – Temps mesurés de mai 70 à mai 71

Ce qui est facturé aux utilisateurs, c’est encore autre chose, c’est le temps pondéré TPO obtenue par une formule complexe. Elle tient compte à la fois de CPU (P), de la taille mémoire, du volume des entrées-sorties, de la différence entre la priorité demandée, pd, et celle calculée, pc, par le système pour sa gestion optimum. La formule que nous utilisions à l’époque est :

Elle sera modifiée à chaque changement de matériel.

162

De l’IBM 360/75 au superordinateur Jean Zay

Il peut sembler que le choix des paramètres soit arbitraire. En fait de nombreuses études théoriques sur ce sujet ont été faites dans des centres de recherche universitaires et ont donné des résultats semblables aux nôtres. La formule employée est réaliste : le temps pondéré est très voisin du temps d’exploitation.

Figure 74 – Récapitulation mensuelle des temps pondérés par discipline de mai 1970 à mai 1971

L’histoire parallèle du centre de 1969 à 1975 163

Des graphiques de temps pondéré par discipline et par mois (figure  74) devaient permettre aux directeurs scientifiques de suivre la pénétration de l’informatique dans leur secteur. À cette époque, les plus gros utilisateurs étaient la physique, la chimie et les mathématiques. Un même graphique aujourd’hui montrerait un facteur de plus de 1000 sur les échelles et la prédominance de la biologie et des sciences humaines.

7.3 Histoire parallèle du centre d’avril 1969 au 25 mars 1970 Elle mérite d’être étudiée spécialement car c’est pendant cette très courte période que la plupart des problèmes clés se sont présentés. Il a fallu, en un temps record, mettre en place une organisation qui évoluera, mais subsiste dans ses grandes lignes jusqu’à aujourd’hui. P.  Jacquinot avait fait un pari risqué en créant un centre, copie de celui du JPL. Il n’y avait rien de semblable en France, ni à ce moment-là en Europe, même s’il sera dépassé en Angleterre peu après. C’était aventureux car au début lui seul dans la direction en voyait la nécessité. Mais le pari n’était pas gagné. Il fallait faire ses preuves très vite et sans accrocs et montrer que la clientèle, était là, prête à répondre, qu’on avait compris ses besoins. Aucun statut n’était prévu pour un personnel ayant les contraintes que nous imposions. Il fallait concrétiser l’effet de surprise et comme m’avait dit H. Curien, nous n’avions pas droit à l’erreur. Sur le terrain, il fallait tout inventer. Au départ, la situation est idyllique. Le centre est un laboratoire propre du CNRS, avec un budget assuré. Les heures de calcul sont distribuées par le comité national, avec contrôle a priori et a posteriori. Chaque année, dans leur demande de moyens, les utilisateurs justifiaient l’emploi des heures utilisées l’année précédente et donnaient des arguments pour justifier la demande pour l’année suivante. Pour la gestion du centre, pendant cette courte période, à la demande de H. Curien, je n’ai eu de contact qu’avec lui, C. Gabriel, le comité national, les utilisateurs et les différents comités de direction et d’utilisateurs. Mais cette organisation, efficace à la création n’a pas été pérenne. L’euphorie n’a duré que quelques mois. Les difficultés sont apparues beaucoup plus tôt qu’il n’avait été anticipé. Un phénomène inattendu a surgi. Il nous a surpris, mais une connaissance plus approfondie de l’état de la science dans les différentes disciplines au niveau mondial nous aurait permis de l’anticiper. Dès la fin de 1969 la saturation est apparue. Comment cela se manifeste-t-il ? Plus d’une heure d’attente au dispatching, et pour les travaux lourds de la nuit, un surplus de plusieurs heures d’exécution qui restent pour la nuit suivante. Les files d’attente grossissent de jour en jour. En quelques mois, on a démontré la nécessité d’un moyen de calcul intensif. Le comité de direction prend acte de la saturation le 25 mai 1970. C’est une date marquante dans l’histoire du centre de calcul. C’est, un an après la création, celle du premier comité de direction qui constate la saturation et en fait l’unique objet de sa délibération. Son président M. Malavard, s’en inquiète. Il connaissait bien les questions calcul, depuis la création ancienne de son laboratoire de calcul analogique auquel il s’était consacré avant de passer au numérique.

164

De l’IBM 360/75 au superordinateur Jean Zay

En 1972, il créera le Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI). Pour la première fois est nettement posée la question : Comment arrêter le processus, comment arrêter la saturation ? Aucune étude n’était envisagée pour apprécier les résultats obtenus, ni discuter, chiffres en main la gestion du centre, l’idée sous-jacente étant pour certains que les chercheurs s’amusaient, inconscients du prix de leur jouet. S’engage alors une discussion pour savoir comment on peut l’éviter. Il faut bien remarquer que dans cette réunion de travail, il n’est pas question d’un examen approfondi des résultats obtenus dans chaque discipline, ce qui évidemment aurait été la seule réaction vraiment constructive. Force est de constater que si, pour tenter de rattraper le retard abyssal de la France en matière de service, de production informatique de pointe, un centre avait été imposé, aucune politique à long terme n’avait été définie. Il était peut-être difficile, vu le niveau de notre culture en la matière, de prévoir les besoins exacts en France, le problème étant appréhendé très diversement dans les différentes disciplines, et aussi de prévoir l’évolution des techniques. On peut imposer la création d’un centre de calcul. On ne peut pas vous imposer l’idée qu’il est indispensable pour vous. Il faudra le découvrir petit à petit. Aussi l’évolution du CIRCÉ et de ses modes de financement s’est-elle faite d’une façon pragmatique sous la pression des évènements. Quelles sont les solutions possibles pour éviter la saturation ? C’est à ce comité qu’apparaissent pour la première fois, les questions suivantes qui deviendront récurrentes. − Calculs nécessaires ou non ? Quels experts pour en juger ? − Est-ce la façon la plus économique de les réaliser ? − Le CIRCÉ est-il saturé parce que c’est gratuit ? − Le CIRCÉ a-t-il une maturation suffisante pour une gestion saine ? Ces questions semblent tout à fait normales et justifiées. Ce qui est spécifique à la France, c’est qu’on les entendra, sous la même forme, pendant des décennies, quelles que soient les réponses qui y seront données, les tableaux et rapports de tous ordres fournis 129. La mise en place d’un ticket modérateur est aussi présentée, émise par Leduc pour obliger les utilisateurs à plus d’attention. Mais ils doivent déjà faire attention ! Pour les travaux plus longs, en fin de semaine, il y a déjà des files d’attente de plusieurs heures. Autre problème évoqué pour la première fois, le calcul du prix de revient de l’heure qui montre que le gros centre, pour un calcul donné, est le système le plus économique.

129 Une

des causes, mais pas la seule, de l’inefficacité de mes réponses aux questions récurrentes, m’a peut-être été donnée vingt-cinq ans plus tard. F.  Kourilsky m’avait demandé un rapport sur une plainte déposée par des chercheurs attaquant le CNRS pour une sombre histoire de fichiers scientifiques perdus. Je concluais, sans ambigüité, qu’ils étaient responsables et ils ont retiré leur plainte. F. Kourilsky l’a annoncé au comité de direction du CNRS et a fait circuler le rapport. Peu de temps après l’un des membres qui avait été directeur scientifique m’a félicitée pour mon enquête, ajoutant : « Si j’avais su que vous étiez capable d’écrire ça, j’aurais lu vos rapports ».

L’histoire parallèle du centre de 1969 à 1975 165

7.4 Histoire parallèle du CIRCÉ du 25 mars 1970 au 4 avril 1972 La saturation va en s’aggravant. Elle se traduit, pour les petits travaux de jour, par plus d’une heure d’attente au dispatching, et pour les travaux lourds de la nuit, un surplus de plusieurs heures qu’on ne peut exécuter. Le retard ne peut être résorbé, au mieux, que pendant le week-end. En fin de semaine, il est fréquent que nous ayons plusieurs dizaines d’heures de retard d’exploitation. Quand le retard dépasse 50  heures, le centre fonctionne le samedi et dans la nuit de samedi au dimanche « à guichets fermés », c’est-à-dire qu’on n’accepte plus de travaux nouveaux, ni au self, ni au dispatching, ni par les terminaux. Il n’y a pas de période creuse pendant les vacances universitaires. Quand le nombre de mises au point diminue, le temps d’exploitation libéré est immédiatement absorbé par les travaux longs en attente. Commence alors ce que le comité de direction du 25 mai considère comme la période la plus sombre de l’histoire du centre. Il y en aura d’autres ! Et ce n’est que le début de ce que P. Papon appellera plus tard « la bataille du centre » qui durera des décennies. Malgré le soutien actif de quatre des directeurs généraux, du directeur administratif J.  Creyssel, du directeur du personnel, C. Gabriel, d’un directeur scientifique et de deux de leurs chargés de mission, le Centre, à partir de cette date, sera saturé sauf pendant les deux ou trois mois suivant l’installation des nouveaux matériels qu’on aura pu arracher aux diverses instances et commissions. Des précautions avaient été prises pour prévenir les critiques. J’avais fait nommer au comité de direction, des représentants de l’Enseignement supérieur dont Loup Verlet, le directeur du centre universitaire PSI à Orsay, Bolliet, responsable de celui de Grenoble, Berthet qui sera directeur du centre de calcul de l’université Paris-Dauphine, des représentants des ministères au gré des changements de ministère de tutelle. J’avais essayé qu’y soient présentes toutes les composantes des diverses tendances. Il y avait aussi un représentant du CEA qui longtemps fut A. Amouyal. Le centre de calcul fournissait tous les graphiques et les témoignages qu’il croyait convaincants et essayait de tenir compte de toutes les critiques et suggestions. Les comptes rendus de ses séances répondaient aux questions par des chiffres et étaient approuvés à l’unanimité. Mais rien n’y faisait. Je n’ai pas su persuader, comme P. Jacquinot l’avait fait des années plus tôt pour sauver le CNRS de la disparition. Les oppositions avaient des raisons multiples qui se retrouvaient dans l’interrogation : que vient faire cette usine qui coûte cher ? L’attitude la plus paradoxale, est celle de Loup Verlet. C’était un brillant physicien et un écrivain philosophe. Agrégé de l’ENS à vingt-deux ans, il fut le pionnier de la simulation par ordinateur des modèles moléculaires dynamiques. Il reste célèbre parce que, deux ans avant la présentation de notre première consultation pour l’accroissement de puissance du CIRCÉ, il avait déjà publié ce qui s’appelle l’intégration de Verlet, méthode d’intégration numérique pour les équations du mouvement 130. C’est dire qu’il ne croyait pas, comme bon nombre de dirigeants de Verlet, «  Computer Experiments on Classical Fluids. I.  Thermodynamical Properties of Lennard-Jones Molecules  », Physical Review, vol.  159, no  1, juillet 1967, p. 98-103 (DOI 10.1103/Physe. 159.98). 130 Loup

166

De l’IBM 360/75 au superordinateur Jean Zay

l’époque au CNRS, à l’Enseignement supérieur et au ministère, que l’informatique était un gadget. L’Enseignement supérieur s’est servi de ses réticences personnelles pour justifier sa propre position, mais les préoccupations de L. Verlet étaient plus locales. Il avait fondé à la faculté un centre de calcul universitaire très convivial, échappé au plan calcul, et s’était équipé de matériel étranger UNIVAC. La nuit il travaillait plus en service bureau avec l’aide de quelques étudiants et ça convenait à nombre de ses utilisateurs. Il voyait dans le CIRCÉ sur le même campus que lui, non pas une adjonction qui pouvait être utile à certains chercheurs, mais un concurrent, ce qu’il n’était pas. Que tous les utilisateurs satisfaits des services de PSI continuent d’y aller sans se soucier de notre présence, et que viennent au CIRCÉ simplement ceux qui avaient besoin de ses services spécifiques. Tout s’est parfaitement déroulé. Les utilisateurs ne se souciaient pas de leur appartenance administrative et étaient étrangers à ces querelles qu’ils ne soupçonnaient même pas. Ils sont venus au CIRCÉ quand ils ont eu besoin de ses facilités. On visait un 7600 CDC ou en second choix 2×165 IBM et on s’est retrouvé, après vingt-deux mois de négociations, avec un 165. Les détails de cette transaction sont donnés pour montrer comment le CIRCÉ, dès sa création, a gagné sa place dans la cour des grands chez les constructeurs, et est devenu pour eux un client redoutable dont ils voulaient tous se servir comme d’une vitrine. Mais ce n’a pas suffi. Cette première consultation était un travail considérable. On ne cherchait pas le meilleur rapport qualité/prix dans l’absolu, mais celui correspondant à nos besoins. Depuis l’installation du 360/75, nous procédions en permanence, à l’enregistrement, au dépouillement et à l’étude de très nombreuses informations qualitatives et quantitatives sur l’emploi de nos ordinateurs. Les mesures faites sur une base périodique (quotidienne, hebdomadaire, etc.) ou par évènement, grâce à des dispositifs hardware ou software spécialisés que nous avions développés, nous permettaient d’améliorer notre productivité et la qualité du service rendu. Ils nous ont aussi permis de définir avec précision les besoins du centre pour le 6e plan, et de constituer un programme d’essais permettant d’évaluer les performances des ordinateurs proposés, dans notre environnement. Après cette longue étude au plus près du travail des utilisateurs, nous sommes arrivés à la conclusion qu’il faudrait dès le début 1972 doubler la puissance, la quadrupler en 1973 et la quintupler en 1974. Il paraissait raisonnable de demander aux constructeurs une machine six fois plus puissante que l’actuelle. En fait, les solutions proposées ne représenteront qu’à peine plus de cinq fois celle du matériel actuellement installé. Nous avons présenté notre projet à H. Curien. Dès cette époque, nous avons eu un soutien sans faille de C.  Gabriel, chef du personnel, puis directeur de Programmes et Moyens, et de P. Creyssel 131, directeur administratif et financier. Ils ont cru au bienfondé de notre entreprise, nous ont écouté, et nous ont soutenu en toutes circonstances. Ils ont été nos ambassadeurs auprès des hautes autorités des Finances et de l’Industrie où nous n’avions aucune entrée. La suite du compte 131 Introduction

au rapport d’activité du CNRS de 1969 (openedition.org). Pierre Creyssel était étranger à l’institution. Il venait du Conseil d’État. Il s’est rapidement imposé, comme le double, et non l’ombre de H. Curien. Les réformes réalisées à partir de 1970 portent leur double empreinte.

L’histoire parallèle du centre de 1969 à 1975 167

rendu de notre lutte des deux prochaines années montre leur implication personnelle et constante qui pour le centre a été primordiale.

7.4.1 Histoire de la première occasion manquée Le récapitulatif des évènements de la vie parallèle du centre entre les années 70 et 72, relate les nombreuses interventions qui ont abouti à l’obtention d’un IBM 360/165, après deux années de saturation. C’est la première d’une longue série de batailles. Son étude détaillée fait prévoir qu’elle se répétera à l’identique à chaque demande de changement du matériel pour cause de saturation du matériel en place et de nouveaux progrès technologiques que les chercheurs ne trouveraient pas en France.

7.4.1.1. Calendrier de l’opération manquée 8 août 1970

Consultation remise aux constructeurs.

28 septembre 1970

Premier rapport remis à M. Curien sur le dépouillement des appels d’offres.

30 octobre 1970

Envoi du 2e rapport qui tient compte de leurs remarques

2 février 1971

Envoi d’un rapport à H. Curien : questions à se poser devant la saturation.

16 février

Après trois mois de délibération, le choix se porte sur le 7600 CDC.

5 mars 1971

Intervention d’IBM directement auprès de W. Mercouroff pour protester contre le choix.

18 mars 28 avril

Discussions au sujet de cette intervention à la direction du CNRS H. Curien m’en informe.

28 avril 1971

Lettre à H. Curien rappelant l’urgence du choix.

7 juin 1971

Appel au secours à M. Gabriel.

13 juillet

N. Aucagne 132 donne un avis favorable pour un 7600 CDC.

21 septembre

Visite à H. Curien qui fait part de ses inquiétudes pour le financement

24 septembre 1971

Aucun argent disponible. Reconduction des crédits 1970.

29 décembre 1971

240 000 francs pris sur crédits équipements.

3 février 1972

Passage en commission CSMI. Résultat 1×165 IBM.

Fin de l’épisode 11 février 1972

Dépôt d’un marché à la commission des marchés pour 1×165.

Figure 75 – Calendrier du changement de matériel 132 Noël

Aucagne : secrétaire technique du groupe spécialisé pour les marchés des matériels de bureau électromécaniques et électroniques, rattaché au ministère des Finances, représente à partir de 1970 le président de la commission à l’informatique du ministère de l’Économie et des Finances au sein de la commission interministérielle à l’informatique, section « collectivités locales », commission à l’informatique du ministère de l’Intérieur, 29/10/1970 ([CAC]-930178/art. 5/chemise 206.

168

De l’IBM 360/75 au superordinateur Jean Zay

7.4.1.2. Consultation pour renouvellement de matériel Nous avons déposé la consultation pour un nouveau matériel deux mois et demi après que le comité de direction a acté la saturation. Ceci se terminera le 12 juillet 1972, par l’autorisation pour un matériel autre que celui commandé. L’opération va être détaillée pour plusieurs raisons. La plus importante c’est qu’il fallait que nous montrions notre professionnalisme, à la fois à notre direction qui nous faisait confiance et aux constructeurs qui devaient prendre au sérieux nos arguments techniques. Pour nous, c’était comme un examen de passage. C’était un des éléments de réponse aux critiques qui nous étaient faites sur nos capacités techniques et de management. Le texte intégral du cahier des charges rédigé le 5 août 1970 est donné dans l’annexe 5. La puissance demandée n’est qu’un des aspects de la consultation. En 1970, les tests LINPACK n’existaient pas. Il fallait donc bien choisir les programmes. Pour 90 % ce sont des travaux d’utilisateurs dont 57 sont répartis en 4 catégories : − lot travaux de production caractéristiques des programmes actuellement exploités, ce n’est pas un échantillon ; − échantillon de travaux courts, certains vérifient des points précis ; − utilitaires et facilités opératoires ; − travaux destinés à vérifier des points précis du fonctionnement hardware ou software. Le texte d’accompagnement détaillait les conditions d’organisation des passages, la façon dont les conversions éventuelles devraient être effectuées, les éléments de mesure à fournir, les documents, listings, qui devraient être remis, certaines conditions propres à chaque constructeur (différentes configurations à tester). Il détaillait chacun des travaux de test et ses conditions de passage. Les tests devaient pouvoir être effectués à partir du 18  novembre 1970, ceci afin d’éviter des propositions sur du matériel qui ne serait pas encore opérationnel, et ne viendrait peut-être jamais. Outre les conditions financières, les constructeurs devraient tester les conditions de travail particulières au site : chaque jour, plusieurs centaines de travaux de 0 à 60 secondes de CPU et d’autres de 1 à 6 heures. Des travaux seront interrompus avec check point au bout de quelques heures pour reprise ultérieure. Tous les périphériques devaient être repris, ainsi que le télétraitement. La maintenance préventive et les modifications devaient se faire de nuit.

7.4.1.3. Comparaison technique des offres La consultation a été envoyée à 11 constructeurs : Bull-Ce, Burroughs, CDC, CII, Honeywell : IBM, ECI, NCR, Philips, Siemens, UNIVAC. Elle a été jugée redoutable. Six d’entre eux ont répondu par lettre, dans les jours qui suivaient qu’ils ne pouvaient faire de proposition. Burroughs a répondu de même après visite au CIRCÉ ; UNIVAC, après plusieurs lettres de rappel a répondu qu’il n’aurait pas de machine pouvant convenir avant juin 1971. La CII, au terme de huit mois d’une action commerciale irresponsable et fort arrogante, n’a fourni que très peu d’éléments techniques. En avril 1971, à la sortie de l’IRIS 80, la compagnie a reconnu ne pouvoir répondre à l’appel d’offres avec le matériel existant. En effet, sur quelques essais possibles en mars 1971, l’IRIS 80 proposé était 2,33 fois moins puissant que le 360/75 en service.

L’histoire parallèle du centre de 1969 à 1975 169

La liste des principaux critères de jugement a été établie le 19 octobre, après de multiples études avec tous les acteurs, ainsi que celle des pondérations qui devraient leur être affectées le 18  décembre. Il a été établi, qu’un sujet étant noté sur k points, la solution la meilleure dans l’absolu aurait la note k. Les solutions pour chaque constructeur seront notées sur k.

Figure 76 – Barème de notation des configurations proposées

Figure 77 – Classement des trois configurations retenues

7.4.1.4. Comparaison financière Mensualité TTC

Matériel avant entretien 5j/7, 24h/24 Prestations diverses (minimum, la 2e année de fonctionnement)

2 × 165

195

7600

2 × IRIS80

1 590 000

1 595 000

1 565 000

1 624 000

79 250

66 750

12 500

×

De l’IBM 360/75 au superordinateur Jean Zay

170

7.4.1.5. Dépouillement et choix IBM et CDC ont fait d’énormes efforts l’un et l’autre pour obtenir le marché. Tous deux appréciaient l’organisation du centre, la qualité des équipes et voulaient qu’il devienne leur vitrine. Il existait des parcs IBM beaucoup plus importants que le nôtre (Crédit lyonnais, EDF, etc.), mais seul le CEA avait à cet instant une machine plus puissante pour le calcul scientifique. Pour CDC, il s’agissait d’évincer IBM du grand centre « Éducation nationale ». Le choix s’est vite limité à trois solutions : IBM 195

grandes qualités hardwares, mais vulnérable : une seule unité centrale. Le 28 septembre nous envoyons un rapport à H. Curien dans lequel le choix se fera entre le 195 IBM et le 7600 CDC ;

IBM 2×165

grande fiabilité puisque 2 unités centrales, mais pour les gros travaux deux unités centrales ne s’acquittent pas aussi bien de la tâche qu’un ordinateur de puissance double ;

CDC 7600

la configuration présente une partie des avantages des deux premières. D’autre part, alors que les livraisons de l’un et l’autre ne sont prévues que pour mai 1972, CDC offre l’installation immédiate d’une 6600 pour remédier à la saturation.

Le 28  septembre 1970, un rapport à H.  Curien présente l’alternative  : 195 IBM, 7600 CDC. À ces problèmes de choix de machines, se superposent ceux déjà signalés avec l’Enseignement supérieur et les différents ministères dont celui de l’Industrie qui veut imposer du matériel français Bull. Et apparaît au premier plan, celui du recrutement de personnel. On a créé en six mois un centre de calcul intensif déjà saturé, mais aussi se sont accumulés tous les problèmes inhérents à une entreprise nouvelle dans l’institution. Le 16 février 1971, un rapport interne remis à H. Curien, l’informe que les demandes d’heures pour 1971 correspondent au double de celles disponibles. Il sera discuté dans une entrevue où sont abordées les quatre questions suivantes qui reviennent toujours et évitent de s’attaquer au problème de fond : nécessité pour les directeurs scientifiques ou des experts, de déterminer la pertinence des résultats scientifiques : tous les calculs effectués ou prévus sont-ils nécessaires ? Tous les programmeurs sont-ils efficaces  ? Comment trier les calculs justifiés ou non  ? A-t-on une motivation pour obtenir une gestion saine du CIRCÉ  ? Analyse des raisons pour lesquelles le prix de revient d’un calcul est plus faible au CIRCÉ que dans le privé. Difficultés d’interprétation de l’application d’un ticket modérateur. Les mois suivants ont été riches en rapports, réunions qui ont abouti au choix définitif du 7600 CDC. 16 juin 1971 : au comité de direction du CIRCÉ, W. Mercouroff insiste sur les difficultés financières du CNRS et pense personnellement que le CIRCÉ ne doit pas grossir. 13 juillet 1971 : N. Aucagne donne son autorisation pour le 7600. Mais c’est de l’intérieur du CNRS que viennent les retards et difficultés. L’année suivante, la question ticket modérateur occupe entièrement les réunions

L’histoire parallèle du centre de 1969 à 1975 171

des divers comités. Malgré tous leurs efforts, H. Curien et C. Gabriel ne parviennent pas à obtenir des arbitrages budgétaires au sein du comité de direction les sommes qu’ils avaient demandées, et la mort dans l’âme, nous ont annoncé qu’on ne pourrait avoir le budget promis au départ. 24 septembre 1971 : nous apprenons que notre budget 1972 serait identique à celui de 1971. En même temps, on nous demandait d’arrêter le 3600 CDC, importé de Blaise Pascal, deux ans auparavant. La saturation était telle que le service se dégradait. Il fallait agir vite, oublier en un jour le travail sur CDC accompli depuis deux ans, la préparation du 195, tous les stages effectués, et trouver la solution de sauvetage immédiate ou c’était la disparition. Mais cette longue étude nous avait formés. Nous et les ingénieurs avions une connaissance aigüe du marché. Aussi dès le lendemain 25 septembre, les équipes, encore sous le choc de la déception, après avoir travaillé pendant des mois à la préparation de matériel CDC, se sont mises à préparer pour la direction du CNRS un projet d’installation d’un IBM 370/165 à Pâques 1972. Cette solution présentait les avantages suivants : − puissance de calcul doublée à budget constant ; − possibilité de mise en place progressive rendant l’opération transparente aux utilisateurs ; − reprise intégrale de toutes les facilités mises en place pendant le fonctionnement du 75 ; − possibilités d’extensions futures ; − mise en place dans un délai court. Pour la présentation du projet, nous avons repris des éléments de celui soumis à la direction le 8 août 1970, c’est-à-dire 20 mois auparavant, mais avec des différences fondamentales. − La preuve est faite que les chercheurs ont besoin de calcul intensif. − La nécessité de travailler à budget constant, fait qu’on ne cherche plus la machine qui absorbera la charge jusqu’à la fin du 4e plan, mais celle qui absorbera la saturation pendant quelques mois et on sera revenu à la situation précédente. La saturation est telle que le service se dégrade et les utilisateurs ont tendance à en rejeter la responsabilité sur le centre qui ne peut plus leur rendre le service attendu, auquel ils peuvent prétendre. Les ennuis inhérents à une machine trop chargée sont exacerbés. − Très grande sensibilité des utilisateurs au moindre incident hardware ou software perturbant la production 10 à 20 minutes. − Délai de restitution des petits travaux passé à 4 ou 5 heures. − Difficulté permanente pour disposer de l’ordinateur pour des tests nécessitant le système (connexion d’un terminal, tests système particuliers…). − Sensibilité de la production à l’indisponibilité provisoire d’unités périphériques (imprimantes, disques……). Le projet ayant été accepté par la direction du CNRS, nous l’avons soumis à l’approbation des divers comités.

172

De l’IBM 360/75 au superordinateur Jean Zay

7.4.2 Installation d’un 165 IBM 16 novembre 1971

Le comité des équipements informatique accepte le projet. Je transmets à H. Curien l’avis favorable de N. Aucagne.

17 février 1972

La Commission Spécialisée des Marchés Informatiques (CSMI), donne son accord de principe, sous réserve de quelques modifications au texte du marché.

24 février 1972

Le président du groupe spécialisé donne son visa après examen du nouveau texte de marché.

Il restait un mois pour organiser le transfert du visa au CNRS, le faire signer par le contrôleur financier puis faire parvenir le marché signé et visa au constructeur. Puis il fallait réceptionner la machine. Tout était prêt pour la semaine de Pâques. Les grandes lignes de l’installation ont été les suivantes  : mise hors service du 360/50 pour libérer un espace suffisant en salle machine. Installation à sa place de l’unité centrale du 165, de ses canaux, et de quelques unités périphériques, pendant que la production se poursuivait sur le 75. Mise hors service du 75 quand les tests sur le 165 ont été satisfaisants. Connexion au 165 de toutes les unités périphériques antérieurement rattachées au 75. Reprise de l’exploitation sur 165. La semaine de Pâques a été choisie pour l’arrêt du 75 comme étant celle qui, dans les premiers mois de 1972, gênerait le moins les utilisateurs (vacances scolaires et universitaires, jours fériés…). À l’inverse, le personnel du CIRCÉ a dû respecter un calendrier de vacances permettant par exemple, de disposer de tout le personnel d’exploitation la semaine précédente (pour suivre des cours), de tout le groupe système pendant la semaine et le week-end de Pâques, de tout le personnel d’assistance informatique, dès le début de production du 165. L’installation de la climatisation a dû être modifiée puisque l’unité centrale du 165 est refroidie par eau. L’alimentation électrique de l’unité centrale 400/450 périodes a demandé l’installation d’un groupe convertisseur Westinghouse, le passage de câbles d’alimentation entre le sous-sol et la salle machine et divers autres aménagements. Ces travaux ont nécessité l’interruption de la production pendant quelques heures, de nuit ou le dimanche. Parallèlement, la réalisation d’une installation permettant d’absorber toutes les coupures d’alimentation électriques par le secteur a été entreprise, mais le système n’est entré en service que plusieurs semaines après le début de production sur le 165. 4  avril 1972  : mise à disposition du 165 d’IBM. La fiabilité du 165 s’est révélée meilleure que celle du 75. Elle a encore été améliorée grâce à la qualité de l’alimentation électrique. Cette première « opération manquée (installer un 165 au lieu d’un 7600) » a été très formatrice. J’ai compris que pendant un temps indéterminé, mais que je supposais long, il faudrait travailler à budget constant. Mais pendant ce temps, les besoins allaient croitre de plus en plus vite. La seule solution pour faire face à la demande croissante reposait sur le fait qu’à puissance égale, le coût des ordinateurs diminuait. On était donc condamnés à travailler souvent,

L’histoire parallèle du centre de 1969 à 1975 173

sinon toujours, près de la saturation. On pouvait espérer aussi des ordinateurs compatibles, moins chers que les originaux. Mais quelle sera leur qualité ? Les équipes seront, face à une demande croissante, en perpétuelle adaptation, avec l’impératif de garder, et même d’augmenter la qualité du service.

7.5 Histoire parallèle du centre d’avril à décembre 1972 Les préoccupations majeures étaient la saturation du centre et les passages en commission. Cependant la plus grande partie des comités de direction du CIRCÉ, des réunions des utilisateurs, des réunions de responsables de laboratoires était consacrée au ticket modérateur (TM). À  toutes les réunions, W. Mercouroff, quand il était présent, avait un leitmotiv inchangé : « Le CIRCÉ ne doit pas grossir ». Le 3 février, je lui ai fait parvenir une note lui posant neuf questions sur le ticket modérateur. Il n’y a pas eu de réponse. En juillet 1972, le ticket modérateur est installé officiellement. Nous avions anticipé cette annonce en mettant en place notre comptabilité sophistiquée et nous l’avons appliqué scrupuleusement. Au comité de direction du 20  octobre 1972, auquel étaient présents : M. Amouyal et L. Verlet, L. Malavard recadre le débat en tant que président. Il insiste sur le rôle particulier du comité de direction : « Le CIRCÉ est un service. Qui détermine sa politique ? Son comité de direction ou la direction du CNRS ? Le comité est là pour juger de la qualité du service, des besoins qu’il satisfait et qui se manifestent, de la qualité de sa gestion, mais ce n’est pas le lieu où le censurer. » M. Amouyal, au nom du CEA, atteste que le 370/165 est saturé, et qu’il est bien géré. Il préconise son remplacement immédiat par un IBM 370/168 et l’adjonction d’un IBM 370/145. W. Mercouroff annonce que le budget 1972 sera celui de 1971. Donc il faut faire des plans à budget constant. Constatant la croissance des besoins, l’évolution des utilisateurs et la maîtrise qu’ils ont acquise du traitement numérique, pour la première fois, j’évoque la possibilité d’un autre centre de service dans la région Sud. Ce serait une réponse à l’augmentation de taille du CIRCÉ et à la concentration de moyens dans la région parisienne.

7.6 Histoire parallèle de 1973 à 1975 Le System/370 Model 165 a été saturé dès décembre 1972, malgré le ticket modérateur. Pour faire face à la situation, un projet d’évolution du matériel en 1973-1974 a été présenté aux différents comités internes et à la direction du CNRS en février 1973, comme conclusion aux différentes réunions de concertation 133. Deux des sujets qu’il traite sont l’augmentation de puissance nécessaire et l’explosion du télétraitement.

133 Projet

la DIS.

d’évolution du matériel informatique du CIRCÉ en 1973 et 1974, Archives de

De l’IBM 360/75 au superordinateur Jean Zay

174

7.6.1 Évolution matérielle et financière Elle est prévue en trois étapes : augmentation de 106 octets en mémoire centrale du 370/165 pendant le week-end de Pâques, remplacement du 370/165 par un 370/168 en décembre 1973, et l’adjonction d’un 370/158 en avril 1974. La justification donnée dans ce rapport qui prépare la constitution des dossiers pour passage en commission est la suivante. « Nous avions proposé en son temps le choix d’un IBM 165 comme la moins mauvaise solution à notre problème. À l’usage et compte tenu de l’évolution en 1972 des matériels (et surtout des prix) IBM, alors que rien de nouveau n’est apparu chez les autres constructeurs, le projet de remplacement de la configuration 165, par un 168, puis l’adjonction d’un 158 nous apparaît avec certitude comme la meilleure solution d’avenir. » Cette multiplication de puissance prévue de l’ordre de 3,6 au moins se faisait avec une augmentation du prix de revient total du centre (y compris personnel et amortissement des locaux) de seulement 15,6 %. Cette augmentation a été absorbée par une partie des recettes du ticket modérateur. 1971 Dépense Crédits, sauf location et entretien ordinateurs Location entretien ordinateurs Personnel toutes primes et charges patronales comprises Amortissement des locaux TOTAL

1972 Dépense

1973 Prévisions

1974 Approximation

3 982 200

3 626 500

3 267 700

3 758 000

11 535 000

10 790 000

10 915 500

13 612 200

3 150 000

3 500 000

3 850 000

4 235 000

188 000

188 000

188 000

188 000

18 855 200

18 104 500

18 220 500

21 793 200

Figure 78 – Prix de revient du centre de 1971 à 1974

Les opérations semblaient bien préparées. Mais rien ne s’est passé comme prévu, ainsi qu’il a déjà été expliqué, à cause de pannes, matériel et logiciel. Les indemnités versées par le constructeur seront pour la moitié récupérées par les utilisateurs. Au comité de direction d’octobre 1974, il est fait l’historique des crédits calcul, budgets alloués aux utilisateurs pour payer leurs calculs : − en 1972 : crédits « calcul » attribués spécialement ; − en 1973 : crédits « calcul » avec transformation possible, moyennant un abattement de 20 % ;

L’histoire parallèle du centre de 1969 à 1975 175

− en 1974 : les commissions avaient une distinction « matériel » et « calcul », mais les laboratoires n’avaient qu’une enveloppe globale ; − en 1975  : les commissions ne pourront plus faire de distinction entre matériel et calcul ; − à ce même comité, M. Salem demande si, en cas d’excédent de recettes, on ne pourrait pas le transformer en crédits calcul. M. Rocherolles pense que le CIRCÉ devrait calquer la présentation de son budget sur celle d’un budget d’entreprise, dont il donne un modèle. Les deux questions qui reviennent sans cesse et occupent tous les débats sont  : peut-on encore augmenter la puissance du CIRCÉ  ? Est-il nécessaire pour le CNRS, de créer un autre centre de calcul dans la région parisienne ou en province ?

7.6.1.1. Opposition entre les positions de W. Mercouroff et du comité de direction du CIRCÉ Une discussion sur ces questions de fond oppose W. Mercouroff et L. Malavard. Le premier explique  qu’il est malheureusement difficile d’avoir une opinion objective, car il est difficile de juger du bienfondé des travaux soumis par les utilisateurs, D’autre part, il fait remarquer que le budget du CIRCÉ doit être plaidé dans le cadre général du CNRS et que c’est difficile.  L. Malavard, soutenu par M. Valensi, représentant des utilisateurs rappelle que le rôle du comité de direction est de faire des propositions au CNRS. Il explique que, connaissant bien le CIRCÉ, le comité est capable d’apprécier les services qu’il rend et qu’il est d’accord pour un accroissement de sa puissance. Il demande que le budget du CIRCÉ croisse comme celui du CNRS. Or, de 1971 à 1974, le budget du CIRCÉ a été multiplié par 1,2 à francs constants, et celui du CNRS par 1,9. En 1975, il est démontré par les utilisateurs que le ticket modérateur n’a pas ralenti la demande. Pour la satisfaire, le CIRCÉ explique au comité de direction de novembre 1975 qu’il rencontre des difficultés d’ordre financier auprès de la direction du CNRS, auprès du Secrétariat d’État aux Universités (SEU) qui affirme qu’il se développerait au détriment des centres universitaires, et auprès de la Mission Interministérielle pour la Promotion de l’Informatique (MIPI) mise en place pour la défense des moyens de calcul français. Le Secrétariat d’État aux Universités espère mettre en place une position commune entre les centres de calcul, ce qui est en effet le but à atteindre. Mais, il trouve d’autres arguments pour défendre sa position vis-à-vis du CIRCÉ. Il adopte alors pour la première fois une attitude qui sera la sienne et celle des différents ministères. Il est devenu indéniable que c’est sous la pression des utilisateurs que le CIRCÉ demande une augmentation de ses moyens, alors que c’est par une ponction sur ses recettes que l’Enseignement supérieur finance en partie ses centres de calcul universitaires. Ce n’est évidemment pas la bonne solution pour arriver à la vérité des coûts. Toute croissance du CIRCÉ est

176

De l’IBM 360/75 au superordinateur Jean Zay

ressentie comme une atteinte à son égard. M. Chabbert 134 est venu du ministère, nous expliquer que les centres de province percevraient un impôt sur le CIRCÉ pour chaque travail passé par un utilisateur non parisien. À l’époque, ils représentaient 30 % de la charge. On ne nous accusait plus d’être de mauvais gestionnaire, mais, personne n’attachait la moindre attention à nos analyses des causes de la différence des coûts entre gros centres et petits centres. Personne n’émit jamais l’idée que les centres universitaires devraient peut-être améliorer leur gestion. Par exemple, ils ne travaillaient que cinq jours par semaine et en général, seulement 12  heures par jour, au grand maximum, avec répercussion immédiate sur le prix de revient d’une heure d’exploitation. W. Mercouroff et L. Malavard clarifient nettement leurs positions opposées sur les missions du comité de direction du CIRCÉ. Le premier indique que l’idée générale est une mise en commun et une gestion globale de l’ensemble des moyens du SEU, CNRS compris. «  Personnellement, et sans engager le CNRS, je considère qu’il n’est plus possible pour le CIRCÉ d’envisager une extension dit-il. Pour L. Malavard, il ne faut pas obliger la direction du CIRCÉ à agir dans une direction ou une autre, mais plutôt l’inciter à informer la direction du CNRS de ce qu’elle croit être une évolution souhaitable. » On mesure le chemin qui restait à parcourir pour faire admettre qu’en France, on avait besoin d’outils déjà courants à l’étranger. Il aurait été urgent de faire une analyse critique de toutes les analyses financières présentées par le CIRCÉ, et si on n’était pas d’accord d’en faire une autre. Mais on les ignorait ou on faisait semblant de les ignorer.

7.6.2 Évolution du télétraitement À mesure que les demandes explosent, le développement du télétraitement est indispensable à trois titres : − la répartition des utilisateurs sur toute la France ; − l’organisation de la production. La manipulation d’un très grand nombre de paquets de cartes et de listings, quelles que soient les précautions prises, comporte des risques d’erreurs ; − l’efficacité du travail des utilisateurs. Dans la région parisienne, les temps de transport du laboratoire au CIRCÉ sont rarement inférieurs à une heure. Donc quand on vient au CIRCÉ c’est souvent pour la journée. Et on attend au dispaching entre deux passages de travaux. 134 Conseiller

technique pour l’informatique à l’Éducation nationale. M.  Chabbert, la représente au CIGREF (Club Informatique des Grandes Entreprises Françaises). Dans le compte rendu du 26 juin 1975, il affirme que l’Éducation nationale est prête à participer à hauteur de 50 MF dans l’action menée par le CIGREF pour la formation des informaticiens. Cet enseignement ne donnerait pas lieu à l’attribution d’un diplôme. Ce système ressemble à celui que venait de mettre en place le CNRS. Pour financer son plan, M. Chabbert doit trouver des crédits, d’où l’idée de faire payer un impôt au CNRS par l’intermédiaire du CIRCÉ.

L’histoire parallèle du centre de 1969 à 1975 177

Mais la réalisation du réseau pose des problèmes de planification. Les dispositifs à installer sur le ou les adaptateurs de télétraitement à mettre au CIRCÉ et permettant le rattachement des terminaux varient considérablement suivant le nombre de lignes, leur débit, leur mode de fonctionnement (réseau commuté, loué, télex). Cet adaptateur est un matériel qui doit faire l’objet d’un marché. Même si on emploie la procédure accélérée, la démarche est très lourde et paralysante. Or, il est impossible de prévoir à l’avance l’évolution du réseau car la connexion d’un terminal donné dépend de trop de facteurs  ; évolution des besoins d’un groupe d’utilisateurs, entente entre eux, choix du terminal, acceptation des autorités de tutelle, obtention des crédits, délais des fournisseurs, délais de réalisation de la ligne par les PTT. La solution suivante est proposée aux commissions : le matériel de télétraitement installé au CIRCÉ sera distingué du reste de matériel du marché. Ce marché distinct pour le télétraitement, quand il sera soumis aux commissions, portera sur une enveloppe globale à ne pas dépasser. Et à l’intérieur de cette enveloppe, on pourra procéder par bon de commande, nécessitant seulement l’approbation de la direction et du contrôleur financier du CNRS. L’incidence financière prévue est donnée par le tableau suivant : 1972 (dépenses faites)

1973

1974

759 909,53 F TTC

732 000 F TTC

835 200 F

Figure 79 – Dépenses maximales à prévoir

soit une augmentation de 10 % environ entre 1972 et 1974.

Chapitre 8 Histoire parallèle de 1976 à 1980 Cette période est particulièrement intéressante dans l’histoire du centre parce que c’est une époque charnière. Nous n’étions plus des débutants. Il était maintenant démontré, même si ce n’était pas encore admis partout, que l’informatique était un outil nécessaire, et que la croissance des besoins continuerait. L’expérience de sept ans de travail en symbiose avec les utilisateurs, la poursuite de nos connexions avec l’étranger, nous avaient mûris. Nos batailles pour nous imposer dans le paysage informatique de la communauté scientifique, notre confrontation avec les ministères et les commissions informatiques nous avaient fait découvrir le rôle de la politique dans les choix. Enfin, une nouvelle place avait été trouvée pour l’informatique de service dans l’organigramme du CNRS et un changement radical s’était produit dans nos relations avec notre hiérarchie. De plus, nous avions de bonnes relations avec de grands centres étrangers. Toutes ces expériences nous avaient aguerris et nous avaient conduits à formuler des propositions possibles pour l’avenir à court, moyen et long terme sur l’informatique au CNRS, en somme à faire le schéma directeur de l’informatique au CNRS, et nous dépassions le CNRS, pour nous occuper de l’ensemble des chercheurs. Notre enthousiasme était intact ! Une étape importante pour nous a été la création du département Sciences pour l’Ingénieur (SPI). Elle a amené une nette amélioration dans nos rapports avec les instances du CNRS. Jean Lagasse le signale, plus nettement que je ne l’aurais fait, dans une interview qu’il a accordé au CNRS. Parlant de ses fonctions en tant que premier directeur de SPI, il dit de la place de l’informatique au CNRS 135 : « Lors de mes discussions avec Chabbal, je lui avais dit : “je ne comprends pas pourquoi l’informatique n’est pas liée à l’ensemble qu’on est en train de bâtir. Pour moi, l’informatique, c’est aussi une science pour l’ingénieur. Si nous ne la sortons pas du milieu des mathématiques, jamais on ne pourra la développer au CNRS”. Mais l’affaire n’a pu se faire immédiatement. Le département “Terre-Océan-Atmosphère-Espace” (TOAE) était dirigé par un mathématicien, Wladimir Mercouroff, qui ne voulait pas se dessaisir de l’informatique parce cela aurait déséquilibré la direction scientifique dont il avait la charge  ! Les mathématiques et puis, tout aussi aberrant que cela soit, tout ce qui concernait 135 Jean

Lagasse, Archives orales du CNRS.

180

De l’IBM 360/75 au superordinateur Jean Zay

l’Atmosphère-Océan-Espace. Bref, lorsque Jean Delhaye a pris sa succession en 1976, les SPI ont pu récupérer l’informatique ainsi que les moyens de calcul. » Pour la première fois, alors que précédemment on ne savait où nous placer dans l’organigramme du CNRS, nous dépendions d’une direction scientifique qui s’intéressait à nous, et de plus, faisait la distinction entre informatique et moyens de calcul. Le souci que nous avions toujours présent à l’esprit était d’amener la communauté scientifique en France au niveau de ce qu’elle était à l’étranger dans le domaine de l’utilisation de l’informatique, et aussi de mettre en place les instruments pour qu’elle ne décroche plus : noble ambition, non plus pour le CIRCÉ en particulier, mais pour l’ensemble de la communauté scientifique académique. Nos efforts pour lui ouvrir les yeux et l’obliger à mesurer son retard avaient jusque-là été vains. Nous sentions bien que c’était au-dessus de nos capacités, mais le sentiment de notre impuissance n’était pas assez fort pour nous empêcher d’essayer. C’est pourquoi, au début de janvier 1976, nous avons diffusé un volumineux rapport 136 : Rapport sur l’informatique en tant que service dans l’Enseignement supérieur et le CNRS. J’étais toujours pour mon activité de chercheur en collaboration étroite avec le JPL de la NASA à Pasadena, et avec les universités CALTECH de Pasadena et UCLA, de Los Angeles, où des collègues faisaient les interprétations de nos résultats. J’avais donc une expérience pratique de grands centres travaillant en réseau 137.

8.1 Le schéma directeur de 1976 pour l’ensemble CNRS-Enseignement supérieur C’est un plan novateur, ambitieux et optimiste. Évidemment, conscients de notre insignifiance, nous l’appelons maintenant schéma directeur, mais nous ne lui avions pas donné ce nom à l’origine. Il y est écrit dès le début que, contrairement à notre habitude, nous ne présentons pas, un remède « circéen », mais « humblement », quelques suggestions aux autorités. Au cours de notre réflexion, avec les commentaires et les critiques et avec les changements de technologie, il a évolué. Nous avons fait des rapports périodiques envoyés à R. Chabbal, directeur général, C. Gabriel, J. Sevin, directeur de la stratégie et des moyens, et bien sûr à J.  Lagasse qui nous a suivis et avec qui nous avons eu de nombreuses discussions. Nous avons aussi profité de conversations avec Hubert Curien et Paul Caseau 138. Tous ces documents sont rassemblés dans un ensemble intitulé Ensemble des documents transmis, pour 136 J. Connes

et P. Salzedo, Rapport sur l’informatique en tant que service dans l’Enseignement supérieur et le CNRS, Archives de la DIS, janvier 1976. 137 Note de l’auteure : Il subsistait bien quelques difficultés, non pas pour des questions de moyens de calcul, mais de sécurité. Le JPL pendant la guerre avait été un point extrêmement stratégique. On y faisait maintenant en bonne partie de la recherche académique. Mais si les transferts de données vers l’extérieur fonctionnaient bien, par réseaux, il subsistait quelques règles anciennes pour les documents qu’on était censé sortir. Et faute d’avoir mis à jour mes diverses autorisations, il m’est arrivé, à cette époque, de passer le poste de garde avec des listings sous le siège de ma voiture. 138 Paul Caseau, directeur des études et recherches d’Électricité de France.

Histoire parallèle de 1976 à 1980 181

étude, par le CIRCÉ, à la direction générale du CNRS, entre le 20 janvier 1976 et le 16 avril 1977 139, comprenant la nombreuse correspondance avec les quatre personnes de la direction du CNRS citées plus haut, et les autorités de tutelle. Il sera suivi de deux autres qui couvriront les périodes, 15 avril 1977à 8 décembre 1978 et 16 décembre 1978 à 15 juillet 1980. Ces ensembles reprennent toutes les variations que nous lui avons apportées à mesure que les années passaient, dues à l’apparition des compatibles IBM et de la reconnaissance par la CII des insuffisances du matériel français pour certaines de nos applications.

8.1.1 Les considérations de base Pourquoi s’être lancée, à l’époque, dans une telle prospective ? En premier lieu et raison suffisante, parce que personne d’autre ne le faisait et que la crainte de voir la France encore reculer dans les classements mondiaux dans le domaine était grande. Une autre raison aussi importante, était l’espoir qui s’est révélé vain, mais sans doute par maladresse de ma part, d’élever le débat. En France, on avait un challenge : donner aux chercheurs les moyens de travailler, mais ça coûtait cher. Alors pourquoi dépenser notre énergie à des discussions stériles sur des sujets dépassés qui nous ridiculisaient aux yeux de nos collègues étrangers ? J’espérais répondre, en changeant d’approche, à toutes les critiques dont le CIRCÉ était l’objet. Des critiques, il y en avait à faire, ô combien. Mais pas celle de grossir par orgueil, aux dépens des centres universitaires plus petits qu’on étoufferait, et qui était répété comme une litanie. On avait de vrais défis à relever  : la contrainte imposée par la politique nationale de subvenir aux besoins avec du matériel français, trouver des solutions pour que la politique du ticket modérateur soit moins pénalisante pour les usagers, se tenir au courant de l’avancement de leurs recherches pour anticiper leurs besoins et chercher pour eux les meilleures solutions. Là était le seul vrai problème : le meilleur service à un moindre coût. J’ai senti le besoin, non pas de taper sur la table, mais de dire, comme on le dirait à des gosses dans la cour de récréation : ça suffit, arrêtons. Il ne s’agissait plus seulement de convaincre les responsables trop nombreux qui pensaient encore, que l’accroissement rapide de la demande tenait à un engouement, une mode dans une population d’utilisateurs néophytes, encouragés par des informaticiens intéressés. Il fallait être lucides, comprendre que nous n’étions pas seuls au monde et que tout bougeait autour de nous. Quatre idées dominent le rapport : − dans les centres de calcul, un bon matériel c’est bien. Un bon personnel et une mission clairement définie, c’est vital ; − dans la plupart des disciplines, on a dépassé le stade informatique = mode. On en est à informatique = besoin important. Dans deux à cinq ans, ce sera informatique = outil indispensable ; − le prix de revient de l’informatique ne baissera pas considérablement avant 1980 au moins. Les besoins grandissants, l’optimisation économique 139 Ensemble

des documents transmis, pour étude, par le CIRCÉ à la direction générale du CNRS, entre le 20 janvier 1976 et le 16 avril 1977, Archives de la DIS.

182

De l’IBM 360/75 au superordinateur Jean Zay

sera d’ici là primordiale si le CNRS ne veut pas être saigné à blanc par les dépenses de calcul ; − dans les choix informatiques, négliger l’utilisateur équivaudrait à ignorer l’usager dans les questions de transport en commun. Pour la réalisation, il faudra : − des unités centrales puissantes ; − une implantation bien suivie de moyens de traitements locaux (développement de la mini et micro-informatique nécessaire) ; − un développement du stockage de données et de la gestion de masse des données qui croissent très vite ; − et pour que tout fonctionne un réseau maillé efficace. On trouve aussi dans le rapport un état des lieux sans concessions du système alors en service, une analyse très fine des coûts, l’étude de plusieurs hypothèses de réalisations avec leurs avantages et inconvénients, et aussi, bien sûr, une analyse des besoins des utilisateurs, des logiciels et des algorithmes qu’ils emploient, ce qui reste notre souci majeur pour les guider. Le but est de trouver des solutions à une situation préoccupante qui tient à plusieurs facteurs : l’un est le fait qu’il n’y a dans les décisions qui sont prises jusqu’alors aucun plan d’ensemble, aucune anticipation de plus d’un an, un autre que les centres de calcul de la Direction de l’Enseignement supérieur et de la Recherche (DESUR) et du CNRS, s’affrontent dans une pseudo-concurrence économique assez violente pour rendre difficile tout projet commun.

8.1.2 État des lieux Il faut commencer par un état des lieux, voir d’où l’on partait et mettre des chiffres sur des réalités, au lieu de répéter : la France a un retard par rapport à l’étranger, mais on va le rattraper. On devait faire l’exercice, même si les résultats des mesures sont cruels. En comparaison avec l’étranger, les mesures faites début 1976, montrent que la somme des travaux effectués dans l’ensemble DESUR + CNRS consolidé équivaut à ce qui est traité dans un seul des principaux centres universitaires de Californie, moins que dans les universités canadiennes, moins que dans une grande banque française. Nous dépensons plus, mais consommons moins. En France, en interne, compte tenu des moyens en place et de la productivité des centres, la somme des travaux universitaires effectués à Besançon, Bordeaux, Clermont-Ferrand, Grenoble, Le Havre, Lille, Lyon, Montpellier, Nancy, Nantes, Nice, Poitiers, Reims, Rennes et Toulouse, doit représenter, à peine, environ, les trois quarts de ce qui est fait au CIRCÉ et le CIRCÉ luimême pourrait être considérablement amélioré. Un effort considérable doit être fait pour aboutir à : − des configurations équilibrées. Exemple : étendre la mémoire de l’IRIS 80 du centre X, pour permettre une réelle multiprogrammation ; − un environnement en personnel suffisant en nombre et niveau. Exemple : donner deux postes d’opérateur au centre Y pour travailler 24h/24 au lieu d’étendre une configuration qui n’est pas saturée ;

Histoire parallèle de 1976 à 1980 183

− une analyse et un contrôle de chaque centre : prix de revient tout compris, des règles d’organisation et gestion à établir avec des techniques de financement plus souples et astucieuses ; − une meilleure productivité, un meilleur service, un moindre coût. Bref, il y a beaucoup à faire.

8.1.3 Proposition de participation du CIRCÉ Le CIRCÉ est prêt à : − exposer à tous les responsables politiques et techniques la façon dont le CIRCÉ est organisé, géré, ses budgets, ses coûts, ses recettes ; − accueillir des stagiaires venant d’autres centres ; − participer à tous les groupes d’études, sur tous les sujets. Ces études doivent commencer très vite, avec trois personnes au plus et communication aux centres ; − entreprendre des négociations avec les fournisseurs à l’échelon de l’administration entière.

8.1.4 Les grandes lignes du rapport de prospective Les points principaux sont : − la création d’un CIRCÉ 2 dans le Sud de la France ; − l’accroissement des matériels utilisés en mini et maxi informatiques avec soutien à 3 ou 4 centres locaux plus importants ; − développer le stockage et l’exploitation des données ; − relier le tout par un réseau maillé. Bien que sa principale caractéristique soit de concerner l’ensemble DESUR+CNRS, je ne pouvais dicter à l’Enseignement supérieur son schéma directeur. En revanche, je pouvais parler au nom du CNRS, quitte à ce que sa position soit affinée. C’est pourquoi j’ai appelé le centre à créer en province CIRCÉ 2. C’était une image pour dire : de la taille de CIRCÉ 1, et surtout fonctionnant avec les mêmes règles que lui. Peu importe l’organisme de tutelle. Ces querelles devaient être dépassées. L’objectif à viser, c’était deux centres, l’un à Orsay, l’autre en province, répondant à la demande croissante de calcul intensif et préparant les chercheurs ou bien à utiliser leurs services, ou bien à s’équiper en matériel local pour tout ce qui pouvait être fait en local, le tout étant relié par un réseau maillé. D’ailleurs dans ses premiers rapports l’Enseignement supérieur a appelé le deuxième centre CIRCÉ bis. La création d’un autre centre dans le Sud n’était pas une idée nouvelle. Je l’avais évoquée dès 1972, l’avais soumise pour discussion à un comité de direction en 1974. En 1976, elle s’est structurée. Ce nouveau schéma pour l’informatique a été soumis à toutes les autorités. Il a été officiellement discuté au comité des utilisateurs de décembre 1976. Il est écrit dans le compte rendu de cette réunion : «  Projet d’implantation d’un CIRCÉ  bis qui, normalement, si les projets en cours aboutissent, devrait se faire dans les 4-5 ans qui viennent. Si c’est un centre CNRS, il faut trouver l’argent pour le terrain à acheter, peut-être Valbonne. »

De l’IBM 360/75 au superordinateur Jean Zay

184

L’avenir montrera que ce deuxième centre s’installera à Montpellier et ce sera un centre de l’Enseignement supérieur. Il faut comparer cette organisation avec celle du GENCI mise en place vingt-sept ans plus tard. Propositions 1976

Organisation du GENCI en 2007

2 centres centraux CIRCÉ 1 à Orsay CIRCÉ 2 à Valbonne ou Montpellier

3 centres nationaux IDRIS ancien CIRCÉ 1 à Orsay CINES ancien CNUSC à Montpellier TGCC au CEA à Bruyères-le-Châtel

Développer l’informatique répartie Déjà commencée

Mésocentres

Augmentation du stockage de données

Explosion du stockage de données

Réseau maillé entre centres Réseau maillé RENATER et PRACE Essai immédiat d’un réseau triangulaire CIRCÉ 1, CIRCÉ 2, Grenoble

8.1.4.1. Organisation générale des ordinaires centraux Le graphique suivant (figure 80) illustre les trois possibilités de relations entre les deux centres nationaux quelle que soit leur appartenance.

Figure 80 – Éventail des solutions envisagées pour les relations CIRCÉ 1 et CIRCÉ 2

Histoire parallèle de 1976 à 1980 185

8.1.4.2. Propositions générales pour un vaste réseau Nous étions incapables de dire abruptement si oui ou non le réseau expérimental Cyclades, de l’IRIA, était LA solution d’avenir. Nous avons donc proposé une approche basée sur quelques remarques préliminaires et un mini-dialogue.

Réseau Cyclades 6

Réseau NPL Londres

Vers réseau ESRO 7

8 PARIS

5

1

9

2 RENNES 10 10b 11

16 17

3

4

GRENOBLE 18

12 TOULOUSE 13

14 15

Ligne existante Ligne projetée Noeud CIGALE disponible pour raccordement clients Concentrateur de Terminaux (CT) Centre Participant (CP) offrant des services (TS, RB) dès à présent Centre Participant en phase d’expérimentation Réseaux locaux ou nationaux

Figure 81 – Armoire des projets pilotes, dossier Cyclades, 1975

En 1977-1978, un effort a été entrepris pour relier les ordinateurs du CIRCÉ au réseau Cyclades. Ce devait être le banc d’essai de TRANSPAC. La réalisation devait être opérationnelle en décembre 1977. Un contrat IRIA-SFENA devait fournir le logiciel, moyennant l’achat d’un convertisseur d’interface SFENA, le CO500. Des premiers essais infructueux ont eu lieu avec l’IRIA, puis par un MITRA 15 avec l’université de Nancy. Ils furent interrompus parce qu’il ne pouvait y avoir émission et réception simultanées. Le rapport final du 14 décembre 1978 conclut : « l’expérience acquise pour la préparation TRANSPAC est nulle d’où un retard pour le CIRCÉ de 12 mois. »

186

De l’IBM 360/75 au superordinateur Jean Zay

8.1.4.3. Proposition à court terme pour le réseau Pour bien montrer que notre « schéma directeur » n’était pas une utopie, qu’il fallait aller vite, qu’il fallait commencer tout de suite, et qu’il y avait beaucoup de travail, nous avons proposé au secrétariat d’État des universités dont nous dépendions, un plan de mise en œuvre rapide d’un projet. C’était la première étape de réalisation du réseau maillé que nous préconisions. Nous voulions démontrer par des actes et non par les mêmes discours généraux répétés à satiété, qu’on pouvait avancer. Un projet qui incluait la province, une collaboration CNRS-université, qui visait l’ouverture, quoi de mieux pour nous rapprocher d’une solution, qui dès cette époque, apparaissait inéluctable ? Le CNRS voulait participer à partir de la rentrée 1976 à l’étude et la réalisation d’un réseau triangulaire, base expérimentale du réseau maillé interuniversitaire que souhaitait théoriquement réaliser le SEU 140. Il devait relier CIRCÉ 1, CIRCÉ  2 et le centre de calcul universitaire de Grenoble, le CICG. Pourquoi Grenoble  ? Parce que c’était un centre qui marchait bien, que nous connaissions bien Louis Bolliet qui en serait le responsable puisqu’il faisait partie de notre comité de direction. Il connaissait le protocole Cyclades, ayant une liaison INRIA-CICG. Nous avons eu plusieurs réunions de travail et préparé le dossier complet à présenter aux instances ministérielles et à la commission des marchés. Nous l’avons transmis à J. Lagasse, qui l’approuvait 141. Mais le projet n’a pas eu de suite. On pourrait dire : notre troisième échec.

8.1.5 Multiplication des installations locales En six ans, la charge du CIRCÉ venant des terminaux répartis sur tout le territoire est passée de 10 à 65 % de la charge totale. La puissance utilisée ayant plus que quadruplé dans le même temps, on voit que le poids des installations terminales a été multiplié par 26. Considérer leur évolution comme primordiale n’est donc pas une clause de style.

8.1.5.1. Évolution dans la répartition des effectifs L’intérêt des usagers est que le groupe qui les aide directement soit le plus important, et que celui qui sert les ordinateurs réduit au minimum. À  ce moment précis, dans 15 centres universitaires pour lesquels les chiffres sont 140 Si

le CIRCÉ était créé suivant notre proposition, la réalisation d’un réseau en serait facilité. Réalisation entre CIRCÉ 1 et CIRCÉ 2 d’une connexion à grand débit. Autour de CIRCÉ 2, réalisation d’un réseau Sud-Méditerranéen, qui accéderait également à CIRCÉ 1, et auquel accéderaient tous les terminaux connectés à CIRCÉ 1. Raccordement à une « épine dorsale » des autres centres intéressés tous les terminaux connectés à CIRCÉ 1. Raccordement à une « épine dorsale » des autres centres intéressés. 141 Projet de liaison triangulaire, dossier déposé à J. Lagasse, 21 juillet 1976, Archives de la DIS.

Histoire parallèle de 1976 à 1980 187

disponibles, sur un total de 327 agents, 226 sont consacrés à l’exploitation, 37 à l’assistance et il en reste 64 que nous n’avons pu classer. Les ordinateurs sont manifestement bien plus servis que les usagers. Ceci parce qu’un usager arrive à se « débrouiller » sans assistance, alors qu’un ordinateur ne se débrouille pas sans opérateur ni système. Comme il y a pénurie de postes, on sert d’abord les ordinateurs. La situation est la même partout, CIRCÉ compris. Mais l’évolution commencée au CIRCÉ en 1976, va s’amplifier très vite au début des années 80 et ne s’arrêtera plus. Il est inutile de se faire des illusions. Qui aura lu ce rapport ? Que sortira-t-il de toutes ces élucubrations ? De l’intérêt de la part de nos fidèles à la direction du CNRS, de L. Malavard, de H. Curien, et de P. Caseau de l’EDF. Mais il était inutile de se faire de faux espoirs. Les relations avec l’Enseignement supérieur allaient se détériorer jusqu’en 1980. Ce rapport fait partie de l’histoire parallèle du CIRCÉ. Mais nous n’avions pas oublié nos utilisateurs pour rêver. Nous continuions à faire vivre le CIRCÉ 1, avec les mêmes difficultés et en plus une opposition grandissante et surtout plus organisée de l’Enseignement supérieur.

8.2 Nouvelle organisation du contrôle des achats informatiques La période 1976 à 1979 est très compliquée pour nous. Elle l’est aussi pour le CNRS et ses relations avec l’Enseignement supérieur, comme il est raconté dans le livre de D. Guthleben souvent cité. Je vais simplement dire ici comment elles sont apparues à la direction du CIRCÉ et comme il a fallu tenir pour résister à ce qui, sans dire son nom, était un étouffement programmé du centre de calcul.

8.2.1 Nouvelles règles d’examen des dossiers En 1969, j’avais choisi de créer un centre dédié aux chercheurs de pointe, et tant que cela serait nécessaire à la formation de ceux qui découvraient l’informatique dont ils auraient besoin. Or, voilà que la direction du CIRCÉ se trouvait coincée dans une organisation où on parlait surtout d’enseignement, de gestion, et où en quatre ans tous les dossiers qu’elle a présentés n’ont pas été examinés. Pendant toute cette période, il a fallu tenir pour subsister et en même temps maintenir le moral du personnel, dont plusieurs membres parmi les meilleurs ont démissionné, pour trouver un travail plus excitant que celui que nous pouvions leur offrir. Encore aujourd’hui, ceux qui restent me disent l’impression de fin d’aventure qu’ils avaient. Ils partaient, pour échapper à une catastrophe naturelle à laquelle on ne voyait pas d’issue. Et ils voulaient vivre. C’est aussi l’époque où tous les constructeurs voulaient s’attacher les services de P. Salzedo, car ils souhaitaient nous aider, mais ne voyaient pas comment nous allions nous en sortir. Sans se perdre dans le dédale des créations officieuses, officielles, non pas contradictoires, mais différentes, des non-dits, voici ce qu’a vu de ce passage de quatre années une direction de centre de calcul du CNRS, qui, soutenue par les chercheurs ayant besoin de ses services, essayait de faire pénétrer l’idée que,

188

De l’IBM 360/75 au superordinateur Jean Zay

dans le futur, le calcul intensif allait jouer un rôle d’outil de plus en plus vital pour la recherche, dans toutes les disciplines. Quand, plus tard, m’est parvenu l’épais dossier des archives de l’Enseignement supérieur, sur les convocations et rapports de séances des divers comités mis en place pendant cette période pour l’informatique 142, j’ai mieux compris d’où étaient venus nos problèmes et nous avons tremblé rétrospectivement en voyant ce à quoi nous avions échappé. 1976 a été une année de remous pour les ministères de l’Éducation nationale, de la Recherche, de l’Université etc. En ce qui concerne l’informatique : Le 21 octobre 1976, l’article 4 d’un arrêté fixe les fonctions d’une commission à l’informatique et de ses comités. Il y avait déjà une commission interministérielle qui, avec le ministère de l’Industrie (MI) avait pour mission la promotion du matériel français. Nous en serons avisés officiellement le 30 mars 1977. Le ministère des Universités (c’est ainsi qu’il apparaît dans tous les rapports) a créé un sous-ensemble DESUR-CNRS avec une mission à la recherche présidée par J.-F. Denisse. De lui dépendait une commission à l’Informatique. Il en a confié la responsabilité à Mme Connat, directrice du centre de calcul universitaire du Pharo à Marseille et le secrétariat à M. Maillaux. Pour nous, c’était la redoutée Commission des Moyens Informatiques (COMI). Elle s’est fait aider par des commissions pour l’enseignement, la gestion, les spécialités, l’informatique polyvalente etc. À ces commissions, se sont associés les services de comités techniques à effectif pléthorique, mais peu techniques. Celui qui était censé s’occuper de nos dossiers était le Comité Technique de l’Informatique polyvalente (CTIP) avec son rapporteur permanent, M. Johannin président directeur technique du centre de calcul universitaire Paris-Sud Informatique (PSI). Je dis bien « censé » parce que, en fait, de fin 1976 à janvier 1980, nos dossiers importants ne lui sont jamais parvenus. « Le mercredi 30 mars 1977, sont réunis à 9 h, au secrétariat d’État aux universités, les membres du Comité Technique d’Informatique Polyvalente afin de procéder à la mise en place de ce comité créé par l’arrêté du 21 octobre 1977 (JORF du 31 octobre 1976) 143. » À cette première réunion du CTIP, son président M. Hirel nous informe du rôle du secrétariat de la commission de l’informatique  : «  il joue un rôle de conseil et veut voir TOUS les projets d’équipement quelle que soit l’origine du financement ou de la nature des crédits. Pour les examens importants il y aura séance plénière. » Le rapporteur transmettra les avis du comité technique à la commission informatique qui tranchera. Il n’est plus question pour le CNRS de faire un plan pour son informatique. C’est la commission qui s’en occupe exclusivement et en fixe la politique. Jusqu’au 21 décembre 1979 M. Hirel et Y. Maillaux ne cesseront de le répéter dans toutes les séances (il y en a une environ tous les deux mois).

142 Ensemble

des rapports des comités de gestion et d’informatique polyvalente de l’ES conservés dans les Archives de la DIS. 143 Extrait du procès-verbal de la réunion du 30 mars du CTIP.

Histoire parallèle de 1976 à 1980 189

À côté de cette organisation est apparu un groupe pilote sous la responsabilité de Mme Connat assistée d’un groupe d’ingénieurs censé faire un schéma directeur pour l’ensemble DESUR-CNRS et mettre en œuvre les décisions des différents comités.

Figure 82 – Cheminement d’un dossier dans les diverses commissions

190

De l’IBM 360/75 au superordinateur Jean Zay

Le directeur général du CNRS était un membre nommé du CTIP. Inutile de dire qu’il n’y est jamais venu. Mais il s’est fait remplacer par C. Gabriel qui, lui, a assisté assidument à toutes les séances. Il n’était pas technicien mais il ne fallait pas laisser vide la chaise du CNRS. En trois ans, il n’a pris la parole que deux fois, une pour présenter le budget informatique du CNRS, l’autre pour dire que l’organisation lui paraissait opaque et compliquée et allait entraîner des retards préjudiciables, lui semblait-il. Beaucoup d’autres protestations, beaucoup plus vives, ont vu le jour de la part des directeurs des centres de calcul universitaires dont celles de M.  Delobel du Centre Informatique de Calcul de Grenoble (CICG). Il disait douter de la compétence technique des membres choisis. Suivent de nombreuses questions. En réponse, M. Hirel rappelle que le ministère des Universités veut avoir une vue d’ensemble pour la cohérence. Finie la discussion. On passe à l’examen du cas de Grenoble. Mais M. Hirel demande aux participants de mettre leurs remarques par écrit. À  une autre séance, le 27 janvier 1970, M. Hirel insiste sur le caractère de haute confidentialité des documents élaborés par l’équipe projet, ceux-ci n’étant qu’un outil de travail, éléments d’une analyse qui se poursuit. Le cheminement d’un dossier entre les différents comités, commissions, était si compliqué que le schéma suivant nous fut distribué en séance à notre demande.

8.2.2 Conséquences pour le CIRCÉ La situation était paradoxale. En apparence, tout était pour le mieux dans le meilleur des mondes. Enfin la grande réunion Enseignement supérieur-CNRS était faite dans un domaine restreint, de multiples comités techniques et autres étaient constitués, un grand schéma directeur était en perspective. Qu’est-ce que le peuple peut demander de plus ? Pourquoi ça ne fonctionnera pas tout de suite et que la situation va encore se détériorer ? Tout ceci est parfaitement expliqué dans la note interne que P. Salzedo a envoyé le 15 décembre 1979 à J. Ducuing 144 qui prenait ses fonctions de directeur général du CNRS. La note présentait un des dossiers épineux qui l’attendaient. Une partie de cette note est reproduite dans l’annexe  12. Plusieurs facteurs perturbateurs insidieux enlèvent tout sens aux discussions dès que le mot CIRCÉ est prononcé. On peut citer une fausse appréciation de la place de la France dans son développement de l’informatique par rapport à l’étranger. Elle ne cesse de reculer, mais la commission ne s’en aperçoit pas. Le mot calcul intensif n’est pas prononcé une seule fois en quatre ans au CTIP. Ce n’est pas le lieu où en parler ! Mais c’est ce qui nous intéresse ! Ne pas l’anticiper, c’est se condamner à mort. Un autre facteur est toujours le sentiment que le CIRCÉ’ est la source de tous les maux des centres de calcul universitaires. Alors il faut le stopper dans son développement, le noyer dans la masse. Il y a une technique imparable et à première vue irréprochable : le gérer administrativement comme un centre universitaire de plus. Il sera jugé sur les mêmes critères, même si ses fonctions sont différentes. La demande de moyens qu’il doit remplir stipule qu’il doit signaler si dans ses fonctions, il travaille éventuellement pour la 144

Rapports sur les problèmes d’évolution des matériels informatiques installés au centre interrégional de calcul électronique.

Histoire parallèle de 1976 à 1980 191

recherche (annexe 26). Il attendra son tour. Il n’y a qu’à le bloquer jusqu’à ce qu’on juge qu’il n’est plus gênant. Les utilisateurs de calcul intensif qui se désespèrent ? On ne les connaît même pas. Qu’ils attendent ou aillent ailleurs. Tant que ce sentiment persistera, il empêchera la discussion sur les questions de fond. Le problème était ce qu’en théorie de l’information, on appelle un problème mal posé. Il suffira de le poser autrement. Ça prendra du temps, mais ça viendra. Il suffit de tenir, et tout le monde s’en sortira grandi.

8.3 Schéma directeur de l’informatique de l’Enseignement supérieur Madame Connat, agent du CNRS, directrice d’un centre de calcul universitaire, avait à gérer les besoins en informatique de 900 000 personnes, comme c’est reporté dans un rapport consultatif de la cellule informatique 145. Ils se répartissent entre : 35 000 administratifs 22 000 chercheurs 42 000 enseignants 820 000 étudiants Ils étaient clients de 4 centres CNRS et de 22 centres de calcul universitaires (CU) répartis sur le territoire national comme le montre la figure 83.

Figure 83 – Ensemble des villes reliées et installations des centres de calcul recensés 145 Points

d’accès et réseaux, 17 décembre 1979, p. 3, Archives de la DIS.

192

De l’IBM 360/75 au superordinateur Jean Zay

Les responsables de l’informatique à l’Enseignement supérieur avaient en charge la gestion des universités, l’enseignement et une certaine catégorie de chercheurs. On conçoit facilement que l’Enseignement supérieur avait de bonnes excuses pour ne pas s’occuper du CIRCÉ qui restait pour tous, sauf les chercheurs, le centre source de tous leurs maux et qu’il fallait contrôler pour pouvoir vivre. Cette élaboration qui nous intéressait particulièrement puisqu’il s’agissait de notre avenir, s’est faite de façon ambigüe, mais nous avons pu « sauver les meubles ». Il y avait d’un côté les groupes techniques où on ne parlait jamais du CIRCÉ, occupés qu’ils étaient par les problèmes immédiats des centres universitaires. D’un autre côté, il y avait les exposés que Mme Connat faisait de temps en temps au CTIP pour exposer les progrès du groupe pilote, mais sans discussion de fond. Et enfin, d’un troisième côté, des déclarations du secrétariat de la COMI, qui montrent bien qu’on s’oriente, sans le dire, mais non plus sans le cacher, vers le schéma directeur que nous avions proposé en 1976. Un des exemples frappants est le procès-verbal de la 6e réunion du CTIP du 23 mai 1978. À la page 1, il est écrit que M. Hirel nous informe que la commission avait choisi comme base de travail du groupe pilote : − deux centres nationaux de grande puissance, l’un étant le CIRCÉ, l’autre devant se situer dans le Sud ; − quatre centres nationaux de forte puissance ; − le maintien de quelques centres spécialisés ; − l’orientation des autres centres en centres de prestation. En revanche, à la page  2, Mme Connat commence son exposé avec quatre scénarios entre lesquels rien n’est décidé, dont l’un avec 3 ou 4 gros centres. Dans son premier transparent, elle en a mis seulement trois qui seront choisis parmi les 26 pointés dans la figure 84.

Figure 84 – Une des options du schéma directeur du 23 mai 1978 (exposé de Mme Connat)

Histoire parallèle de 1976 à 1980 193

Le même jour circulait une note manuscrite d’Y. Maillaux avec ce qui sera le schéma définitif (figure 85).

Figure 85 – Note manuscrite d’Y.  Maillaux du secrétaire de la COMI (collection de l’auteur)

Il a été reconnu qu’un travail donné revenait moins cher dans un gros centre, mais on ne vise plus l’uniformité des tarifs. Mme Connat avait, comme justification, exposé que les centres universitaires avaient des contraintes « humaines et environnementales » que n’avait pas le CIRCÉ. Les personnels universitaires ont des horaires plus souples, des vacances plus longues qu’au CNRS. Ils ont à subir des grèves. Donc, il est impossible pour un centre universitaire de couvrir autant d’heures d’ouverture que le voudrait la rentabilisation du centre de calcul.

194

De l’IBM 360/75 au superordinateur Jean Zay

8.4 Vie pratique de CIRCÉ 1 pendant cette période On pouvait rêver, mais les utilisateurs attendaient, même si personne ne parlait jamais d’eux. Il fallait absorber la charge grandissante, dont il n’était JAMAIS question dans les hautes sphères, sauf parfois comme quelque chose de théorique qu’on verrait un jour, quand le schéma directeur serait fini. Nous sommes en 1976 et les contrats de location des deux IBM 370/168 arrivent à échéance fin décembre 1977. La direction du CNRS nous a demandé de proposer des solutions. Le projet élaboré devait permettre : − d’apporter un meilleur service aux utilisateurs ; − de diminuer le prix de revient d’un calcul donné ; − d’améliorer la productivité du centre. Tout en ne retenant que des solutions à court terme (moins de deux ans) pour ne pas préjuger de l’évolution de l’informatique au sein du SEU. De toute façon, j’avais bien compris qu’il y aurait toujours de bonnes raisons pour refuser nos demandes et qu’au moins nous devions travailler à budget constant, une gageure. Nous avons présenté aux autorités, le plus discrètement possible, une demande de remplacement d’un des IBM 168 dont le contrat de location finissait en 1977, par une unité IBM 3033 146. Il s’agissait d’une substitution d’unité centrale, qui pourrait même se faire par un avenant au marché d’un des 168. Aucune dépense supplémentaire n’était à prévoir. Toutes les installations de climatisation, et la fourniture électrique en place étaient directement utilisables, le 3033, ayant environ 0,7 fois la consommation électrique du 168 et 0,8 fois sa dissipation calorifique. Toutes les connexions des matériels restaient inchangées et le matériel serait servi par les mêmes équipes. Et tout ceci pour une augmentation de puissance de 20 % et une économie de 3,4 MF en année pleine, la location annuelle passant de 9,22 MF à 5,82 MF. La réaction de la commission fut immédiate et se voulait sans appel. La lettre du 16 décembre 1977 m’en informant venait de la Division Recherche du secrétariat d’État aux universités, donc directement de la COMI, notre propre autorité de tutelle. Elle disait : «  Ce projet présenté au ministre de l’Industrie (Mission à l’informatique) s’est vu signifier une opposition totale  ; parallèlement, le secrétariat d’État aux Universités ne souhaite pas une croissance forte du CIRCÉ, présentement, (le schéma directeur des moyens informatiques étant en pleine élaboration). » Le jugement du SEU n’est pas recevable puisqu’on avait pris la précaution de limiter le projet à deux ans pour ne pas préjuger de ce qu’il déciderait quand, enfin, son schéma directeur pour l’informatique serait prêt. Le ministère de l’Industrie avait une excuse : nous faire acheter du matériel français. Mais quelle était celle du SEU hors sa hantise de ne pas nous voir nous développer ? Ce qui était vraiment désolant, c’était de voir l’Enseignement supérieur toujours aussi aveugle sur ce qui se passait en dehors de nos frontières. En 1969, nous avons été 146 Rapport

d’évolution pour les matériels informatiques du centre de calcul interrégional de calcul électronique.

Histoire parallèle de 1976 à 1980 195

pendant un temps très court, le premier centre de service en Europe. En 1977, la France bat, sans aucune excuse, un triste record. Nous sommes le SEUL pays d’Europe à ne pas avoir changé son 168 par un 3033. On ne comprendra jamais : totalement compatible, plus puissant, moins cher, que demander de plus ? Nos collègues étrangers étaient ébahis et se demandaient si je devenais folle. Au même moment, Mme Connat écrivait que nous étions en bonne position par rapport à l’étranger. Qui était ce « nous » ? Que pouvions-nous faire  ? Rien, puisque les décisions venaient de notre propre ministère, dans lequel l’Enseignement supérieur et ses propres commissions avaient beaucoup plus de poids que le CNRS, et avec un budget commun pour l’informatique. Rien, sinon encaisser et recommencer inlassablement. Nous avons continué, sans succès, pendant deux ans à essayer de persuader comme P. Jacquinot l’avait fait en son temps. Deux recueils de 258 et 274 pages 147 retracent les moments de cette lutte. Ils contiennent respectivement des copies de 49 et 38 lettres et rapports échangés entre la direction du CIRCÉ, la direction du CNRS, les multiples commissions à l’informatique, les différents ministères, l’Enseignement supérieur, la Direction des Industries Électroniques et de l’Informatique 148 (DIELI) etc. Le calendrier des éléments de cette récapitulation est donné en annexe 11. Nous avons été soutenus sans faille par les directeurs généraux, H. Curien, B. Gregory, J. Ducuing, J.-J. Payan et par le directeur du SPI, J. Lagasse. Celui-ci s’est dépensé sans compter pour promouvoir l’informatique de service dont il avait parfaitement intégré la spécificité. Tous avaient à répondre aux attaques de l’Enseignement supérieur et des ministères dans les réunions des hautes autorités auxquelles nous n’assistions pas. Ils me demandaient de leur préparer les réponses qu’ils devaient faire aux questions et ordres qu’ils recevaient, et pour actualiser les arguments qu’ils devaient déployer dans leurs réunions au sommet. Comme ces arguments étaient toujours les mêmes, j’ai réuni les réponses numérotées dans un opuscule et je pouvais leur dire : à la question x, réponse n°x. P. Salzedo a fait pour J. Ducuing, à sa prise de fonction de directeur général, un tableau succinct de la vie du CIRCÉ et des problèmes qui l’attendaient (annexe 12).

8.4.1 Aggravation de la situation L. Malavard, président du comité de direction du CIRCÉ, était aussi désespéré que nous. Nous nous sentions complètement impuissants, devant une situation totalement incompréhensible. Il a envoyé, le 6  décembre 1978, en son nom et en celui du président du comité des utilisateurs, une lettre à R. Chabbal, alors

147 Notes

B du 18 avril 1977 au 8 décembre 78 et notes C du 6 décembre 1978 au 15 janvier 1980, donnant le calendrier des discussions avec les autorités de tutelle, Archives de la DIS. 148 Créée en juillet 1975, pour permettre d’intégrer la politique industrielle en informatique dans l’ensemble de la politique industrielle du gouvernement menée au sein de la toute nouvelle direction générale de l’Industrie.

196

De l’IBM 360/75 au superordinateur Jean Zay

directeur général du CNRS, lui demandant d’intervenir auprès de notre ministère pour qu’il accepte l’installation du 3033 à la place du 168, retardée depuis un an, le 7 décembre 1977. Il soulignait que depuis cette date, le CNRS payait une rente à IBM. Je n’ai aucun signe que R. Chabbal l’ait fait. De toute façon il n’y a eu aucun effet. Le 17 septembre 1979, je recevais une lettre circulaire de J.-F. Denisse 149, chef de la mission à la recherche agissant par délégation du ministre des Universités (annexe 13). Elle était adressée à tous les responsables informatiques de tous niveaux, depuis les recteurs, le directeur du CNRS, jusqu’aux directeurs de centre de calcul. Elle nous informait que tous les dossiers devaient passer par la cellule informatique du ministère des Universités, où la responsable de la cellule informatique, Mme Connat les prenait en charge. C’était seulement officialiser son rôle une fois de plus. Pendant l’année 1979, la situation s’est encore opacifiée, et nous avons continué de faire ce que nous avons cru devoir faire : ne pas renoncer et redéposer un énième projet identique à celui présenté deux ans auparavant, à savoir le remplacement de l’unité centrale d’un 168 par celle d’un 3033. Mais pendant ces deux années de paralysie, la saturation avait empiré au CIRCÉ et le monde avait continué de tourner. Un compatible japonais du 3033 IBM, le V7 de Siemens-Fujitsu, avait fait son apparition et était encore moins cher. Le schéma directeur de l’Enseignement supérieur était rendu public. En effet, il était un sous-ensemble de notre proposition du schéma directeur de 1976, avec essentiellement deux centres nationaux dont l’un en province, mais sans qu’on ait défini officiellement son appartenance, CNRS ou Enseignement supérieur. On continuait de l’appeler CIRCÉ 2. La commission à l’informatique de notre ministère commun a décidé qu’il serait équipé d’un 3033 d’après l’étude faite par le CIRCÉ pour son centre d’Orsay. En conséquence, le ministère aurait à demander 2×3033 en même temps, ce qui était impossible. Donc Mme Connat a décidé que la première commande serait pour le nouveau centre, on ne savait encore officiellement où il serait placé, mais tout le monde savait que ce serait à Montpellier. Le CIRCÉ d’Orsay attendrait les années suivantes. Le 14 septembre 1979, nous avons redéposé à Mme Connat un rapport 150 de 65 pages, plus annexes, pour non plus un 3033, mais un compatible V7 Amdahl apparu entre temps, parce que pendant nos tergiversations, le monde évoluait. Le dossier reprenait la forme traditionnelle en trois parties, exposition du centre, analyse très fine de l’état de sa charge, son historique, son état actuel, le point d’évolution technique, appuyant sur le fait que l’on attendait pour rien depuis plusieurs années, dépensant chaque année 3,4 MF inutilement et que nous voulions installer le nouveau matériel en janvier 1980, c’est-à-dire dans quatre mois au plus, la saturation étant intenable. Mais rien ne bougeait. Le 9 octobre, lors d’une conversation avec J.-F. Denisse, je me suis aperçue qu’il n’avait pas eu connaissance de notre dossier. Je lui en ai remis un. Dès le 10  octobre, il m’informe personnellement, qu’il souhaite que CIRCÉ  2 soit 149 Instruction

précisant la nature des équipements relevant de la commission à l’informatique. J.-F. Denisse, 12 novembre 1979, Archives de la DIS. 150 Remplacement d’une unité centrale 370/168 IBM, note C, p. 155, Archives de la DIS.

Histoire parallèle de 1976 à 1980 197

CNRS et le ministre aussi. Mais il me fait des mises en garde  : il m’affirme être en désaccord avec R.  Chabbal qui craint de voir l’université l’accuser de vouloir monopoliser les gros moyens. Il ne faut pas que le CNRS apparaisse comme demandeur. Il faut d’après lui associer une université, comme l’a fait le Laboratoire pour l’Utilisation du Rayonnement Électromagnétique (LURE), mais ne pas s’associer à un bon laboratoire sans l’accord du président d’université. Il dit aussi qu’il faut mener les opérations CIRCÉ 2 et V7 en parallèle et non en séquence. Ce sont des conseils constructifs. Mais rien ne se passe. De désespoir, j’ai appelé à l’aide pour conseil, J.  Lagasse qui nous avait tant aidé autrefois et qui était maintenant à la direction des affaires scientifiques et techniques de la Régie Renault. Il assistera à une réunion au sommet où seront présents Mme Connat et M.  Pelissolo. Il en profitera pour le sonder sur ses intentions pour le CIRCÉ. La situation était devenue tellement ubuesque, que P. Salzedo et moi, avons estimé que nous ne pouvions plus la cautionner. Nous en avons avisé M. Ducuing notre directeur général, en lui disant que si le dossier du V7 n’était pas réglé dans les deux mois, nous lui enverrions notre lettre de démission dont une copie était jointe. Nous y demandions d’être démis de nos fonctions de direction du centre d’Orsay et de celui du centre de gestion du CNRS, rue du Maroc (annexe 15). Cette fois, le dossier s’est débloqué par miracle, et le V7 a été installé en avril 1980. Le CNRS avait perdu inutilement 9,27 MF, et les utilisateurs avaient souffert pendant deux ans de tous les effets de la saturation.

8.5 Mise en place des rémunérations du personnel Une autre bataille était menée simultanément à celle du renouvellement de matériel. Pour offrir un bon service, il faut un matériel puissant, mais aussi qu’il soit servi par un personnel compétent qui accepte de sévères contraintes. Le personnel, on l’a trouvé. Il a suivi une formation poussée. Il a accepté des conditions de travail toutes nouvelles. Mais le statut du CNRS ne connaissait qu’une sorte de travailleurs de nuit, les techniciens de coupole dans les observatoires. Qu’est-ce que c’était que ce labo où on voulait faire les 3/8, dimanche et jour fériés compris. Quelle était donc la spécificité des personnels du CIRCÉ ? La puissance des ordinateurs, et la diversité des applications à traiter, et par là des softwares et des techniques à mettre en œuvre, n’avaient pas d’équivalent dans les autres centres de calcul de la recherche, puisque c’était la machine de pointe et qu’elle avait un objectif de production. De plus, parallèlement, le personnel avait des contacts avec les spécialistes informatiques du secteur privé qui se sont multipliés, par exemple, avec les ingénieurs appartenant aux compagnies IBM ou CDC, et autres fournisseurs. Nos propres ingénieurs ont été à même de fournir à des centres étrangers (surtout anglais et allemands), des modules de système qu’ils avaient développés. Ils ont été souvent appelés en consultation. Donc, ils avaient tous les éléments pour comparer l’intérêt du travail et la rémunération. La situation du personnel du centre est devenue paradoxale. Sa qualification, sa spécialisation et ses conditions de travail sont devenues celles du

198

De l’IBM 360/75 au superordinateur Jean Zay

secteur privé, tandis qu’au CNRS leurs diplômes n’étaient pas reconnus. Dans tous les autres centres, qui pourtant avaient des contraintes bien moindres, des compensations avaient pu être trouvées. C’était impossible au CIRCÉ, laboratoire propre qui n’avait qu’une source de crédits. Il était urgent de se pencher sur le problème dès les premiers mois de mise en service si on voulait garder les effectifs.

8.5.1 Les actions pour le statut du personnel du 11 mars au 31 décembre 1970 Comme toujours, lorsque le problème devenait urgent et que je l’avais bien cerné, je l’ai exposé à H. Curien avec qui j’ai eu des réunions de travail sur ce sujet, les 11  mars 1970, et 25  juin 1970. Je lui ai alors présenté les résultats de mon enquête suivant laquelle, à l’époque, pour 26 membres du personnel, les traitements étaient inférieurs de 1400/4500 francs/mois à ceux de «  l’extérieur ». Sur ce point précis, j’animais un cercle de réflexion qui se réduisait à deux personnes, C.  Gabriel et H.  Curien. Lui-même a demandé à Pierre Creyssel, le directeur administratif et financier de nous aider. À mesure qu’ils m’en donnaient l’autorisation, je communiquais les résultats de leurs efforts aux membres du personnel. Eux-mêmes nous ont très vite fait confiance pour mener les négociations. C’est en accord avec le personnel et avec leur aide que nous avons rédigé les programmes d’examens internes prévus. Nous étions tous les quatre convaincus que le calcul intensif était un outil fondamental pour la recherche et, en un an, l’équipe avait réussi à leur prouver qu’on pouvait nous faire confiance. Dès lors, P.  Creyssel nous a soutenus sans réserve et a même pris la direction des opérations. Lui seul pouvait discuter avec les ministères où nous n’avions aucune entrée et c’est lui qui a pris les initiatives. Le calendrier de son action décisive et constante, certains jours, heure par heure, est présenté dans l’annexe 6. La direction du CIRCÉ, elle, fournissait tableaux et rapports. Elle rappelait l’urgence du problème quand il lui semblait que rien n’avançait. Elle organisait des réunions avec le personnel pour le tenir au courant des transactions, lui faire ajourner ses projets d’une grève qui aurait consisté à ne travailler que pendant les heures légales, ce qui aurait provoqué l’effondrement de l’entreprise. La première idée que P. Creyssel a amenée dans la discussion, et qui a servi de fondamentaux aux négociations est la suivante : pour établir une vraie grille des salaires informatiques à l’intérieur du CIRCÉ, il fallait qu’elle soit basée sur des examens qui pourraient être internes, mais auraient la caution d’une grande école, de l’Institut de programmation (peu probable) ou d’une université. Nous avons établi une proposition complète portant, à la fois, sur les fonctions concernées, les programmes des épreuves pour chacune d’elles les modalités de passage, les conditions d’avancement. Il a été prévu : − une attestation de pupitreur sur un ordinateur de 3e génération ; − un concours de chef opérateur ; − un concours de chef d’exploitation ; − la création d’attestations d’ingénieur informaticien de 1er, 2e, et 3e niveau.

Histoire parallèle de 1976 à 1980 199

Après de multiples concertations avec les personnes concernées, nous avons remis la proposition à G. Poitou, doyen de la faculté d’Orsay. Il a donné son accord, mais a pensé qu’il ne pouvait prendre une décision de cette importance sans rencontrer W. Mercouroff, non pas en tant que directeur scientifique au CNRS, mais de chef de mission à l’informatique au ministère. Trois jours après, le 3 décembre, nous nous réunissions, W. Mercouroff, G. Poitou. L. Verlet et moi-même. y W. Mercouroff nous apprit que ce projet allait dans le sens d’un statut d’élaboration pour la fonction publique qui autoriserait des primes pour certaines fonctions. y L. Verlet émit deux réserves : − la proposition s’adaptait mal à PSI qui n’avait pas besoin de personnel aussi spécialisé pour fonctionner ; − il craignait que les ingénieurs du CIRCÉ ne fassent trop de travail théorique et que le CIRCÉ ne redevienne un autre Blaise Pascal. Cette attitude est l’illustration de l’incompréhension totale qui régnait à cette époque sur l’initiative du CNRS voulant créer un centre de calcul intensif servi par une équipe performante spécialisée dans le fonctionnement de machines de pointe. En avril, L. Verlet avait été foncièrement hostile à l’installation d’un centre de service sur le terrain de la faculté, qui se différenciait des centres universitaires puisqu’il ne ferait ni gestion ni enseignement théorique. Mais en décembre il craignait qu’il ne se mette à faire de la recherche en informatique. y G. Poitou conclut que le CNRS devait lui présenter une demande d’autorisation d’examen et de constitution de jurys pour des examens internes au CNRS. Il quittait son poste à la fin de l’année et voulait voir cette question réglée. y Au cours d’une réunion le 10  décembre avec C.  Gabriel, P.  Creyssel et moi avons rédigé le projet de lettre demandée. Elle arrivera finalement à G. Poitou le 24 décembre, quelques jours avant son départ et il a donné son accord in extremis. C’était une avancée décisive.

8.5.2 Les actions pour le statut du personnel du 7 janvier au 2 juin 1971 C’est P.  Creyssel qui a été en première ligne durant cette période. Son nom apparaît alors 55 fois dans le calendrier des interventions auprès des diverses tutelles dans tous les ministères. L’annexe 6 les récapitule. L’annexe 8 précise les programmes et les modalités d’examen pour les pupitreurs, le concours de chef opérateur, la création d’attestations d’ingénieur-informaticien, de 1er, 2e et 3e niveaux et les modalités pour y prétendre. Le problème s’est encore compliqué par le fait que tous les examens étaient prévus portant sur des ordinateurs de 3e génération, mais l’INRIA, et l’INSERM qui n’en avaient pas, avaient le même contrôleur financier que le CNRS, M. Mayol, et ils voulaient profiter des avancées, bien que leurs contraintes ne soient pas les mêmes. Le contrôleur financier leur a accordé des possibilités, mais non au personnel du CIRCÉ qu’il ne connaissait pas.

200

De l’IBM 360/75 au superordinateur Jean Zay

Toutes ces négociations se passaient dans la sérénité. Les personnels faisaient une totale confiance à P. Creyssel. Et dans une lettre collective, ils l’informent de la possibilité de faire une démonstration de ce que serait le service s’ils ne travaillaient que pendant les heures normales, mais ceci pour l’aider dans ses tractations (annexe 7). Il leur a demandé un délai de deux mois pour poursuivre son action. En dernier ressort, P. Creyssel, dans l’impossibilité de faire comprendre à M. Mayol, la différence entre les contraintes des personnels du CIRCÉ, et ceux de l’INRIA, et de l’INSERM, m’a demandé de porter, directement à ce dernier, le relevé des travaux qui n’avaient pu être exécutés pendant le week-end, pour lui faire prendre conscience de ce qu’était le calcul intensif et des pressions que subissaient les équipes. Ce que nous avons obtenu : − des embauches après examen interne, à condition d’avoir des postes libres dont le niveau correspondait à la grille ; − pour le personnel en place, avancement par dérogation possible, après réussite aux examens. La suite montrera que le nombre de dérogations accordé au service sera toujours très faible ; − affectation de primes au mérite, distribuées au coup par coup, à notre demande par l’administration déléguée de Gif qui les prenait sur un fond plus général qu’elle gérait. Ainsi, du 1er juin 1971 au 30 septembre 1972, pour les changements de catégorie, 3 sur 3 à l’ancienneté ont été refusées et sur 7 en dérogation, une seule a été acceptée, celle de P. Salzedo, qui est passé de 2A en 1A. On lui proposait des salaires doubles dans le privé. Mais c’était une reconnaissance de son travail. Le nouveau statut était une amélioration, mais ne résolvait pas tout. Après la réussite à l’examen interne, encore fallait-il qu’une dérogation ait été affectée au centre de calcul dans la distribution à l’ensemble du CNRS. Un premier ingénieur a donné sa démission en août. D’autres suivront.

Chapitre 9 Période 1981-1989 À la fin de la première décennie, le CIRCÉ a réussi à démontrer que ce qu’on appelle en France « un gros centre » était une nécessité. Si la direction générale du CNRS, l’administration déléguée, lui font confiance, si ses utilisateurs l’ont aidé à rédiger un compte rendu des résultats scientifiques qu’il a permis d’obtenir, il est toujours regardé avec méfiance par l’Enseignement supérieur et une grande partie des directions scientifiques qui sont bien obligées de l’accepter mais le regrettent. La direction du centre a réussi une partie de la mission qui lui avait été confiée dix ans plus tôt : faire fonctionner un centre de calcul de production qui permet aux chercheurs qui en ont besoin pour se maintenir au niveau international, d’effectuer au moins une partie de leur travail en France. Mais il n’a pas réussi à faire pénétrer dans l’ensemble des classes dirigeantes de la communauté scientifique l’idée que le calcul intensif, qui, à ce moment-là, était possible seulement dans un gros centre, était un outil indispensable dans certains cas. Les idées de ce qu’il fallait faire, la direction du CIRCÉ les avait, d’ailleurs sans aucun mérite : il suffisait d’ouvrir les yeux sur ce qui se passait à l’étranger, de faire une veille technologique et d’être suffisamment près des chercheurs pour connaître leurs travaux et anticiper avec eux leurs besoins futurs. Pourquoi les directeurs du centre de calcul ont-ils fait ce travail d’analyse et d’anticipation ? La réponse est simple. Parce que personne d’autre ne le faisait. P. Jacquinot s’était résolu en fin de mandat, après mûres réflexions, à me confier cette mission et j’ai déjà dit que, après lui, la première consigne que m’a donnée H. Curien était de ne rapporter qu’à lui. Il y avait là un paradoxe : les directeurs scientifiques, quand ils se sont rendu compte que l’informatique avait son importance, se sont plaints d’être tenus à l’écart. Mais s’ils ont toujours reçu une copie des rapports que j’envoyais aux directeurs généraux, ils ne les lisaient pas, comme ils me l’ont avoué par la suite. Pendant la décennie qui a suivi, les directeurs généraux ont porté le calcul intensif sur leurs épaules. Les calendriers de nos réunions de travail en font foi, ainsi que les imposants dossiers de lettres et notes échangés entre nous, quelques-unes portant la mention personnelle manuscrite ou Confidentiel avec le tampon rouge officiel. On va voir dans le détail par la suite que c’est grâce à leur compréhension des enjeux et à leur investissement personnel que pendant la décennie le bateau a maintenu une bonne vitesse de croisière. C’est la seule période pendant les

202

De l’IBM 360/75 au superordinateur Jean Zay

cinq étudiées où le « coefficient de croissance » du centre est supérieur à celui du TOP500 et est supérieur à celui prédit par la loi de Moore.

Figure 86 – Machines installées de 1980 à 1989

Le graphique suivant appellerait à un certain optimisme pour l’avenir du centre.

Figure 87 – Courbes des régressions des puissances de 1981 à 1989

Période 1981-1989 203

Période 1980 – 1989

Coefficient a

Facteur multiplicatif

centre de calcul

TOP

centre de calcul

TOP

0,424

0,386

1,528

1,471

Les puissances en un an ont été en moyenne multipliées par 1,528 pour le centre de calcul et 1,47 pour le TOP, soit pour la loi de Moore un coefficient d’augmentation de 2,33 pour le centre et 2,16 pour le TOP en deux ans. Mais on aurait pu faire beaucoup mieux. Et avant de donner le détail des installations qui ont conduit à ces chiffres, il faut parler de notre troisième tentative manquée, relatée à sa place dans le tableau factuel général des installations des machines de calcul (figure 72). Il s’agit de la proposition d’installation d’un CRAY 1 au CIRCÉ en 1980. La décennie qui commence a vu quelques éléments marquants : − la création du centre de calcul dans le Sud demandée depuis 1972 ; − l’arrivée du calcul vectoriel en 1984, demandé depuis 1980, avec la création officielle du Centre de Calcul Vectoriel pour la Recherche (CCVR) ; − la création de la Division Informatique Scientifique (DIS) ; − le développement du centre polyvalent CIRCÉ qui, après le veto ministériel pour l’installation d’un CRAY, a développé des capacités de calcul vectoriel complémentaires de celles du CCVR.

9.1 Création du centre de calcul universitaire Paris-Sud L’année 1981, c’est l’année de la création du second centre serveur national équipé de matériel IBM. Elle résulte des décisions du Plan Informatique du ministère de l’Éducation nationale, élaboré en collaboration avec le ministère de la Recherche et de la Technologie. Le Centre National Universitaire Sud de Calcul (CNUSC) est implanté à Montpellier. Il est chargé d’héberger des applications scientifiques pour la communauté des chercheurs, mais aussi des applications en bibliothéconomie.

Figure 88 – Le fronton du CNUSC

204

De l’IBM 360/75 au superordinateur Jean Zay

Le CNUSC est équipé d’un système central composé de : − une unité centrale IBM 3033 modèle US (57 nanosecondes de cycle de base), avec 8 millions d’octets (8 Mo) de mémoire centrale, dont l’accès est amélioré par une antémémoire de 64 ko. Sont accessibles au programmeur 16 registres généraux de 32 bits, et 4 registres virgule flottante de 64 bits ; − une configuration d’unités de disques 3350 IBM et 3 compatibles 13 unités, conduisant à une capacité totale en ligne de près de 9 milliards d’octets (1200 ko/seconde). Un réseau de télétraitement : le réseau des terminaux du CNUSC est essentiellement organisé autour de deux contrôleurs de télétraitement. Une liaison haute vitesse sera établie pour accéder au CRAY 1 puis au CRAY 2 du CCVR (Centre de Calcul Vectoriel pour la Recherche). À sa création, il était équipé d’un 3033 IBM qui sera remplacé par un 3081 IBM deux ans plus tard.

9.2 Création de la Division Informatique Scientifique (DIS) Le 21 décembre 1982, Yves Rocher, conseiller pour les affaires régionales auprès du directeur général du CNRS P.  Papon, lui présente l’historique de la lutte qui a permis le remplacement du 370/168 et lui fait un compte rendu de la réunion qu’ils ont eue, lui et M. Combarnoux, directeur du département SPI avec Messieurs Chevillot, Lorenzi et Hirel sur les moyens informatiques du CNRS. J.-C. Hirel 151, inspecteur des finances, en particulier a été très dur : − refus des 11 VAX demandés ; − pour le CIRCÉ, choix IBM confirmé et imposé. Tant pis pour les performances supérieures et le prix moindre du NAS ; − exigence d’un schéma directeur où figure une évaluation du marché offert aux constructeurs nationaux. Une commission informatique serait en cours de création avec M. Cea pour président. C’est la future terrible Commission des Moyens Informatiques (COMI). Dans le même compte rendu, Yves Rocher fait une liste des problèmes à résoudre et suggère à M. Papon d’annoncer, au comité de direction du lendemain, ma nomination en tant que conseiller pour les moyens de calcul, ce qui fut fait. Le 28 décembre, M. Papon écrivait au ministre M. Chevènement lui décrivant la misère informatique des laboratoires et demandant pour eux des mesures d’urgence. Il lui explique que le ministère a imposé au CIRCÉ une machine IBM au lieu du NAS demandé, mais que rien ne s’est concrétisé. Il conclut par : « Je tenais, Monsieur le ministre, à vous faire part de cette grave préoccupation que constitue pour le CNRS les moyens informatiques pour la recherche, et j’espère que vous pourrez m’apporter votre appui pour résoudre très rapidement ces problèmes. » 151 Jean-Claude Hirel,

inspecteur des finances, premier président de la mission informatique ministère de l’Industrie statuant sur les autorisations d’acquisitions du ministère de l’Enseignement supérieur et de la Recherche.

Période 1981-1989 205

Le soutien de P. Papon ne s’est jamais démenti. La Division de l’Informatique Scientifique (DIS) est créée le 23 juillet 1984, par décision de P. Papon. ARTICLE 1 : Il est créé, sous l’autorité du Directeur Général, une Division de l’Informatique Scientifique. Elle est placée sous l’autorité d’un directeur. ARTICLE 2  : Les unités de service constituées par les centres de calcul propres au CNRS dépendent, sur le plan technique et administratif, de cette Division qui assume également la responsabilité des participations du CNRS dans les autres centres de calcul. − À cette fin, elle a la charge des propositions budgétaires, de notifier les crédits attribués dans le cadre du budget, d’affecter les postes et de gérer les postes d’ITA, la gestion du dossier administratif des agents et des ITA restant de la compétence des Administrateurs Délégués. − Le Directeur de la division ou son représentant est membre de droit des comités de direction ou des conseils scientifiques des centres de calcul propres au CNRS. − La division a enfin la charge de coordonner le choix des équipements et des règles de fonctionnement. Elle prépare les décisions fixant les tarifs à la signature du Directeur Général. ARTICLE 3 : Le Directeur de cette division, qui assure en outre la fonction de Conseiller de Directeur Général pour l’informatique scientifique, dispose des moyens de la division pour assurer les relations qu’il a au nom du CNRS avec l’autorité de tutelle et les autres instances pour la mise en place des moyens informatiques scientifiques dans le cadre du schéma-directeur ainsi que de préparer celui-ci. − La division contribue à la constitution et à la mise à jour du fichier des acquisitions, à la préparation des dossiers soumis à la Commission spécialisée des marchés informatiques, à la transmission des dossiers au secrétariat des différents comités techniques et à leur présentation. Elle assiste les laboratoires dans le choix des matériels et des logiciels. 152 Le Comité Scientifique Consultatif de la Division de l’Informatique Scientifique (CSCDIS) est créé le 22 janvier 1985, par décision de Pierre Papon. Il est composé des directeurs scientifiques des départements, du directeur de l’informatique scientifique et technique, de six personnalités extérieures, du président de la section  08 du comité national, de trois membres représentant le personnel, de trois membres représentant les comités des utilisateurs des trois centres de calculs nationaux, des directeurs des trois centres ainsi que du directeur de la DIS, qui a une voix consultative. J’ai accepté ce poste, croyant naïvement que j’aurais accès plus facilement aux entourages des décideurs et que je pourrais les convaincre. Mais décidément je n’étais pas douée pour la persuasion.

152 Idem.

206

De l’IBM 360/75 au superordinateur Jean Zay

9.3 Arrivée du calcul vectoriel 9.3.1 Proposition d’installation en 1980 d’un CRAY 1 au CIRCÉ Littéralement, on peut dire que c’est une opération manquée, puisqu’elle ne s’est pas faite et qu’il a fallu attendre 1984, c’est-à-dire quatre ans pour qu’elle soit réalisée au CCVR qui lui-même n’a duré que neuf ans, mais neuf ans où il a rendu les plus grands services à la recherche. Mais elle a été une étape nécessaire dans la lente prise de conscience des « décideurs » des instruments indispensables à la recherche. Quatre ans, c’est trop long, mais nous y sommes arrivés. Seymour Cray, l’inventeur et constructeur, parle lui aussi, de l’exception française. Dans toutes les présentations de ses CRAY 1 et CRAY 2, à travers le monde il expliquait : « Mes machines sont faites pour être la tête d’une pyramide. Il n’y a qu’une exception, c’est la France qui a construit pour la sienne un bâtiment à 2 km de son centre de calcul. » Ce fut un épisode d’une bataille, comme le dira Pierre Papon. Mais une bataille d’idées au sommet de la hiérarchie qui avait elle-même ses priorités et ses problèmes. Il faut bien comprendre l’atmosphère de cette époque. La collaboration a toujours été totale entre moi-même, P. Salzedo, S. Fayolle et J.-C. Adam, utilisateur du CIRCÉ et futur directeur du CCVR. Les utilisateurs nous faisaient entièrement confiance pour notre capacité à faire fonctionner leur outil de travail, même si en interne ils savaient bien nous critiquer. En face de nous, il y avait les ministères et leurs commissions qu’il fallait convaincre de nos besoins et de nos attentes. Tous les quatre, nous avons œuvré pour que la communauté des chercheurs puisse travailler au mieux avec ce qu’on pouvait installer en restant à l’écart de ces discussions. Elles faisaient partie du travail nécessaire pour remplir la mission qui nous avait été assignée, mais ne devaient pas les perturber. L’essentiel des documents, lettres, rapports et comptes rendus relatifs à cette tentative sont regroupés dans un dossier de la direction générale sur lequel une secrétaire a écrit sobrement « projet CRAY 1, CIRCÉ ». Il est conservé dans les archives de la DIS 153. M. Ducuing 154, chercheur en physique théorique à l’École polytechnique et P. Papon se sont investis personnellement à fond, annotant les rapports que nous leur envoyions, y répondant par des notes ou lettres manuscrites, et surtout essayant de défendre, chacun à leur manière, nos dossiers dans les réunions et discussions en haut lieu où nous n’avions jamais accès. Le premier document qui s’appelle « Proposition pour l’installation d’un CRAY 1 au CIRCÉ » a été remis à M. Ducuing pour qu’il le présente aux dirigeants au cours 153 Projet

CRAY 1 CIRCÉ, 1980-1981, Archives de la DIS. Ducuing, chercheur en optique et physique théorique, directeur du CNRS de 1973 à 1981. Il démissionne le 29 octobre 1981 à la suite de la décision de Jean-Pierre Chevènement de nommer lui-même les directeurs scientifiques à la place du directeur général. Président du comité scientifique de l’Otan. Sur son invitation, j’ai été faire des conférences à Bruxelles à l’OTAN. L’Otan n’avait pas de crédits d’équipement pour acheter des ordinateurs mais cherchait à être partie prenante d’un réseau européen. 154 Jacques

Période 1981-1989 207

d’une réunion interministérielle qu’il jugerait propice. C’est quasiment un dossier préparé pour un passage en commission, il comporte quatre parties avec : − caractéristiques et domaines d’utilisation avec des caractéristiques dominantes du CRAY, les conséquences pratiques, l’utilisation en recherche scientifique dans tous les domaines, une analyse très fine des problèmes qu’il permettrait d’aborder et des algorithmes à développer en hydrodynamique, mathématiques, météorologie océanographie, aérodynamique, physique des plasmas, résistance des matériaux, génie chimique, biologie ; − projet de mise en œuvre d’un CRAY au CIRCÉ avec étude des infrastructures, des coûts, des personnels à recruter ; − la nécessité pour faire passer le projet, de l’assurance d’étudier la frontalisation par une machine CII-HB nationale, − la synthèse du projet. Son originalité tient dans le fait qu’il n’a été demandé par personne et qu’il contient majoritairement les réalisations des chercheurs faites grâce nos services et leurs besoins futurs. Ces derniers insistaient sur la nécessité d’agir rapidement. Deux parmi les demandeurs nous avaient particulièrement aidés. U. Frisch, de l’observatoire de Nice et J-C. Adam du laboratoire de physique théorique de l’École polytechnique. Le premier avait travaillé au NCAR (National Center for Atmospheric Research) de Boulder. Il informait que, si dans les mois qui venaient, il n’y avait pas un CRAY disponible pour la recherche, il y repartait avec des collègues de Lyon, Marseille et Grenoble. Il avait fait une demande de crédits pour payer des heures à la CISI. En se restreignant au maximum, il lui fallait 500 heures à 30 000 F par heure soit 15 MF. C’est le prix de la location annuelle d’un CRAY. Où la DGRST trouverait-elle cet argent à fond perdu ? Le second était J.-C. Adam. De l’avis de tous, c’était un excellent utilisateur de l’informatique. Il arrivait à faire avec l’ordinateur Amdahl du CIRCÉ ce qui se faisait ailleurs avec le 7600 CDC. C’était la limite pour ses travaux. Il demandait qu’on intervienne pour que le CRAY soit installé le plus vite possible et au CIRCÉ, à cause de la compétence de l’équipe et de la continuité du travail. Dans l’espoir de convaincre le lecteur de son rapport, il a détaillé la partie mathématique d’un de ses problèmes. Il espérait que le lecteur, à défaut de suivre les développements, comprendrait au moins qu’il fallait un ordinateur puissant pour attaquer le problème. Son exemple demandait la résolution des équations de Navier-Stokes. Ce qui se passe dans un fluide incompressible, emplissant un domaine D de l’espace, peut être décrit dans le modèle déterministe à l’aide de deux fonctions : la vitesse de la particule au point d’étude et sa vitesse à l’instant t. Mais elles sont non linéaires. En 1980, on ne savait traiter qu’un espace D à 2 dimensions. Or un attracteur étrange apparaît avec un modèle simplifié obtenu en tronquant les équations de convection. Il se dissout si on augmente la résolution. C’est uniquement en ajoutant la 3e dimension qu’il revient, vrai et plus complexe. Si on part d’un domaine de côté 1 à trois dimensions, avec une discrétisation de 1/20 on arrive à un système de 32 000 équations à 32 000 inconnues et on ne fournit encore qu’une description imparfaite. L’approche expérimentale n’est pas envisageable, car on ne peut figer le fluide. Le résultat ne peut être obtenu qu’avec du calcul intensif.

208

De l’IBM 360/75 au superordinateur Jean Zay

9.3.2 Décision d’installation du CRAY à l’École polytechnique, le 22 juillet 1980 M.  Ducuing a discuté du projet avec P.  Aigrain, alors secrétaire d’État auprès du premier ministre chargé de la Recherche sur la politique scientifique et technique dans le cadre européen. Dans ce cadre, le 18 juin 1979, P. Aigrain avait prononcé un discours où il avait parlé de développement en informatique et électronique, montrant son intérêt pour l’informatique. P.  Aigrain lui a dit que, personnellement il était favorable au projet et donnait son accord. Puis le dossier a été remis à la DGRST où il a suivi son cours, sur lequel nous n’avions aucune action. Mais mainteFigure 89 – CRAY 1 nant au moins le projet était connu. Il est inutile de dire qu’il fut rejeté en termes violents. M. Ouannès, responsable du département électronique au ministère de l’Industrie énonçant une opinion qu’il voulait définitive : « Mettez-le n’importe où, mais pas au CIRCÉ. Et j’interdis qu’une frontale soit installée au CIRCÉ. » Donc, nous n’avions plus qu’à nous retirer. Mais l’idée était retenue au niveau de la DGRST. Un des problèmes était qu’on ne savait pas où le mettre et que le projet prenait du retard. L’École polytechnique était candidate, mais n’avait ni personnel, ni locaux, ni financement. Malgré cela, Pierre Vasseur, directeur des laboratoires de l’École polytechnique comptait sur la perspective d’hébergement du CRAY comme argument supplémentaire pour un projet en cours d’agrandissement de ses locaux. Puisqu’il n’était pas envisageable de le mettre au CIRCÉ, où l’installer ? À PSI, ou au CCPN, qui déménageraient à Polytechnique quand les bâtiments seraient construits ? Finalement, entre les deux tours d’élections présidentielle, P. Aigrain a choisi l’installation à l’X 155. P. Ducuing nous en a informés par téléphone le 22 juillet : « Ce choix politique est le plus coûteux, techniquement plus risqué, et retarde de plus de quinze mois la mise en œuvre du CRAY. La communauté scientifique qui utilise largement et à sa satisfaction les services du CIRCÉ, souhaite que ce choix soit revu en prenant pour critère l’assurance d’une mise en œuvre rapide et d’un bon service ultérieur, sans considération de prestige, ni d’influence 156. »

155 Note

de l’auteure : Nous nous sommes remémorés ce suspens quelques années plus tard. P. Aigrain était président du jury du prix Cray. J’étais moi-même le membre du jury qui défendait le travail du lauréat de l’année. Il m’a avoué qu’en 1980, la situation était tellement complexe et exacerbée, qu’il avait été tenté de tirer à pile ou face. 156 Voir note 10.

Période 1981-1989 209

Comme le projet continuait de prendre du retard, le 15 octobre, sous la pression des utilisateurs nous informions M. Ducuing de notre intention de proposer un nouveau projet (figure 90). Les termes techniques et les développements du dossier étaient exactement ceux de début 80, mais, nous avions évolué et compris. Pour que le projet aboutisse, et il le fallait pour les chercheurs, le CIRCÉ devait aider au travail, mais ne jamais apparaître comme demandeur. Il fallait que ce soit un projet commun.

Figure 90 – Lettre d’intention de proposition d’un nouveau projet

210

De l’IBM 360/75 au superordinateur Jean Zay

Il fallait que ce soit un projet, non pour l’installation au CIRCÉ, mais pour la recherche en général. Pour nourrir les discussions de tous les groupes intéressés, nous avons fait un tableau complet récapitulatif des avantages et des inconvénients des quatre implantations envisagées  : PSI, IN2P3, X, et CIRCÉ (annexe  17). Les discussions, au niveau interministériel ont été difficiles. P. Ducuing y participait ou était remplacé par son chargé de mission Berthet en qui nous avions toute confiance. La vision qu’il avait de l’enjeu était semblable à la nôtre. Il semble que, bien que l’implantation à l’École polytechnique ait probablement été prévue d’avance, les discussions aient été nombreuses. Dès qu’elles ont porté sur la réalisation, les difficultés se sont révélées. P. Ducuing et Berthet nous demandaient des notes « urgentes » 157 ou « in extremis » sur des sujets qui allaient être à l’ordre du jour, comme l’établissement du cahier des charges pour une frontale CII-HB, le partage des coûts et des responsabilités. Plus tard et plus sérieusement encore, sur les corrections qu’il fallait que le CNRS demande dans le texte de création du GIE constituant le CCVR 158. Parallèlement, Yves Farge et Michel Combarnous, directeur du SPI, étaient conscients du retard que ça impliquait pour les chercheurs, et nous demandaient, chacun de leur côté, d’étudier une installation provisoire au CIRCÉ, la seule qui leur paraissait raisonnable. Y. Farge nous suggérait aussi pour l’immédiat une liaison directe avec le centre anglais de Daresbury, qu’il savait favorable au raccordement. Nous lui avons répondu par plusieurs notes qu’il ne suffisait pas d’une liaison physique, mais que les logiciels aux deux extrémités devaient pouvoir se parler et que la réalisation ne pouvait pas être immédiate. Il en a été fort déçu, les chercheurs aussi. Et nous-mêmes avions la frustration de ne pas avoir de baguette magique. Des chercheurs français qui travaillaient à Stanford, ou au MIT nous demandaient s’ils devaient y rester ou rentrer. Cinquante autres nous disaient qu’ils étaient prêts à démarrer en septembre 159. Que leur répondre  ? Une longue note du 14  décembre 1980, destinée à M.  Berthet, lui donne les réponses à toutes les questions prévisibles qui lui seront posées, même les plus invraisemblables comme : comment vient s’insérer l’évolution du CCPN dans votre projet  ? C’est une question qui en soi est légitime, mais posée ainsi paraît complètement incongrue pour quelqu’un connaissant tant soit peu le CNRS. Mais il faut être prêt à répondre à tout. Le CRAY 2 160 a été présenté en 1982, par Seymour Cray à Minneapolis aux États-Unis. Une équipe française de chercheurs et d’industriels était présente.

157 Lettre

du 16 décembre 1980 à Berthet. du 21 avril, Archives de la DIS. 159 Lettre des utilisateurs, Archives de la DIS. 160 Note de l’auteure : Lors d’un déjeuner privé dans son restaurant habituel, on lui a servi, sans qu’il la commande, une soupe aux pois, son repas coutumier. 158 Lettre

Période 1981-1989 211

Figure 91 – Seymour Cray à une présentation du CRAY 2, 1982

9.3.3 Place du projet dans le rapport d’activité de 1981 La partie qui lui est réservée dans le rapport de 1981 sur les activités de 1980 commence par la présentation qui suit. « Depuis 1979, la communauté scientifique a progressivement pris conscience de l’utilité des calculateurs de très grande puissance, type CRAY 1. Plusieurs projets d’installation d’un CRAY pour la recherche ont donc été soumis à la DGRST, par l’École polytechnique, PSI et le CNRS. Le CIRCÉ a proposé une installation dans ses locaux pour novembre 1981, dans un rapport remis au directeur général pour transmission à la DGRST. » Il donne un extrait de quatre pages sur les quatre-vingt-seize du rapport remis au directeur général pour transmission à la DGRST. Il n’a pas abouti et pourtant il est extrêmement important. Il a confirmé la place de l’équipe dans le peloton de tête qui s’initiait aux méthodes nouvelles, dès qu’elles apparaissaient et elle ne l’a pas quittée jusqu’à aujourd’hui. L’extrait parle du problème posé, des équipes concernées, des conditions techniques d’utilisation, du projet d’installation au CIRCÉ, du calendrier et du côté financier et le projet parle des problèmes scientifiques qu’elle permettrait d’aborder.

9.3.4 Étapes pour l’accession au calcul vectoriel Pendant toute cette période d’opération manquée, il fallait rendre possible aux chercheurs de faire leur travail en France. Il y eut plusieurs étapes de mises en place dès qu’on eut compris que la DGRST, d’accord avec le ministre de

212

De l’IBM 360/75 au superordinateur Jean Zay

l’Industrie sur ce point particulier, mettrait toujours son veto à nos demandes de matériel CRAY. Il y eut d’abord la création, d’une Action Thématique Programmée du CNRS (ATP) calcul vectoriel, puis l’établissement d’une liaison CIRCÉ-CEA, puis la liaison au CCVR installé à Palaiseau, puis l’installation de matériels vectoriels IBM et SIEMENS-FUJITSU à Orsay. Il a fallu attendre dix ans pour qu’enfin un CRAY arrive au centre d’Orsay.

9.3.4.1. Création de l’ATP « calcul vectoriel » Le CNRS a décidé de lancer une Action Thématique Programmée (ATP) « calcul vectoriel » en 1982. Dans ce but, un contrat a été passé avec la CISI afin de mettre à la disposition des chercheurs un nombre limité d’heures sur le CRAY 1 de la filiale CISI du CEA, installé à Rocquencourt. Il était utilisé majoritairement par l’EDF et connu sous le nom CISI/EDF. Cette ATP avait comme double objectif de permettre à des équipes ayant déjà une expérience avec le CRAY de présenter des projets relativement importants, et à des équipes qui souhaitaient se lancer dans la modélisation numérique, d’acquérir l’expérience nécessaire à l’utilisation optimale du CRAY afin d’être opérationnelles dès la mise en service du « CRAY Recherche » qui s’est faite en 1983. En 1982, la CISI passait un accord avec le ministère de l’Industrie pour l’étude de la frontalisation de son CRAY. Les utilisateurs insistaient sur la nécessité d’une liaison avec le CIRCÉ (annexe 20).

9.3.4.2. Liaison CIRCÉ-CEA Une liaison PTT à 72 kbits a été établie entre la CISI, où se trouvait le CRAY 1, et le CIRCÉ. Les matériels (modems et boîtes NSC) qui permettaient d’établir un « hyperchannel », à travers cette liaison, ont été installés et testés. Le logiciel de «  station frontale  » fourni par CRAY pour frontaliser sa machine à partir d’un ordinateur IBM a été installé sur l’Amdahl V7. Il faudra encore diverses modifications logicielles pour tenir compte du partage de tâches entre le V7, station frontale du CRAY, et le NAS 9080 qui assure notamment les services conversationnels. Par exemple, il a fallu rendre possible la soumission d’un travail à exécuter sur le CRAY à partir d’une console TSO connectée au NAS /9080. Les services seront progressivement ouverts aux utilisateurs.

9.3.4.3. Création du CCVR et sa liaison avec les ordinateurs du CIRCÉ Finalement, ce n’est qu’en 1984 que sera inauguré un CRAY 1 pour la recherche. C’est celui de la CISI déménagé au centre de calcul Vectoriel pour la Recherche (CCVR), installé dans les sous-sols de l’École polytechnique à Palaiseau 161. Le directeur était J.-C.  Adam, celui qui avait demandé en 1980 l’installation 161 Revue mensuelle de la Société amicale des élèves de l’École polytechnique, La Jaune et la Rouge, n° 398, p. 27, octobre 1984.

Période 1981-1989 213

du CRAY au CIRCÉ. Il connaissait parfaitement le CIRCÉ pour en avoir été longtemps un des plus gros utilisateurs et la collaboration a été totale avec P.  Salzedo et S.  Fayolle. C’était extrêmement précieux étant la liaison hyperchannel installée entre le CRAY 1 et sa frontale au CIRCÉ et le fait que nous faisions plus de 50% de la charge du CCVR. «  Le jeudi 5  juillet 1984, était inauguré par l’ingénieur Général Bousquet et par le professeur Robert Chabbal, le centre de calcul vectoriel pour la recherche dans les nouveaux locaux de l’École polytechnique. Huit partenaires se sont associés pour cette création : le ministère de la Défense, le ministère de l’Éducation nationale, le ministère des Transports, le Centre National de la Recherche Scientifique (CNRS), l’Institut National de la Recherche en Informatique et Automatique (INRIA), l’École polytechnique, l’Office National d’Études et de Recherches Aérospatiales (ONERA) et la Compagnie Internationale de Services en Informatique (CISI). Le projet élaboré sous l’impulsion initiale de Patrick Fleury et de Pierre Vasseur dans l’optique d’un centre national de compétences et de moyens en matière de calcul vectoriel est présenté par Yves Farge au secrétariat d’État à la Recherche de Pierre Aigrain. » Le CCVR est donc un groupement d’intérêt économique qui associe les huit membres cités. Tout ce travail pour l’opération manquée et la préparation à une machine CRAY se faisait simultanément avec le développement du CIRCÉ qui avait une charge croissante  : c’est l’histoire de cette évolution qui suit. Quand le CCVR a remplacé le CRAY 1 pour un CRAY  2, la liaison a été transportée sur le CRAY 2. Le CRAY 2 est le premier ordinateur à dépasser la puissance de 1  Gflops (1  milliard d’opérations en virgule flottante par seconde). Figure 92 – CRAY 2

9.4 Évolution des matériels installés L’évolution du CIRCÉ a été particulièrement importante au début des années 80. La configuration matérielle a beaucoup changé, avec l’installation d’un NAS 9080, d’un Bull DPS8, d’imprimantes à laser et de mémoires de masse. Une nouvelle salle machine a été aménagée, avec climatisation et alimentation électrique distinctes des anciennes installations de la première salle machine : − le réseau de télécommunication a été réorganisé, tous les frontaux IBM remplacés, de nouveaux services ouverts aux terminaux asynchrones. Très minoritaires en 1982, les grappes de terminaux à écrans sont devenues le matériel le plus utilisé en 1984. Les services en mode « pleine page » ont connu un succès et un développement considérables ;

De l’IBM 360/75 au superordinateur Jean Zay

214

− les connexions intersites se sont multipliées, et avec elles les efforts pour développer, consolider, documenter les services de transfert de programmes et fichiers ; − d’importants développements ont permis l’ouverture de services avancés en traitement d’image, traitement de texte scientifique, systèmes de bases de données, impression de qualité, contrôle d’accès et protection des informations, gestion des fichiers ; − un large effort d’assistance a été entrepris à l’intention des détenteurs de micro-ordinateurs : aide au choix, à l’achat, à la connexion, au transfert de données. Ceci s’est fait grâce à un effort intense des personnels, et à la redéfinition de certains objectifs prioritaires, débouchant sur d’importantes réorganisations. Plus que par sa croissance quantitative, pourtant supérieure à 40 % par an, cette évolution se caractérise par une diversification considérable des applications, et un élargissement de la base des utilisateurs nouveaux venus à l’informatique.

9.4.1 Évolution des machines installées Pendant que nous nous débattions, sans succès, pour avoir l’ordinateur vectoriel souhaité il fallait bien faire tourner le centre avec les moyens que les commissions nous concédaient. Quatre machines ont été installées. Machines installées

Date d’installation

Date d’arrêt

NAS 9180

avril 1983

1990

Bull DPS8

décembre 1984

1989

IBM 3090

mars 1986

1993

SIEMENS VP200

septembre 1986

1993

En voyant un tel tableau, on pourrait croire que nous étions dans un pays de Cocagne.

puissance Max Mflops

Parc Machines du CIRCÉ Période 1984-1989 1000

800

267

533

800

533

100 10 1

Puissance Mflops maxi

IBM 3090 200

NAS 9080

IBM 3090 600 + VF

1984-1988 267

800

NAS 9080 1988-1990

VP200

533

Super Calculateurs Vectoriels

Figure 93 – Parc des machines 1984-1989

IBM VP3090 200 600 + VF 1990-1993 800 533

Période 1981-1989 215

Mais qu’on ne s’y trompe pas. Ce n’est que du rattrapage, après une longue saturation passée et avant celle à venir. Les obstacles n’avaient pas disparu et nous allions toujours avoir des interlocuteurs devant lesquels il fallait défendre les besoins des utilisateurs. Les interlocuteurs du CNRS étaient Messieurs : − Hirel et Combet pour la DIELI, − Chevert et Chibois pour la MIPI, − Chevillot et Lorenzi au cabinet du ministre, − Farge et Étienne au MRI. Les quatre directeurs généraux de cette époque nous ont apporté leur aide, souvent décisive.

9.4.1.1. NAS 9080 Après une rude bataille qui sera relatée, on arrache l’autorisation d’installer un NAS 9080. L’importation hors des États-Unis d’un ordinateur de cette puissance est soumise à un accord préalable de l’Administration américaine. La procédure est relativement longue. Demandée trop tardivement, cette procédure n’a pas abouti à temps pour permettre de respecter le calendrier initial. Il a été décidé d’installer le plus rapidement possible un monoprocesseur NAS 9060, en limitant l’interruption à une fin de semaine entre le 6 et le 8  mai. Le 9 mai à 7 h, l’Amdahl V7 et le NAS 9060 étaient en production. Un accélérateur vectoriel (IAP) a été monté le samedi 9 juillet. Un deuxième NAS 9060 a été livré et démarré le 6 août, couplé avec le premier 9060 pour former un NAS 9080, biprocesseur avec un accélérateur vectoriel. Le lundi 8 août, tout était en production. CPU

Biprocesseur, 32 canaux, puissance 21,5 Mips/processeur, 2 processeurs. Un des processeurs est équipé d’un dispositif d’accélération des calculs vectoriels (VF)

Mémoire

Mémoire centrale de 32 Mo, mémoire d’arrière-plan de 64 Mo

Peu de temps après étaient connectés une imprimante à laser Xerox, deux imprimantes à impact IBM et de nouveaux disques. Pendant l’été 1983 aussi, deux adaptateurs de télétraitement 4705 Amdahl ont été mis en service pour le télétraitement. L’ensemble est présenté dans la figure 94. C’est en octobre de la même année que le NAS 9080 a été relié par une ligne à 1 Mégabit au CRAY 1 du CCVR. Les usagers ont été très satisfaits de cette liaison hyperchannel. Et pendant toutes ces installations les ingénieurs système (14 ingénieurs en 1985) appliquaient les modifications aux logiciels de base pour que tout fonctionne et installaient les nouveaux logiciels indispensables, tel HSM, qui faisait la gestion hiérarchique automatisée des mémoires externes. Quant aux 16 ingénieurs du GSU (service d’assistance aux utilisateurs), en plus du dépannage, ils devaient tester les nouveaux logiciels, donner des cours, rédiger les manuels, entretenir les grandes bibliothèques de programmes, implémenter des logiciels pour des applications spécifiques. La vectorisation était facilitée par le dispositif IAP d’accélération de calculs vectoriels disponible sur le NAS 9080. Il était mis en œuvre pour les programmes

216

De l’IBM 360/75 au superordinateur Jean Zay

Fortran-VS par l’intermédiaire d’un préprocesseur VAST (Vector and Array Syntax Translator) développé par la société Pacific Sierra Research Corporation pour le compte de NAS. Grâce à ce préprocesseur, la vectorisation d’un programme Fortran quelconque était pratiquement transparente et automatique pour l’utilisateur. Le traitement par lots était devenu obsolète. Beaucoup de terminaux lourds n’étaient plus utilisés pour la soumission des travaux, mais pour le retour des résultats. Les services conversationnels avaient subi une accélération massive. De nombreux micro-ordinateurs disposaient alors de coupleurs et de logiciels émulant des procédures de terminaux lourds. En revanche, il y a un domaine où le mode par lots est utilisé. C’est celui des connexions des centres de calcul. Le NAS 9080 sert de frontale au CIRCÉ pour l’accès au CRAY 1 du CCVR. Le diagramme suivant montre l’ensemble CCVR avec le Cray, ses frontales et ses liaisons.

Figure 94 – Frontalisation du CRAY au CCVR

9.4.1.2. LE DPS8 L’installation d’un DPS8 est le fruit d’une longue négociation avec Bull et le ministre de l’Industrie qui voulait absolument installer du matériel national au CIRCÉ pour un effet de vitrine : c’était la condition nécessaire pour les autorisations d’achat des VAX dans les labos, dont ceux de l’IN2P3. Restait à lui trouver une place intelligente parmi les autres machines.

Période 1981-1989 217

Un DPS8/62M a été livré le 11 septembre 1984. Il fonctionnait sous Multics 162, acronyme de Multiplexe Information and Computing Service, nom d’un système d’exploitation en temps partagé. Configuration : biprocesseur spécialisé dans les applications documentaires et de messagerie et dont le réseau de téléinformatique communique avec les autres machines. Les opérations de mise en route du système se sont correctement déroulées jusqu’au 21 septembre. Un manque de livraison de certains matériels périphériques n’a pas permis d’effectuer les tests de vérification d’aptitude avant le 4 octobre. Ces tests se sont déroulés avec succès. Dans une première phase, cette machine était réservée à la formation des personnels du centre, et à divers développements, préalables à l’ouverture de services aux utilisateurs. Le premier de ces développements est celui qui permettait d’accéder au Multics à partir de terminaux conversationnels connectés à la configuration du NAS 9080. La configuration comportait : CPU

Biprocesseur DPS 8/62

Mémoire

Deux blocs de 2048 kmots, soit une mémoire totale de 4096 kmots L’IOM processeur d’entrée/sortie, assurait l’interface avec les différents processeurs spécialisés pilotant les sous-systèmes périphériques

Bandes

Un contrôleur de bandes (MTP) gère trois dérouleurs de bandes (MTU0538) double densité : - 1600 bpi, vitesse de transfert = 200 000 bytes/s. - 6250 bpi, vitesse de transfert = 781 250 bytes/s.

Disques

Quatre contrôleurs de disques (MSP) gérant quatre unités de disques de type 451 et quatre de type 501 (soit un total de 20 volumes physiques) - 451  : disques amovibles à un axe d’une capacité de 157 Mo millions d’octets et à un débit de 717 000 octets/s. - 501 : chaque 501 est constitué de 4 disques fixes d’une capacité totale de 1,101 Go et à débit de 1 064 000 octets/s.

Les Frontaux  : un FENP (Front End Network Processor) et un UNCP, géraient les lignes de télécommunication. Nous avons recruté trois ingénieurs débutants pour couvrir au sein de l’équipe système les activités liées au DPS8 Bull. Ces agents ont suivi des cours de formation chez le constructeur pendant plusieurs semaines et ont assisté les ingénieurs Bull lors du démarrage de la machine. Ils assuraient, seuls, la responsabilité du logiciel de base Multics et acquéraient, par la pratique quotidienne, l’expérience nécessaire.

162 Multics,

système d’exploitation dont dérive directement UNIX, fut conçu conjointement par le MIT, les laboratoires Bell et General Electric.

De l’IBM 360/75 au superordinateur Jean Zay

218



   3 dérouleurs    4 disques      4 disques

Figure 95 – Configuration du DPS8/62

9.4.1.2.1. Messagerie MIC Dans le schéma directeur informatique du CNRS, le matériel Bull récemment installé au CIRCÉ remplira le rôle de serveur national pour la messagerie du CNRS. Il est souhaitable d’installer des serveurs locaux là où il y a une forte concentration de personnels CNRS. D’autre part, beaucoup de relations entre une Administration Déléguée (AD) et les laboratoires qu’elle administre seraient facilitées par un service de messagerie. Il a donc fallu équiper en priorité les administrations déléguées installés sur des campus du CNRS importants. Cette approche a également facilité la préparation et l’ouverture du service : installation des matériels communs, formation et information des personnels. Par rapport aux formations situées sur un campus, les laboratoires isolés auront accès aux mêmes services et dans les mêmes délais, compte-tenu des choix faits pour les terminaux et le réseau de transport de l’information. Pour permettre l’installation des serveurs locaux de messagerie MIC, il a fallu compléter les développements fournis par le constructeur. Mais, ceux-ci ont été menés dans des conditions difficiles à cause des insuffisances du support offert par Bull et des glissements que le constructeur a fait opérer sur le calendrier de livraison des produits attendus (carte X25, par exemple).

Période 1981-1989 219

Une autre difficulté a été l’abandon par l’INRIA du portage du logiciel COSAC sur Multics, auquel ses représentants s’étaient préalablement engagés. On a donc dû reprendre en l’état ces développements au courant de l’été 1986 pour les mener à leur terme avant l’automne. C’est un domaine où des développements importants ont été nécessaires dans les mois qui ont suivi. Concernant le service MIC proprement dit, les difficultés d’ancrage du service de messagerie dans les moyens de communication du CNRS persistent et toutes les fonctions d’administration des abonnés n’ont pu être transférées aux services des administrations déléguées et sont en grande partie restées à notre charge. Ces difficultés ont conduit à réexaminer les bases du service MIC en prenant en compte : − l’arrêt annoncé du système Multics qui était le pivot du service ; − l’évolution des besoins en matière d’accès de microordinateurs aux services de messagerie ; − la mise en place de services X400 ; − l’évolution générale des messageries de recherche.

9.4.1.3. L’IBM 3090 Ces années marquent la fin de la suprématie d’IBM dans le domaine des plus puissants ordinateurs. Il réagit avec la série S successeur haut de gamme des séries 360 et 370. « IBM présente sa nouvelle série S dont le modèle le plus puissant atteindrait 120 millions d’instructions par seconde (Mips), soit l’ordinateur universel le plus puissant existant. “La série des mainframes 3090 est destinée à vivre”, déclare Big Blue. Tel le phœnix de la mythologie grecque, le grand système IBM ne cesse de renaître de ses cendres. Depuis sa naissance en 1964, le mainframe a pourtant été régulièrement présenté comme mourant 163. » Un des premiers modèles annoncés en 1985, l’IBM 3090/200, est installé au CIRCÉ. Il est doté de l’unité « Accélérateur Vectoriel (VF) ». La configuration totale est donnée dans l’annexe 27. Plusieurs autres modèles de l’IBM 3090 plus performants seront annoncés dans les années suivantes. À la fois ordinateur polyvalent et multiprocesseur de très hautes performances, le 3090/600E est au centre des services informatiques fournis par le CIRCÉ. Il gère tout le réseau de télécommunications, supporte l’activité en temps partagé TSO, effectue des calculs lourds en traitement par lots, et même temps qu’il sert de machine frontale aux deux supercalcula- Figure 96 – IBM 3090. Reprint teurs vectoriels. Courtesy of IBM Corporation © 163 Article

de 01 Informatique de 1988.

De l’IBM 360/75 au superordinateur Jean Zay

220

Améliorations du modèle IBM 3090 qui seront successivement installées au CIRCÉ Modèle Installé Nombre de Année N-way IBM au Chip processeurs MHz Annonce processor(s) 3090 CIRCÉ vectoriels

OS

MFLOPS MAX

200 +VF

1985

1986

2 × central processors

600 E +VF

1987

1988

6-way (two 300s)

ECL

6

58,1

MVS

696

600S +VF

1988

1990

6-way (two 300s)

ECL

6

66,7

MVS

800

2

216

Figure 97 – Caractéristiques des ordinateurs IBM

Le 3090  200 est d’abord upgradé en 3090  400. Puis il est reconfiguré, le 3090/600E+VF du CIRCÉ est reconfiguré en modèle 600S, doté en plus de 6 dispositifs VF, un par processeur. Il apporte les facilités de calcul vectoriel. En avril 1990, la mémoire centrale sera étendue de 256 à 512 mégaoctets. CPU

Biprocesseur, 40 canaux, puissance 16 Mips/processeur Un des processeurs est équipé d’un dispositif d’accélération des calculs vectoriels (VF)

Mémoire

Mémoire centrale de 64 Mo, mémoire d’arrière-plan de 64 Mo

L’architecture ESA/390 (Enterprise System Architecture/390) a été annoncée le 5 septembre 1990 164. L’arrêt du V7 Amdahl, la mise en service du 3090 et de plusieurs batteries de 3380 ont été planifiées pendant les vacances de Pâques. 26 mars 1986

6 heures 10 heures 14 heures

26 mars 1986 26 mars 1986

9 heures 15 heures

Arrêt du V7 – démontage Livraison de 4 batteries 3380 et de 4 contrôleurs de disques 3880-23 Mise en place des disques et contrôleurs, montage et mise sous tension. Livraison du 3090 Mise en place et montage Connexions des contrôleurs de disques et des disques du NAS 9080 sans interruption des services

164 https://fr.wikipedia.org/wiki/IBM_360_et_370

Période 1981-1989 221

1er avril 1986

6 heures 15 heures

Mise sous tension du 3090 (le 3090 doit rester au minimum 48 heures dans une salle climatisée avant sa mise sous tension) Début des tests constructeur

2 avril 1986

6 heures 15 heures

Connexion des unités du 3090 Tests constructeur

3 avril 1986

12 heures

Tests du système et de la configuration

4 avril 1986 5 avril 1986

Fin des tests du constructeur 9 heures

6 avril 1986

Tests de vérification NAS 9080 et IBM 3090 en production

Le passage à six dispositifs vectoriels, conjugué à l’installation d’un nombre croissant de logiciels d’application vectorisés et pour certains parallélisés a aidé à traiter dans de meilleures conditions les applications lourdes qui restent actuellement en exécution plus de 24 heures. En 1988, des extensions seront mises en œuvre pour prendre en charge plusieurs espaces adresse (370-ESA). En 1990, les modèles ES/9000 sont sortis avec des canaux I/O optiques à fibre optique (ESCON), et IBM a commencé à utiliser le nom System/390.

9.4.1.4. Le VP200 Supercalculateur vectoriel VP200 de Fujitsu construit en Allemagne. CPU

Monoprocesseur, 32 canaux, mémoire centrale 128 Mo, puissance 570 Mflops

Mémoire

Mémoire centrale de 128 Mo

Calendrier de l’installation du VP200 19 septembre 1986

Livraison et mise en place du VP200 1 contrôleur de disques et 2 batteries de 3380

20 septembre 1986

Mise sous tension et tests constructeur

21 septembre 1986

Connexion de la configuration

22 septembre 1986

Tests du système

23 septembre 1986

VP200 en production

L’arrivée du VP200 a nécessité un important effort de mise en œuvre. Côté frontale IBM, l’intégration des différents produits a été réalisée sous TSO. En dehors des bibliothèques scientifiques SSL II fournies par le constructeur, nous

De l’IBM 360/75 au superordinateur Jean Zay

222

avons mis en service la librairie NAG (par comptabilité avec IBM), les librairies LINPACK et EISPACK pour les utilisateurs du CRAY, ainsi que le logiciel graphique NCAR (version GKS). Un effort important a été consacré à la promotion du VP200 et à la réalisation de stages de formation. Cet effort sera poursuivi dans les mois suivants, notamment pour l’emploi des outils interactifs et pour l’emploi du compilateur FORTRAN 8X. Le dispositif vectoriel du 3090 a aussi été mis en service ainsi que ses librairies scientifiques ESSL. Plus tard, le VP200 est classé au Top500 165 de juin 1993 au rang 476 avec un pic théorique de puissance de 533 Mflops. Ci-après extrait de la liste du TOP500 :

9.4.1.5. Principaux périphériques La plupart des périphériques sont connectés et partagés entre l’IBM 3090 et le NAS 9080. Ces machines partagent également quelques unités de disques et de bandes magnétiques avec le VP200. Disques

Disque de types 3350 et 3380 d’une capacité de 116 milliards d’octets, répartis sur 112 volumes

Mémoire

Mémoire de masse IBM 3850/A2 à manchons magnétiques, d’une capacité de 102 milliards d’octets (50 millions d’octets par manchon)

Bandes

Lecteurs de bandes de type 3420 et 2 lecteurs de cartouches type 3480 (200 millions d’octets par cartouche)

Imprimante

Électrostatique couleur type Versatec haute résolution (400 points au pouce)

Installation d’unités périphériques : − mise en service d’un adaptateur de télétraitement IBM 3725 en avril 1986 ; − mise en service d’une unité de pagination Memorex de 128  Mo en mai 1986.

165 TOP500, classement des 500 calculateurs les plus puissants au monde, https://fr. wikipedia.org/wiki/TOP500

Période 1981-1989

Figure 98 – IBM 3350. Reprint Courtesy of IBM Corporation ©

223

Figure 99 – IBM 3380. Reprint Courtesy of IBM Corporation ©

L’espace en ligne est de 116 Go.

9 .4 .1 .6 . Plateforme d’ensemble et production Le NAS et l’IBM sont reliés entre eux par des canaux aboutés CTC et par le dispositif hyperchannel. Ils forment un environnement de type IBM avec les mêmes périphériques, des fichiers et des logiciels compatibles. Leurs configurations sont très imbriquées, avec un réseau téléinformatique commun. Ils forment avec le VP200 une plateforme illustrée par la figure 100. Découplage du NAS 908200 20 mai 1986

Découplage du bi-processeur 9080 en 2 processeurs de 16 canaux, 16 Mo de mémoire (chaque processeur devient un 9060) Le 9060 N0 reste en production Le 9060 N1 devient une machine de tests en vue de l’ouverture d’un service VM

Figure 100 – Schéma de la configuration matérielle 1988

De l’IBM 360/75 au superordinateur Jean Zay

224

La disponibilité de l’ensemble, c’est-à-dire la proportion du temps utilisable de l’ensemble de la plateforme, par rapport au temps horloge, dépasse les 99 %. C’est satisfaisant, mais cela indique aussi que la marge d’amélioration est très faible (figure 101). 9060-MVS

3090-MVS

9060-VM

VP200

Heures

%

Heures

%

Heures

%

Heures

%

8683

99,12

8656

98,81

7943

99,08

8710

99,42

Figure 101 – Disponibilité des ordinateurs du CIRCÉ en 1988

Il a été mis en place une cellule composée de deux ingénieurs et d’un assistant ingénieur qui assistait les utilisateurs pour les problèmes de fichiers. Cette cellule a en outre à sa charge, l’administration du service Multics et la question de l’espace sur disques (environ 450  000 fichiers) pour les systèmes MVS. En collaboration avec un ingénieur système, elle met en production un gestionnaire automatique de la bandothèque, soit près de 17  500 bandes magnétiques. En 1987, ils ont répondu à : − 482 demandes pour traiter des bandes magnétiques ; − 138 demandes pour recréer, à partir des sauvegardes sur version antérieures, des fichiers sur disques effacés par erreur par l’utilisateur. Toutes ces demandes augmentent de 30 % par an.

9.4.2 Stockage des données L’évolution du stockage des données est aussi spectaculaire que la puissance des machines installées 166. En 1984, 80% des travaux utilisaient des fichiers. Dans un avenir proche, on prévoyait que la très grande majorité des fichiers seraient utilisés en mode conversationnel. Ils devront donc être accessibles instantanément ou en quelques dizaines de secondes au plus. Donc il faut organiser le travail autrement. Jusqu’à cette époque, les opérateurs étaient présents 24h/24, 6j/7. Les montages étaient donc possibles pendant cette période. Cependant, la diversité des services, le volume de production augmentant, il était exclu de faire évoluer les effectifs au même rythme. Une redistribution des postes de travail était donc nécessaire, notamment des postes d’après minuit vers de nouveaux postes entre 7 heures et minuit, par exemple pour les services conversationnels. Ce qui coïncidait avec la recherche d’une moindre pénibilité du travail posté. Il fallait donc une mémoire d’arrière-plan de très grande capacité, moins performante, mais moins coûteuse que les disques, accessible sans intervention humaine. Les fichiers les moins utilisés y seront transférés, les autres restant sur disques.

166 Interface

HSM/fichiers, CIRCÉ, 16/10/1984, Archives de l’IDRIS.

Période 1981-1989 225

Ce transfert vers une mémoire d’arrière-plan de fichiers qui avaient été placés par leurs propriétaires sur disques en ligne est décidé par la machine fichiers. Elle obéit à des critères la rendant peu ou pas prévisible par l’utilisateur. Ce n’est pas lui qui connaît par exemple l’encombrement effectif des disques à un instant donné. La seule chose qui lui importe, c’est que son travail ne soit pas abandonné faute d’avoir trouvé le fichier demandé. Le but premier de H.S.M 167 (Hierarchical Storage Manager) est d’automatiser la gestion de l’espace occupé par des programmes et/ou les données à travers une hiérarchie d’unités et de volumes de stockage et par conséquent d’améliorer la productivité du centre, fournisseur de services et de ses utilisateurs. Le logiciel HSM fonctionnait sous le système d’exploitation MVS/JES3 et tenait compte à ce moment-là des unités de stockage courantes comme les volumes : − disques type 3330, 3350, 3380 ; − la mémoire de masse (MSS). et, dans certains cas, les volumes bandes standard 9 pistes. Le logiciel HSM était classé «  produit stratégique  » par IBM, ce qui était un engagement à son adaptation aux versions successives des logiciels « MVS, JES 3, TSO... » et au support de nouvelles unités de stockage (disques, bandes). En 1988, la mémoire de masse IBM 3850 a été remplacée par le robot Storage Tek 4400 168. − une capacité d’au moins 1000 giga-octets ; − une réduction des coûts ; − un débit élevé compatible avec les quantités manipulées et les unités disques ; − un accès aux données sans intervention humaine en moins de 15 secondes.

Figure 102 – Vue du magasin des cartouches

167 HSM

est un produit-programme d’IBM, de gestion d’espace de stockage de fichiers à travers une hiérarchie de supports matériels aux coûts, capacités et vitesses d’accès différents, utilisable en traitement par lots (« batch ») et en mode interactif sous TSO. 168 https://www.youtube.com/watch?v=FBEwcN_gSAk

226

De l’IBM 360/75 au superordinateur Jean Zay

Après étude des solutions existantes, notre choix s’était porté sur le système automatisé à cassettes 4400 de la société STORAGETEK (figures 103 et 104) (annexe 33).

Figure 103 – Le robot du STORAGETEK

Figure 104 – Les baies du STORAGETEK

La 4400 STK a été installée pendant le mois de juillet 1988 puis testée en interne. Elle a reçu rapidement les sauvegardes DF/HSM dont l’enregistrement sur cassettes en mode manuel a commencé en mai 1988. Pendant l’été, les opérations de sauvegarde et de migration quotidiennes DF/HSM ont été dirigées vers la 4400. Puis a eu lieu le transfert du contenu de la mémoire de masse à manchons magnétiques 3850 IBM, qui termina ainsi sa carrière.

9.5 Évolution des services Depuis sa création le CIRCÉ évolue en matériel et logiciel pour être prêt à s’adapter malgré les contraintes aux besoins des utilisateurs et si possible les anticiper comme l’indique un bref historique (annexe 32).

Période 1981-1989 227

9.5.1 Travaux du groupe exploitation Les pupitreurs spécialisés couvrent la plage de 6 h 30 à 24 h du mardi au vendredi, la nuit complète du lundi, et 7 h-14 heures le samedi. Un système d’astreinte a été mis en place pour assurer un dépannage dans l’heure qui suit un incident survenu la nuit, en dehors des heures de présence des équipes et depuis le 5 septembre 1987, du samedi 14 h au lundi 6 h 30. Sur les 8760 heures possibles en 1987, 3624 heures ont été effectuées en mode automatique, 1287 heures ont été couvertes par astreinte en semaine et 712 heures du mardi 14 h au lundi 6 h 30 ou jour férié. L’équipe d’astreinte est intervenue 14 fois en semaine et 4 fois en fin de semaine dans les 45 minutes qui ont suivi l’appel.

9.5.2 Travaux du groupe système Le travail a été intense pour la mise en exploitation de la plateforme 169. Il s’agissait de tirer le meilleur profit des machines qui nous étaient autorisées. Toutes ces machines étaient nouvelles. Il fallait essentiellement qu’elles puissent communiquer entre elles et partager les mêmes fichiers et cela, sans interruption de service. Les six faits marquants pour le groupe ont été : − l’ouverture du service sur le VP200 SIEMENS. Même en isolant au maximum cette machine du reste de la configuration, les questions à régler ont été nombreuses, particulièrement dans les domaines de transferts de fichiers et vérifications liées à la sécurité d’accès ; − l’ouverture du service VM sur le NAS ; − la publication assistée par ordinateur ; − la gestion d’agendas et de documents ; − une approche des techniques d’Intelligence Artificielle ; − la mise en œuvre du logiciel de contrôle d’accès RACF.

9.5.3 Travaux du groupe d’assistance Avec toutes ces installations, les 16 ingénieurs du GSU (groupe d’assistance aux utilisateurs), en plus du dépannage, devaient tester les nouveaux logiciels, donner des cours, rédiger les manuels, entretenir les grandes bibliothèques de programmes, implémenter des logiciels pour des applications spécifiques. Des services nouveaux ont été ouverts.

169 Note

de l’auteure : La plus grande reconnaissance du travail de l’équipe est venue de Seymour Cray lui-même qui disait : « C’est là que j’aurais voulu installer ma machine. Mais on ne m’a pas écouté. Ah ces Français ! »

228

De l’IBM 360/75 au superordinateur Jean Zay

9.5.3.1. Bases de données Deux nouvelles bases ont été créés en 1986 (CEPII, DRCI) portant à 41 le nombre de bases de données ADBAS installées au CIRCÉ. La moyenne d’utilisation de ces bases est de 4 millions de commandes ADABAS par mois. Tous les documents en ligne réalisés au CIRCÉ ou obtenus sur support informatique sont regroupés dans une base documentaire. Le logiciel documentaire SPIRIT permet à la fois de rechercher des documents par leur nom et de poser une question en langage naturel permettant la sélection de documents.

9.5.3.2. Graphiques L’arrivée sur le marché de logiciels GKS (Graphical Kernel System) faisant l’objet de normes internationales ISO a conduit le CIRCÉ à remplacer le logiciel GPGS qui sert de base à toutes les applications graphiques en mode vecteur, par le logiciel UNIGKS fournie par la société UNIRAS. Des outils de conversion ont été réalisés. Tous ces produits, installés sur l’IBM 3090, le sont également sur le VP200 et communiquent par la frontale par des métafichiers.

9.5.3.3. Les services VM Plusieurs services ont été mis en place dont, un service de Publication Assistée par Ordinateurs (PAO) et d’autres services personnels tels que la messagerie, l’agenda ou les notes. L’interconnexion avec la messagerie MIC n’a jamais pu aboutir. VM/PROLOG a été installé. C’est le premier maillon d’un service de gestion de bases de données.

9.5.3.4. Assistance aux utilisateurs de PC À chaque fois qu’une solution logicielle pouvait être proposée sur PC et restait compatible avec les produits disponibles sur les ordinateurs centraux, le GSU en a facilité l’accès aux utilisateurs (NATURAL/PC, SAS/PC et PC/TeX), en les implémentant et a fait des cours et travaux pratiques.

9.5.3.5. Assistance technique L’assistance aux utilisateurs a évolué avec la complexité des techniques et est articulée autour d’une amplification des relations directes avec les utilisateurs, d’une personnalisation des services et d’un soutien actif aux applications les plus complexes ou les plus exigeantes en ressources informatiques. En règle générale, le premier point de contact de l’utilisateur est la permanence d’assistance technique sur place ou par téléphone. Si les ingénieurs du GGU ne peuvent pas répondre au problème, les utilisateurs s’adressent à une assistance de second niveau auprès d’un spécialiste de la question au sein du CIRCÉ, qu’il fasse ou non partie du GSU. De toutes façons, l’extrême diversité des logiciels et services offerts fait que même les ingénieurs confirmés sont vite mis en défaut et doivent transférer la demande à un spécialiste du produit concerné.

Période 1981-1989 229

9.6 Vie d’un algorithme et retombées industrielles On discute sans fin sur des sujets connexes : l’informatique est-elle une science ? Place des informaticiens dans les centres de calcul ? Relations entre ingénieurs des centres de calcul et chercheurs en informatique  ? Il y a dans le monde informatique plusieurs métiers qui ont tous leur utilité, mais correspondent à des besoins différents. Comme dans toute discipline, il faut des chercheurs qui manient les concepts fondamentaux sur la programmation, les systèmes de communications, etc. À l’autre extrémité de la chaîne, il y a le chercheur qui veut une boîte à outil dans laquelle il mettra ses données et qui lui donnera les résultats qu’il attend. Entre les deux, il y a le centre de calcul. L’utilisateur travaille sur un sujet de pointe. Il a besoin d’un outil de pointe. La plupart du temps, il trouve dans les nombreuses bibliothèques de programmes ceux qu’il pourra assembler pour résoudre son problème. Il sera aidé par un ingénieur d’assistance qui les connaît bien, les a testés et comprend suffisamment la discipline pour concevoir le problème particulier. Il peut arriver que l’algorithme n’existe pas. Alors une collaboration peut s’établir entre un chercheur fondamentaliste, un chercheur appliqué et un ingénieur informaticien pour la conception, la mise au point, puis la livraison du produit qui rejoindra une bibliothèque. Le premier choisit de réfléchir à un concept qu’on lui propose comme susceptible d’applications. Puis il s’assure de la collaboration des deux autres. Donc il y a bien eu un travail de recherche d’un ingénieur informaticien dans un centre de calcul, mais il a deux caractéristiques : le sujet répond à la demande d’un utilisateur, et son installation ne perturbe en rien la production. C’est une question très importante. Dans un centre de calcul de production, un chercheur ou un ingénieur-chercheur, ne « prend » pas la machine. C’est un mot qui a disparu du vocabulaire. La production peut être arrêtée pour : − l’installation de nouveaux matériels. Chaque centre essaie de battre un record de vitesse ; − l’installation de nouveaux logiciels ; − la maintenance par le constructeur prévue par contrat ; − cause de panne hardware. Alors les équipes du constructeur et du centre interviennent pour faire le diagnostic et réparer ; − des interventions sur des logiciels de base ou des logiciels applicatifs pour repérage et réparation de défauts souvent détectés par les utilisateurs Elles se font, dans les heures de moindre charge la nuit, ou les dimanches et jours fériés si elles sont importantes. Elles sont comptabilisées et diminuent le ratio heures disponibles/ heures d’ouverture du centre. Ces interventions sont planifiées. En fin d’intervention, on « rend  » la machine à l’exploitation. Mais on ne l’avait pas prise. Elle vous avait été «  donnée  » par l’exploitation ou «  attribuée » dans le planning. Les mises au point de logiciel applicatif se font en les incorporant dans la file de traitements par lot. Le seul facteur sur lequel l’ingénieur chercheur peut agir c’est la priorité. De toute façon, son emploi des ressources est comptabilisé à son sigle comme tout utilisateur.

230

De l’IBM 360/75 au superordinateur Jean Zay

Figure 105 – Temps de calcul d’une transformée de Fourier de 1 million de points

Période 1981-1989 231

Dans un sujet aussi sensible, il ne faut pas perdre de vue l’idée fondamentale qui, à toute époque, éclaire cette question de cohabitation de la recherche en informatique et production. La recherche fondamentale dans ce secteur est indispensable. Elle doit se faire sur du matériel dédié. Quand les chercheurs en informatique ont besoin des services du centre de service, leurs interventions doivent être planifiées comme pour toutes les disciplines. On peut prendre comme exemple les algorithmes de calcul de la transformée de Fourier, dont l’exécution est passée en trente-trois ans d’un siècle à moins d’une seconde (figure 105). Pour arriver à ce résultat, il a fallu : − des travaux de recherche fondamentale. Cooley et Tuckey ingénieurs IBM ont inventé un nouvel algorithme, la Fast Fourier Transform (FFT) ; − des travaux de chercheur-informaticien. H. Delouis l’a adapté à des machines ayant des mémoires auxiliaires et à des fonctions réelles, puis paires et impaires ; − des changements hardware. Finalement, le processus a été industrialisé et les chimistes ont eu à leur disposition une boîte noire à laquelle il soumettait une source lumineuse à étudier et à la sortie ils récoltaient un spectre. La boîte noire contenait un interféromètre et un calculateur spécialisé. Cinq firmes principales se sont partagé le marché (figures 107, 108). La spectroscopie à haute résolution utilise maintenant d’autres techniques mais l’algorithme est toujours largement utilisé, par exemple en sismologie, en astronomie ou en traitement d’images.

Figure 106 – Analyseur harmonique de Michelson

Figure 107 – Appareils Nicolet pour FTIR

232

De l’IBM 360/75 au superordinateur Jean Zay



  Figure 108 – Appareils pour spectroscopie par Transformée de Fourier dans l’infrarouge des sociétés Bruker, Hewlett-Packard, Digilab et Perkin-Elmer

Période 1981-1989 233

Quel chemin parcouru depuis le premier analyseur harmonique mécanique construit pas Albert A. Michelson (figure 106) qui a fourni les premières analyses du signal ! Il y en a deux exemplaires dans des musées, l’un à Londres et l’autre à Washington.

9.7 Réseau et télétraitement et sa reconnaissance officielle Le réseau téléinformatique du CIRCÉ a un triple rôle : − offrir à ses utilisateurs français l’accès aux ressources informatique sur son site d’Orsay ; − leur permettre d’utiliser des services distants proposés par d’autres serveurs français ou étrangers ; − servir de plaque tournante de communication vers les réseaux nationaux et internationaux. Sa configuration a considérablement évolué pendant la décennie. Les directions du CNRS, de l’Éducation nationale, du CIRAD, de l’INRA, de l’INSERM et de l’ORSTOM ont pris la décision le 10 mars 1986, de créer en commun un réseau des universités et de la recherche qui doit permettre l’interconnexion progressive des ordinateurs des universités et de la recherche française (annexe  29). Il doit satisfaire les besoins de communication scientifique au niveau régional, national et international. Le domaine de compétence de ce réseau concerne la promotion et la mise en œuvre de la communication informatique à l’usage de la formation et de la recherche. Les investissements en logiciels et matériels autres que ceux strictement nécessaires à cette communication ne doit pas partie du champ de compétence du réseau. Les fonctions qui seront assurées sont, en conséquence : − le courrier électronique ; − les transferts de fichiers et de travaux ; − l’interconnexion des centres serveurs informatiques ; − les accès destinés au calcul et les accès documentaires.

9.7.1 Réseau REUNIR La structure REUNIR (figure 109) est le lieu où se coordonnent les projets d’interconnexion que nous avons déjà évoqués et notamment : − la communication entre les réseaux SNA ; − l’interconnexion des réseaux hyperchannel à travers des liaisons haute vitesse ; − le service commun de transfert de fichiers construit sur les protocoles TCP/IP ; − la migration vers les protocoles OSI (messageries OSI, messagerie X400 et logiciel FTAM). L’activité du CIRCÉ s’y exerce au niveau de : − l’animation des activités de REUNIR ; − la participation aux études et projets du groupe technique de REUNIR.

234

De l’IBM 360/75 au superordinateur Jean Zay

Figure 109 – État du réseau REUNIR en juillet 1986

Au cours de l’année 1987, le ministère de la Recherche et de la Technologie a mis en place un groupe de coordination pour le réseau de la recherche sous la direction de G. Pujolle pour coordonner les actions Réseau recherche en France. D’un point de vue technique, ce groupe a engagé notamment deux opérations auxquelles nous participons activement : une étude sur les profils fonctionnels dans le cadre des projets européens d’interconnexion (RARE, COSINE) et une étude pour définir les spécifications d’un service annuaire pour l’ensemble de la recherche française. Simultanément, REUNIR étant le représentant officiel de la France dans les projets RARE (Réseaux Associés pour la Recherche Européenne) et COSINE (Coopération for OSI Network in Europe), nous participons également à ces projets européens : − participation au groupe de travail WG6 (moyen et haut débit) de RARE/ COSINE ; − participation au meeting RARE de Valence ; − coopération entre le réseau DFN (RFA) et REUNIR. Il y a des sollicitations vives du ministère de la Recherche et de la Technologie pour que nous accroissions notre participation à ces projets, sollicitations auxquelles il est difficile de répondre positivement pour des raisons d’effectifs.

Période 1981-1989 235

9.7.2 État du réseau des universités et de la recherche en juillet 1989

Figure 110 – État du réseau du SEU en novembre 1989

9.7.3 État du réseau en novembre 1989 Les lignes directrices qui suivent ont guidé son élaboration : « L’année 89 a été marquée par la diversification des services réseau et des protocoles supportés  : en plus des services SNA et NJE-Earn, les services Decnet et IP sont en exploitation. Se préparent actuellement l’ouverture d’un large service X25 relié au réseau européen IXI et un service à débit élevé sur le réseau de super-calculateurs IBM, Easinet. » Toute cette évolution se caractérise par deux éléments majeurs : − l’organisation des connexions suivant une hiérarchie qui va du réseau local de laboratoire aux grands réseaux internationaux en passant par les réseaux fédérateurs de Campus ; − l’accroissement significatif des débits sur les liaisons qui permet de tirer parti de la complémentarité des moyens de calcul distribués sur le réseau.

236

De l’IBM 360/75 au superordinateur Jean Zay

Dans cette topologie qui s’organise aux niveaux national et international, le CIRCÉ est amené à remplir un rôle croissant de plate-forme de communication : il interconnecte les réseaux locaux ou régionaux de ses utilisateurs, il leur fournit l’accès vers les autres sites de la recherche en France ou à l’étranger. L’exploitation d’une telle plate-forme comprend plusieurs aspects : − la gestion de l’infrastructure physique des liaisons ; − l’administration du réseau (nommage, routage) ; − le suivi quotidien de fonctionnement ; − la documentation et l’assistance ; − la représentation technique au niveau des instances fédératrices (nationales et internationales). 170

9.7.4 Topographie des réseaux Ils sont organisés autour des ordinateur NAS, 3090 et VP 200 suivant le schéma de l’annexe 34. Sont regroupées dans l’annexe 35 les topologies détaillées des différents réseaux.

9.8 Incendie de février 1988 Cet incendie a été spectaculaire. L’annexe  31, tirée de l’Interface n°  728, en donne un reportage complet avec quelques photos. Il s’est déclaré le 26 février à 14 h 45 dans une des armoires d’un onduleur de 250 kVA installé dans le nouveau local technique. Les utilisateurs éplorés qui avaient été évacués et regardaient la scène depuis le parking, parlent d’une énorme fumée noire sortant par les fenêtres du bâtiment. Tous voyaient leur outil de travail s’envoler en fumée, et assommés, se demandaient déjà ce qu’ils deviendraient sans LE centre et où ils pourraient travailler. Ce qu’il y a de plus ahurissant, c’est que malgré la fumée noire contenant des poussières conductrices et un aérosol huileux très acide qui s’est répandue partout et a déposé une suie noire partout dans la salle machine et les bureaux, malgré l’effondrement d’une structure métallique, la destruction de baies d’électronique, de climatisations, les utilisateurs qui n’étaient pas présents, se rappellent cet incident dans la vie du centre, comme l’un des plus gênants, mais sans plus. Et pourtant, des années plus tard, quand on ouvrait un placard d’archives qu’on n’avait pas consultées depuis longtemps, on en retirait des papiers qu’il fallait laver avant de les lire 171. Ce fut un sinistre majeur. La température est restée pendant une heure à 600 degrés dans le local incendié. On a dû fracturer une porte de secours. Plusieurs pompiers ont dû être évacués par le SAMU malgré leur équipement autonome. L’incendie a été maîtrisé au bout de deux heures.

170 Rapport

d’activité du CIRCÉ de 1989, rapport technique et administratif, p. 33. Note de l’auteure : C’est ce qui est arrivé à plusieurs documents mis dans les annexes, dont notre lettre de démission. 171

Période 1981-1989 237

Après consultations des intervenants, P.  Salzedo a eu le choix entre deux solutions ; reprendre le plus vite possible une activité progressive en respectant les conditions de sécurité pour le personnel, ou une reprise plus tardive avec recherche d’autres centres pour accueillir la charge. Il a choisi la première. Il a organisé le travail de 270 personnes dépêchées sur les Figure 111 – Nettoyage des câbles lieux par les constructeurs. Les personnels du CIRCÉ ont participé au lavage dans une solution chimique adéquate, neutralisante, des composants du VP200 qui avait particulièrement souffert (figure 111). C’est ainsi que le DPS 80 Bull a été complètement démonté et remonté sur place. C’est assez surréaliste, mais les services ont repris au rythme suivant : Matériels

Date et heure du redémarrage

NAS 9080 et toutes les communications

mercredi 2 mars à 16 h 30

3090 IBM et TSO

mercredi 2 mars à 18 h 30

Frontalisation du CRAY

jeudi 3 mars à 14 h

Les imprimantes Xerox

les 3 et 7 mars

La mémoire de masse 3850

vendredi 4 mars à 12 h 30

VP 200 SIEMENS

mercredi 9 mars à 9 h 30

DPS Bull et messagerie

vendredi 11 mars à 13 h.

L’opération a démarré avec 36 heures de retard sur le DPS8, car les experts et représentants des diverses parties (Bull, le loueur, son assureur) ont été les plus difficiles à activer. Il a fallu être très attentif au coût de l’opération. Dès le vendredi soir, le secrétaire général du CNRS et l’administrateur délégué de la 4e circonscription étaient venus sur place constater les dégâts et affirmer le soutien du CNRS pour une reprise rapide des services. Soutien confirmé par le conseil d’administration du CNRS, qui, dès le lundi matin, débloquait les fonds nécessaires et mettait en place des procédures d’urgence sans appel d’offres. D’une façon générale, les entreprises n’ont pas cherché à exploiter financièrement les situations d’urgence. Au contraire, nos partenaires habituels ont le plus souvent pris à leur charge une partie des coûts, et toutes les entreprises ont respecté leurs devis, même souvent sous-estimés. Tous leurs personnels ont travaillé activement, dans un excellent esprit de coopération. Le total des dépenses s’est élevé à 10 954,1 kF hors taxes.

238

De l’IBM 360/75 au superordinateur Jean Zay

Neuf jours après cet incendie majeur, toutes les machines et les communications remarchaient. Pendant les mois suivants, il a fallu remplacer quelques composants qui avaient subi une corrosion dont les conséquences ne se sont pas manifestées tout de suite.

Figure 112 – Baies après la remise en service

9.9 Politique tarifaire La politique tarifaire pour le CIRCÉ a été l’objet de nombreuses discussions en 1984 : en comité directeur du CNRS, en comité des utilisateurs du CIRCÉ, en groupe ad hoc animé par la division de l’informatique scientifique, en réunion plénière des utilisateurs, réponses à des demandes du ministère de la recherche. Personne ne comprend la politique tarifaire. La note technique tentait de donner une explication mathématique a été envoyée à J. Sevin, mais c’était une note mathématique du traitement du signal, peu accessible aux non spécialistes et qui n’éclaircissait rien pour les autres. Personne ne comprend plus rien dans l’attribution par différents services qui non seulement change dans la forme, mais aussi dans la philosophie ; on devait faire payer un ticket modérateur, puis on nous a demandé d’aller vers la facturation du prix coûtant, puis on est venu à la gratuité pour certains types de calcul, puis le ministère nous a demandé de bien faire payer le nombre de pages imprimées par un centre qui n’avait pas de ticket modérateur. C’est comme un problème mal posé en théorie du signal. Il faut y ajouter une information supplémentaire qu’on n’a pas. Aucune théorie mathématique ne peut CRÉER de l’information. Donc il est proposé aux responsables de la prévision budgétaire d’adopter les mêmes règles de répartition qu’en 1989. Ce n’est pas LA solution d’un problème qui n’en a pas, mais c’est la moins mauvaise, la seule qui ne conduit pas à des absurdités. Toute autre aboutira à des chiffres, mais elle n’aura aucun sens.

Période 1981-1989 239

Il y a vingt ans qu’on appelle à la gratuité avec distribution de moyens informatiques sur critère scientifique. Quand on examine l’ensemble des archives, on est atterré de constater qu’elles sont pour plus de 50 % consacrées au ticket modérateur, et à ses dérives. Où sont les critères scientifiques pour une telle évolution ? On sait, par expérience, qu’à une variation importante des tarifs d’un centre correspond une variation en sens inverse et plus forte de la charge. Conséquence sur les recettes : en cas de baisse significative de tarifs, elles resteront stables, ou au mieux croitront légèrement ; mais à une hausse importante des tarifs correspondra une baisse de la charge et des recettes car elle écartera bon nombre de petits utilisateurs et bloquera les grosses exploitations. Le phénomène est normal, puisque la demande est en expansion alors que les moyens financiers sont limités. Une baisse des tarifs rassure les usagers sur leurs possibilités de financier leurs travaux et d’entreprendre de nouvelles recherches impliquant d’importants traitements informatiques. Tandis qu’une hausse les incite à trouver une solution moins coûteuse ailleurs, ou les décourage de recourir à l’informatique. Il en résulte que c’est de l’orientation choisie pour l’évolution des grands centres (développement ou, au contraire, régression) que doit être déduit le niveau général des tarifs à appliquer. Une discussion sur ce dernier point ne doit intervenir qu’après la détermination de la politique générale. Même dans les grandes entreprises françaises dont les divisions se facturent mutuellement produits et services, il est rare que les services informatiques communs opérant pour la recherche et le développement facturent leurs prestations (alors qu’ils ne le font jamais même pour l’informatique de gestion). Ils fournissent des relevés de consommation, plus rarement des informations sur un coût interne, mais une facturation effective n’intervient généralement que lorsqu’un prestataire informatique est vraiment indépendant (cas d’une filiale informatique, comme la CISI pour le CEA). Les dépenses de ces entreprises (annexe 25) pour leurs moyens informatiques collectifs sont pourtant comparables, ou souvent supérieures aux nôtres, qu’il s’agisse de superordinateurs vectoriels, de grands ordinateurs polyvalents ou de réseaux (par exemple, en France : deux superordinateurs vectoriels dans des établissements de recherche, 15 dans des établissements à caractère industriel).

9.10 Histoire parallèle Les autorisations pour obtenir toutes ses machines ont été difficiles à arracher. En particulier, on retrouve dans le calendrier de 1982 (annexe 19) toutes les actions qui ont été déployées par P.  Papon entre le 19  février 1982 et le 23 décembre 1982. Il a eu, en tant que directeur général, à se battre pied à pied pour limiter l’imposition du matériel national, finalement, pour obtenir les VAX de l’INAG et de l’IN2P3. Le président du comité des utilisateurs Osorio fait part leur préférence pour le NAS 9080, comme l’atteste leur lettre du 1er décembre 1982. La correspondance avec Bull est volumineuse. Le ton est agressif pour Jacques Stern, président de la CII et humble et conciliant pour P.  Papon.

De l’IBM 360/75 au superordinateur Jean Zay

240

Il est obligé de concéder l’installation de matériel national DPS8 au CIRCÉ qui n’en a que faire mais s’ingéniera à lui trouver un emploi possible dans la messagerie et la documentation 172 à la fin de la décennie. Jacques Stern reconnaîtra lui-même la non-adéquation de ces offres et la CII arrêtera la production et maintien du logiciel Multics. La même bataille se reproduira pour l’acquisition du VP200.

172 Lettre

du 4 novembre 1982.

Chapitre 10 1989-1992 Introduction C’est une période complexe, et de stagnation complète dans l’évolution de la puissance des machines installées au CIRCÉ. On se rend compte a posteriori, de ce que signifie pour les chercheurs que le parc reste figé pendant quatre ans au moment où tout explose à l’étranger. La période de presque stagnation des moyens mis en place, est suffisamment courte pour qu’on ne voie pas de décrochage sur l’évolution globale de la puissance installée dans le tableau de vue d’ensemble de la vie du centre (figure  5), mais suffisante pour mettre en évidence, à une échelle plus détaillée, le peu d’évolution de l’équipement en ordinateurs centraux pendant quatre ans. En revanche, la mission d’anticipation qui avait commencé en 1976 pour s’affirmer en 1981, s’était amplifiée avec le suivi et l’étude de l’explosion de l’informatique à l’étranger. Il fallait une politique accélérée de changements dans l’organisation du centre et celle des groupes mis en place au CIRCÉ depuis 1976. L’accroissement des moyens de stockage de données, et l’explosion du télétraitement se sont poursuivis. À côté de ces efforts pour être prêts à satisfaire l’accroissement des besoins en calcul intensif, un effort considérable a été fourni pour aider à la migration vers d’autres moyens, ceux qui n’avaient pas besoin de calcul intensif et n’avaient pas trouvé d’alternatives à l’emploi des services du centre. Ce fut mission accomplie, puisqu’en 1993, avant l’arrêt inéluctable des machines IBM, lorsque S.  Fayolle a pris son bâton de pèlerin pour visiter Figure 113 – Ordinateurs les «  petits utilisateurs  » qui, auparavant, travail- en service entre 1989 et laient au CIRCÉ, il a pu vérifier que tous avaient 1992

De l’IBM 360/75 au superordinateur Jean Zay

242

mis en place une solution de rechange opérationnelle. Il a fallu insister auprès de quelques-uns, par exemple Mme Le Guen des Sciences humaines. Elle avait établi son bureau dans celui d’une assistante du GSU et n’imaginait pas qu’elle puisse travailler ailleurs. Elle appréciait le milieu vivifiant où quelqu’un était toujours prêt à lui venir en aide. Finalement, elle a atterri à l’INSERM.

10.1 Évolution du matériel installé En 1990, le 3090/600E+VF du CIRCÉ est reconditionné en modèle 600S doté en plus de 6 dispositifs VF, un par processeur. Ses caractéristiques sont : IBM

Nbre CPU

Chip

Mhz

MIPS

Flops

OS

3090/600S+VF

6

ECL

66,7

100

800

MVS

En avril 1990, la mémoire a été étendue de 256 à 512 mégaoctets. La figure 114 montre bien la stagnation.

Période 1989 – 1992

Coefficient a

Facteur multiplicatif

centre de calcul

TOP

centre de calcul

TOP

0,0537

0,24

1,055

1,27

Pendant ces quatre années, le coefficient d’augmentation moyen sur deux ans a été de 1,61 ce qui est inférieur au coefficient 2 annoncé par la loi de Moore. Quant à celui du CIRCÉ pendant la même période, il est de 1,10, ce qui marque la stagnation. Mais je ne dirais pas «  on s’en est sorti  », ce qui en soit ne signifie rien, mais les chercheurs ont pu continuer à travailler, ce qui est l’essentiel. Après le départ de P. Salzedo, le directeur de transition comme il se désigne lui-même, Serge Fayolle, n’a pas seulement maintenu le bateau à flot, mais l’a préparé pour ses missions futures, pour le moment où il rejoindra la flotte des autres gros centres européens et celle des grandes administrations et entreprises françaises. La charge grandissante en calcul intensif a été absorbée en partie par le CCVR qui, lui, voyait sa charge totale diminuer avec le départ de membres du GIE. Quand on lit le rapport d’activité du CIRCÉ pour l’année 1989, on est frappé par sa composition qui n’est pas celle traditionnelle des années précédentes, avec ses quatre parties, matériels et logiciels, analyse financière, prospective, présentation de résultats obtenus. La partie du matériel est très réduite. À côté de la responsabilité de faire fonctionner à plein régime un parc de trois machines  : l’IBM 3090/600S+VP, le NAS9080, et la machine vectorielle VP200, un effort considérable a été fourni pour la restructuration des groupes d’assistance. Il fallait que tous, personnel du centre et utilisateurs soient prêts à accueillir les nouvelles technologies à venir dans le vectoriel et le parallèle, déjà implantées à l’étranger et que des formations à tous niveaux soient mises en place.

1989-1992 243

Figure 114 – Régression des puissances installées et du TOP500 de 1989 à 1992

Cette phase d’anticipation a été suivie de très près par le directeur des programmes et moyens J.  Sevin et le directeur général François Kourilsky, ainsi qu’en témoigne une volumineuse correspondance conservée dans les archives de la DIS. Quand F.  Kourilsky faisait part de son intérêt et de ses inquiétudes, vue la charge de travail, à l’administrateur délégué M.  Gueldreich, il lui fut répondu : « Laissez-les faire. Ils sont bons et ils ont l’habitude. »

244

De l’IBM 360/75 au superordinateur Jean Zay

C’est vrai que le CIRCÉ avait traversé d’autres tempêtes. Finalement le bateau sera remis à flot et poursuivra une course honorable, sans décrochage, et reprendra une place de leader dans certains domaines. Quand le 23  novembre 1988, j’ai tiré la sonnette d’alarme auprès de F. Kourilsky pour attirer son attention sur la stagnation de notre politique en matière d’informatique de service, il m’a répondu dès le lendemain qu’il comptait sur un audit pour éclaircir la situation. Il m’avait demandé quelques jours auparavant d’accorder le plus grand soin aux corrections que je jugerais utile d’apporter au cahier des charges rédigé par M. Berroir.

Figure 115 – Lettre de François Kourilsky sur l’urgence de l’audit

10.2 L’audit de février 1989 Il faut préciser les raisons de cet audit et son objet.

10.2.1 Justification de cet audit Les deux directeurs du CIRCÉ et du CCVR demandaient instamment qu’un moyen soit mis en place pour inciter les directeurs scientifiques à prendre en compte les besoins d’informatique dans leur discipline, à s’y intéresser et à participer à la vie de la DIS. Le dernier comité scientifique de la DIS, en partie élu, en partie nommé, présidé par M. Berroir, et où la DIS n’avait qu’une voix consultative avait été incapable d’établir un schéma directeur. Il s’était enlisé dans d’éternelles discussions sur l’intérêt de l’informatique et de son financement, et sur la disparité de ticket modérateur qui apparaissait comme le sujet majeur sinon unique de ses préoccupations. Il en était sorti des propositions pour un schéma directeur de l’informatique scientifique, réunis dans deux volumes, qui n’apportaient aucune innovation et ne résolvaient rien 173. Il préconisait en somme le statut quo avec une machine vectorielle au CIRCÉ et une autre au CCVR, pour que « tout le monde soit content ». 173 Propositions

pour un schéma directeur de l’informatique scientifique 1989-1992, Archives de la DIS.

1989-1992 245

Évidemment, le CNRS n’aurait jamais pu le financer. S.  Feneuille, notre directeur général à qui je l’avais remis, le trouvait, comme moi, tellement mauvais qu’il avait demandé qu’il ne soit pas diffusé en dehors du CNRS. Mais il était néanmoins parvenu jusqu’à M. Cea, président de la COMI, qui n’en parlait lui-même dans aucune réunion, mais me demandait, dans un échange de lettres, si j’étais consciente de sa qualité médiocre. La direction du CIRCÉ se battait depuis vingt ans pour demander l’investissement des directions scientifiques dans les besoins en informatique de leurs chercheurs. Le directeur du CCVR, J.-C. Adam, exprimait exactement le même besoin de participation des directions scientifiques en termes plus véhéments 174 et parlait de sa bataille : « Comment se lancer dans une activité comme la modélisation numérique, actuellement en pleine croissance dans le monde, sans avoir la certitude qu’elle est reconnue comme importante par les directions scientifiques et la direction générale ? Il y a donc une nécessité absolue d’élaboration d’un schéma directeur en concertation avec les directions scientifiques et les chercheurs. Depuis plusieurs années les personnes qui ont participé et participent au fonctionnement du CCVR se battent pour faire accepter l’idée que le calcul est un grand instrument scientifique au même titre qu’un télescope ou un accélérateur ou tout autre instrument et doit donc être géré comme tel. » Le fond du problème est bien exposé dans le rapport de J.  Caseau, directeur de recherche et développement à l’EDF sur les grands moyens de calcul scientifique 175 : « Jusqu’ici, le système français a à peu près réussi à trouver les financements qui lui étaient nécessaires pour accompagner une croissance des besoins qui est très stable à la fois dans le temps (elle dure depuis plus de vingt ans) et dans l’espace (elle concerne pratiquement tous les pays occidentaux). Par contre, les systèmes de facturation créent des disparités telles que leurs applications provoquent des décisions absurdes, soit dans l’arbitrage entre dépenses d’investissement et dépenses d’exploitation, soit dans le choix de l’échelon de traitement (local ou national) le meilleur. La guerre larvée qui en résulte est très dommageable pour la communauté scientifique. En particulier, l’une des fonctions des grands centres qui est d’assurer la protection des investissements en logiciel risque de ne pas être assurée correctement. Le financement nécessaire au système français doit permettre le maintien des centres nationaux au niveau d’excellence qui est nécessaire pour que le traitement des grands problèmes scientifiques se fasse au sein de la communauté française et que les efforts consacrés aux problèmes logiciels et à la formation des utilisateurs ne se ralentissent pas. »

174 Lettre,

Adam, Archives de la DIS. de groupe de travail sur les grands moyens de calcul scientifique et leur organisation en réseau, (rapport Caseau), janvier 1990, Archive de la DIS. 175 Rapport

246

De l’IBM 360/75 au superordinateur Jean Zay

La non-harmonisation des tickets modérateurs dans tous les centres appelle une solution 176.

10.2.2 Synthèse des résultats de l’audit Les auteurs avaient enquêté auprès des directeurs de centres et nous ont soumis une version provisoire sur laquelle nous pouvions faire des remarques. Chaque fois j’ai insisté sur le besoin de l’implication des directions scientifiques, pour un jugement sur la valeur scientifique de ce qui sortait des calculs et pour nous aider dans l’anticipation des nouveaux besoins. Comme le dit J.-C. Adam, nous faisions de notre mieux, mais souhaitions des interlocuteurs compétents et intéressés dans chaque discipline. Les quatre centres sur lesquels portait l’enquête étaient très différents  : CIRCÉ à Orsay, centre de calcul de l’IN2P3 à ParisJussieu, CCVR à Palaiseau, CCS à Strasbourg. Certaines remarques faites à l’ensemble ne s’appliquaient pas à tous les quatre. Par exemple, la nécessité de sauvegardes soi-disant inexistantes. Or, les fichiers du CIRCÉ avaient une sauvegarde à Gif-sur-Yvette. Le rapport de synthèse est en entier dans l’annexe 30. Les principaux points de l’appréciation globale sont : − l’ensemble est bien géré ; − bon niveau technique ; − les chercheurs sont pour l’essentiel satisfaits. En revanche, − les rouages de décision qui étaient en place jusqu’en 1986 ne fonctionnent plus. De ce fait, le processus d’établissement du schéma directeur est bloqué d’où l’absence d’une politique à moyen et long terme ; − la tarification est à revoir ; − le CNRS n’a pas apporté de solution aux problèmes de personnel. Quant à celles proposées, elles tournent autour de l’idée : « Il nous paraît important que chaque direction scientifique ait une visibilité suffisante de sa propre utilisation des centres. » Pour cela, il faudrait qu’ils lisent ou fassent lire toutes les notes qu’ils reçoivent des centres et que les personnes qui les représentent dans les comités et commissions se sentent concernées comme celles du premier conseil de la DIS.

Note de l’auteure : J’ai vu un chercheur pleurer en découvrant dans Nature la publication par un chercheur américain d’un article sur le sujet duquel il travaillait lui-même. Il ne lui avait manqué au dernier moment que des crédits pour payer ses calculs sur VP200, son programme n’étant pas écrit pour le CRAY où il aurait travaillé gratuitement.

176

1989-1992 247

10.2.3 Accueil de l’audit Les résultats d’un audit sont comme ceux d’une élection. Chacun y voit ce qu’il voulait voir. Les deux directeurs de centres, P. Salzedo et J.-C. Adam, et moimême étions satisfaits de voir que le blocage du processus de décision depuis 1986 était bien pris en compte. Nous demandions l’implication des directions scientifiques. J.-C. Adam écrit : « Le rapport note très justement que la collecte des besoins est aujourd’hui laissée à l’initiative des centres, qui s’acquittent du mieux qu’ils peuvent de cette tâche, avec néanmoins comme corollaire le risque que le résultat de cette collecte soit entaché de suspicion de la part des directions scientifiques. Au-delà de l’expression du besoin, le choix du matériel doit être fait en collaboration avec les chercheurs, au même titre que pour la conception d’un accélérateur par exemple 177. » Le personnel du centre en 1989 (annexe 36) est divisé en plusieurs groupes dont on détaille les activités.

10.3 Activité du groupe réseau L’année 1989 a été marquée par la diversification des services réseau et des protocoles supportés : en plus des services SNA et NJE-Earn, les services DECNET et IP sont en exploitation. En même temps se préparaient l’ouverture d’un large service X25 relié au réseau européen IXI et un service à débit élevé sur le réseau des supercalculateurs IBM, Easinet. Dans cette topologie qui s’organisait aux niveaux national et international, le CIRCÉ était amené à remplir un rôle croissant de plateforme de communication. Il interconnectait les réseaux locaux ou régionaux de ses utilisateurs. Il leur fournissait l’accès vers les autres sites de la recherche en France ou à l’étranger. La figure 116 donne la topologie de la plateforme CIRCÉ. Et l’annexe  34 donne les topologies de tous les réseaux accessibles par la plateforme. L’exploitation d’une telle plateforme couvre plusieurs aspects : − la gestion de l’infrastructure physique des liaisons ; − l’administration du réseau (nommage, routage) ; − le suivi quotidien du fonctionnement ; − la documentation et l’assistance ; − la représentation technique au niveau des instances fédératrices (nationales ou internationales). La multiplicité des protocoles pose de réels problèmes de gestion. La migration vers les protocoles normalisés OSI est assurément la solution. Mais il faut tenir compte des désirs des utilisateurs qui ont un besoin urgent des standards de fait des constructeurs. D’où la nécessité de travailler dans les projets internationaux RARE et COSINE pour hâter la migration. Le groupe comprend huit ingénieurs à temps plein et un à mi-temps.

177 Commentaire

sur le rapport final de l’audit, Jean-Claude Adam, Archives de la DIS.

248

De l’IBM 360/75 au superordinateur Jean Zay

Figure 116 – Topologie de la plateforme réseau CIRCÉ en 1989

Une ligne de connexion outre atlantique a été établie entre REUNIR et NSFNET, le réseau de la National Science Fundation (NSF) aux États-Unis, dont on voit ci-dessous la topologie en 1989 (figure 117).

Figure 117 – Topologie du réseau NSFNET en 1989

1989-1992 249

10.4 Activité du groupe système Dans la réorganisation des différents groupes du CIRCÉ en 1989, les activités du groupe système ont été regroupées autour de deux pôles : − les systèmes de base  : systèmes et sous systèmes d’exploitation. Trois ingénieurs s’occupent de MVS/XA et deux de VM et UNIX ; − la sécurité et les données. Ce pôle comprend trois ingénieurs plus un à temps plein pour les comptabilités internes. L’ensemble des ingénieurs du groupe peut, suivant les besoins et leur domaine d’activité, intervenir sur le système du calculateur vectoriel VP200.

10.4.1 Arrivée de UNIX et AIX/370 UNIX est en passe, à cette date, d’être le système le plus utilisé en informatique scientifique. Il permet, à cette date, l’indépendance par rapport aux constructeurs. Dès 1986, sa pénétration a été extrêmement rapide avec les stations de travail et les utilisateurs le réclamaient sur les grosses machines. Un ingénieur système, M. Birman, fut chargé d’étudier au premier trimestre 1989 les besoins des utilisateurs et ce qu’ils attendaient d’un grand centre en environnement UNIX. De nombreuses visites ont été faites à l’étranger et chez les constructeurs. Le diagnostic était clair : UNIX est LE système d’exploitation et constitue l’environnement de développement d’applications le mieux adapté à la recherche scientifique. La décision a été prise de mettre en œuvre sur nos matériels un système UNIX dès qu’il serait disponible pour l’ouvrir en premier : − aux personnes connaissant déjà UNIX ; − aux équipes équipées de matériels sous UNIX connectables en TCP/IP et éventuellement de PC sous MS/DOS afin d’offrir de la puissance et de la connectivité. Sont alors entrepris : − des formations d’UNIX par une société de service externe de tous les personnels de tous les services du CIRCÉ ; − l’achat d’une dizaine de stations de travail Digital Équipement pour acquérir la pratique ; − l’installation de l’UNIX d’IBM/AIX sur une machine virtuelle sous VM/ XA sur le 3090-600. Au second trimestre 1989, un projet intergroupe a été mis en place sous la responsabilité de M. Birman. Il a débouché sur la mise en place d’un centre de compétence conjoint pour AIX/370 avec des ingénieurs IBM à plein temps. Le succès a été très mitigé, mais la direction était donnée. C’était une expérience en vraie grandeur pour toutes les équipes (gestion des comptes utilisateurs, réseau, assistance). Beaucoup de projets étaient alors à l’étude pour ouvrir sous l’environnement UNIX les services suivants : − connexion des PC sous MS/DOS ; − disponibilité de packages scientifiques ; − X-Windows ; − liens entre AIX/370 et MVS ou VM ;

250

De l’IBM 360/75 au superordinateur Jean Zay

− outils de gestion des gros travaux ; − graphiques GKS. Ces études ont fait progressivement intervenir la plupart des équipes, chacune dans sa spécialité. Quand l’IDRIS a ouvert en 1993, la fusion des ingénieurs du CIRCÉ et du CCVR a été facilitée du fait leurs bonnes connaissances et expériences en Unix les uns et les autres.

10.5 Activités du groupe FORTRAN et calcul intensif Le groupe FORTRAN/calcul intensif a été constitué en janvier 1989 pour regrouper les activités axées sur l’environnement Fortran et le domaine du calcul intensif (vectorisation et parallélisation). Il est composé de quatre ingénieurs à plein temps, dont Denis Girou, responsable du groupe, qui deviendra quelques années plus tard directeur du centre. Ils ont fourni, sous la houlette de J.-M. Teuler, un effort particulier pour fournir aux participants du groupe scientifique « modélisation moléculaire » en chimie un environnement applicatif largement enrichi. Parmi les travaux de mise à disposition de logiciels, on peut citer en 1989 l’installation sur le 3090 / 600 de : − 30 corrections diagnostiquées par les utilisateurs sur le VS FORTRAN ; − la version scalaire et vectorielle de la bibliothèque d’IBM, ESSL (Engineering and Scientific Subroutine Library) avec 280 sous-programmes ; − la version scalaire et vectorielle de NAG (Numerical Algorithme Group) en provenance d’Oxford avec 746 sous-programmes ; − la bibliothèque de chimie CPC (Computer Physics Communication) en provenance de Belfast avec 80 nouveaux sous-programmes ; − la version 3.3 du logiciel de calculs symboliques ; − la base de données de chimie CRYSTAL, fournie par l’université de Cambridge et dont le CIRCÉ est le correspondant pour la France. Et sur le VP200 : − logiciels d’utilisation à la fois sur le VP et sur les frontales MVS du CIRCÉ et du CCSC (installation et corrections) ; − bibliothèque NAG en version vectorielle, LINPACK et SSL2 ; − bibliothèques graphiques : GKS, NCAR et NAGGKS ; − logiciels de transferts de fichiers BBFX, FTP et NDM ; − service interactif accessible via les protocoles TCP/IP. Et tout ceci n’est qu’une partie des applications écrites pour simplifier la soumission de travaux et les transferts de fichiers entre les trois machines. La mise en place des structures de calcul intensif a été bénéfique pour des travaux du Groupement Scientifique (GS) chimie en partenariat avec IBM. Outre la mise en place d’un réseau à 64 Kbits, une part importante de la contribution du CIRCÉ au groupement scientifique de chimie est l’installation sur l’IBM 3090 de nombreux logiciels spécialisés. Principaux buts poursuivis dans ce cadre : − éviter la duplication des effets d’installation par les différents laboratoires ;

1989-1992 251

− − − − −

faciliter l’accès aux logiciels et l’obtention des licences ; se concentrer sur les logiciels réclamés par le groupement scientifique ; sélectionner les logiciels les mieux adaptés à l’architecture ; suivre de près l’évolution des logiciels ; d’une façon plus importante, aider au développement et à l’amélioration des logiciels existants ; − faciliter l’interfaçage entre les différents logiciels ; − aider à leur utilisation et faciliter les contacts entre les personnes qui mettent en œuvre les mêmes programmes. À la demande du groupement scientifique chimie, les logiciels suivants ont été installés  : AMBER, BISSTRN/3, CMAP, DENSITY, DRAW, ECEPP/2, GAUSSIAN, GROMOS, HONDO, MOLDYN, MOPAC, MUNGAUSS, PDB. Le groupement scientifique de chimie a bénéficié de l’assistance privilégiée d’un ingénieur d’assistance de haut niveau, agrégé de mathématiques, qui avait acquis une formation d’informaticien, J.-M. Teuler. Il a démissionné du centre de calcul pour mettre quelque temps ses talents au service des ondes gravitationnelles dans le célèbre projet Virgo à Milan, qui a abouti à la découverte des exoplanètes. Puis, de retour en France, il a un poste d’ingénieur dans le laboratoire de ses chers chimistes et continue de les assister officiellement après sa retraite administrative. Il illustre parfaitement l’idée fondamentale que j’essaie de bien faire comprendre. Depuis sa création, je n’ai cessé de le dire et P. Salzedo, de le marteler dans tous ses rapports : un centre de calcul, ce n’est pas simplement du matériel, il ne vaut que par la qualité de son équipe. Les utilisateurs doivent y trouver les ingénieurs de haut niveau qui sont capables de faire de la recherche avec eux et pour eux. Ce ne sont pas eux qui choisissent leur sujet de recherche. Il est choisi par l’utilisateur. Dans une période où nous avions des difficultés de recrutement, les utilisateurs se sont pleins du manque d’assistance de ce niveau. On lit dans le compte rendu du comité des utilisateurs, que le groupe d’assistance mathématique n’est plus assez étoffé. Ils appellent ainsi ce que nous appelons les ingénieurs de haut niveau. Ils doivent en effet être bons en mathématiques, mais ils doivent être capables d’acquérir des connaissances dans d’autres domaines.

10.6 Activités des groupes LRD (Langages et Représentations de Données) et documentation Dans cette période de profondes transformations, ils ont eu un rôle majeur pour le choix de tous les matériels et logiciels graphiques. Par exemple, à la suite de la demande de quelques utilisateurs de sciences humaines, le logiciel SNARK a été installé et a nécessité des modifications et l’écriture de procédures confiées à une stagiaire. La documentation est devenue un outil majeur. Depuis la réorganisation renforçant la responsabilité verticale (c’est-à-dire de l’installation à la documentation et l’assistance), est apparue la nécessité d’une coordination intergroupe, pour vérifier les mises à jour, susciter les modifications nécessaires.

252

De l’IBM 360/75 au superordinateur Jean Zay

Pour l’ensemble des groupes concernés, l’investissement humain a été en 1989 de 622 jours de travail, soit environ trois personnes à temps plein. Il a permis : − 18 créations et 28 mises à jour de manuels ; − 28 créations et 36 mises à jour de notices ; − 1250 créations ou mises à jour de documents divers. Ce bref résumé de l’activité de tous les groupes montre le sérieux avec lequel le centre se préparait à son évolution future. On mesure leur déception en voyant le temps mis par la nouvelle organisation du CNRS à aborder les problèmes de fond. Donc comme nous voilà rassurés sur la qualité du travail du personnel du CIRCÉ et sa motivation profonde, on peut regarder l’histoire parallèle pour donner une mesure de la part de la direction générale dans le redémarrage qui s’opérera en 1993. Il était préparé de longue date.

10.7 Histoire parallèle de 1989 à 1992 Toute l’action menée au niveau de la direction générale consistait à amener les commissions mises en place à l’intérieur du CNRS à regarder ce qui se passait à l’étranger. L’installation au CIRCÉ d’une machine nouvelle génération était l’aboutissement inéluctable de la proposition émise en 1981. En faisant cela de toute façon, on ne prenait aucun risque. Il n’est qu’à voir le nombre de CRAY en commande à cette époque dans les universités étrangères en plus de ceux déjà installés. Tous les centres de calcul pour la recherche dans le monde changeaient de machines en pensant qu’ils suivaient la voie normale de l’évolution, mais ne pensaient pas faire une révolution (figure 118). Ou bien le monde entier était devenu fou, ou bien la recherche académique en France aurait encore manqué quelque chose en ne suivant pas la voie générale. Je parle bien de recherche académique car les grands groupes EDF, Total, etc. n’avaient pas attendu pour équiper leur service de recherche et développement. J’ai souligné depuis le début de cette histoire, le rôle des directeurs généraux qui ont compris et soutenu l’initiative de P. Jacquinot. Pour le récit des batailles que j’ai menées avec eux, soutenue par leur appui aux moments décisifs, j’ai donné pour les périodes précédentes les calendriers de toutes nos interventions communes et de nos échanges de notes. Cette fois le travail a été fait par le secrétariat de la direction générale qui a réuni en deux volumes le calendrier des actions communes pour l’informatique, des échanges épistolaires et des comptes rendus de nos réunions, avec le directeur général. J. Sevin, directeur des programmes et moyens s’est aussi totalement investi. Le premier document de 200 pages va du 2 janvier au 2 août 1989, le second va du 7 septembre au 31  décembre 1989. Dans le troisième document, tout est là, mais pas relié et le calendrier n’est pas fait 178. Le volume de la correspondance que nous avons échangée pendant cette période est supérieur à celui de chacune des autres étapes. Puisqu’il n’y avait pas de changement de machine, nous n’avions pas à nous battre, contre le ministère de l’Industrie, mais en revanche, nous avons 178 Calendrier

des actions de la direction générale du 2 janvier 89 au 29 janvier 1992. Archives de la direction générale, conservées dans celles de la DIS.

1989-1992 253

eu à convaincre, les directions scientifiques et les différents comités internes qui s’étaient mis en place au cours du temps. Aussitôt après sa nomination de directeur général, P. Papon m’a demandé d’être son conseiller pour les moyens informatiques avec une mission bien définie (annexe 23). Puis, il a créé la DIS (Direction de l’Informatique Scientifique) dont il m’a nommé directrice.

Figure 118 – Commandes connues de super-computers en 1989

Notre but était d’arriver à franchir une dernière étape avant d’arriver au but fixé en 1981. Soit l’installation au CIRCÉ d’une des machines les plus puissantes du moment comme le demandaient les utilisateurs, et la fin des errements du ticket modérateur avec son remplacement par un jugement scientifique. Il fallait aussi pouvoir le financer. Pratiquement cela se concrétisait par : − l’établissement d’un schéma directeur valable ; − l’abolition du ticket modérateur ; − le développement des réseaux. À peu près un tiers de nos discussions portaient sur le ticket modérateur, un autre tiers sur les réseaux et le dernier tiers sur la politique générale de l’informatique au CNRS. Quand j’avais accepté ce poste, à la DIS, je n’imaginais pas que la masse des problèmes de mini- et micro-informatique remonteraient souvent à la direction générale, le montant des crédits connus que le CNRS leur

254

De l’IBM 360/75 au superordinateur Jean Zay

consacrait était 4 fois supérieur à celui pour l’informatique lourde. D’ailleurs, voici la vue qu’en avait au ministère quelqu’un chargé d’un rapport général sur l’informatique en général : « La cellule informatique de la DIS : a son domaine de compétence pour la mini-, la micro-informatique et la bureautique. Son rôle couvre à la fois les aspects de négociation pour le compte des laboratoires avec les constructeurs et les fournisseurs et les aspects techniques, pour le choix des équipements et des logiciels. Certaines directions scientifiques ou instituts du CNRS ont mis en place un chargé de mission à l’informatique qui conseille à la fois la direction du département dans la politique et l’attribution des crédits d’équipement et les laboratoires qui veulent s’équiper. D’autre part, mais de façon non officielle, il existe des “experts régionaux” dont l’action est fortement appréciée des utilisateurs locaux. » Enfin, la DIS publie tous les deux mois un bulletin technique, le Microbulletin, qui touche actuellement 1600 destinataires lesquels y trouvent des évaluations de matériels et logiciels ainsi que des informations sur les résultats des négociations avec les constructeurs et distributeurs. La DIS a pu bénéficier, non pas de postes créés par le CNRS pour l’occasion, mais du détachement tant qu’elle existera, de deux ingénieurs détachés de leur laboratoire d’origine, l’un du CIRCÉ, J. Denyset, qui s’est occupée de la mini-informatique, et pour les affaires de micro, de M. Dreyfus, détaché du département des relations extérieures. La question des réseaux a été dévoreuse de temps, mais a évolué d’une manière paisible. Elle intéressait beaucoup F. Kourilsky par son côté international et a été confiée à C. Michau qui avait d’abord responsable du réseau au CIRCÉ. Il a travaillé à mi-temps à la DIS, puis à temps complet à la direction de l’UER de service réseau créée pour la circonstance. Il a formé une bonne équipe avec M. Le Guigner venant du centre universitaire de Rennes et représentant de la cellule réseau informelle de l’Enseignement supérieur. Les utilisateurs ont manifesté leur opinion par l’intermédiaire du président de leur comité qui nous écrivait. Nos échanges avec la direction générale n’ont jamais été aussi nombreux que ces années-là. Il y a les rapports que nous échangions, les miens portant la mention « personnelle », ceux qu’ils m’envoyaient avec le tampon « confidentiel », et il y avait tous les autres. Je suppose que sa secrétaire avait ordre de me faire suivre tout le courrier traitant d’informatique, soit qu’il l’ait annoté parce qu’il exigeait une réponse ou un avis, soit qu’il me laisse le soin de la suite à donner. Avant de me parvenir la pièce de courrier portait simplement la mention : vu. Dans ce cas, je devais lui préparer une réponse prête à sa signature. Il y a eu des cas où j’étais incompétente, par exemple quand il m’a donné à régler le problème CERFACS, où des directeurs de laboratoire et des sénateurs intervenaient. Dans les cas comme celui-là, je faisais des recherches d’information, et lui envoyais une « proposition » seulement et qu’il devait trouver quelqu’un qui était capable de donner un avis scientifique. Ma position était très confortable, car comme conseillère 179 je n’avais pas de fonction exécutive et pouvais donc être impartiale et directe. 179 Note

de l’auteure : J’avais déjà dépassé l’âge légal du départ à la retraite.

1989-1992 255

Nous trouvions, François Kourilsky, Jacques Sevin, Philippe Salzedo, les utilisateurs et moi-même que le COMI n’était pas assez novateur. Alors, nous avons essayé d’avancer avec les moyens légaux à la disposition de la direction générale. Depuis la nomination du 2e comité scientifique de la DIS, je n’ai pas arrêté d’alerter la direction générale sur les difficultés de faire l’unanimité sur les solutions pour combler notre retard accumulé par rapport à ce qui s’était mis en place à l’étranger. Notre souci constant a été de maintenir une atmosphère apaisée, de bien expliquer aux utilisateurs que notre but était d’obtenir ce qu’il y avait de mieux pour eux, de combler le fossé qui s’était creusé avec l’étranger et de faire au mieux de nos possibilités. Ils ont manifesté leur opinion par l’intermédiaire du président de leur comité qui nous écrivait : « Les utilisateurs ont montré qu’ils faisaient confiance à leurs directeurs de centre. S’ils leurs affirment qu’ils auront la puissance de calcul convenable, peu leur importe qu’il y ait un centre ou deux. Ce n’est pas leur affaire (cf. les déclarations des présidents du comité d’utilisateurs des deux centres). » Je ne vais relater ici que quelques-uns des faits les plus marquants de notre combat pour nous rapprocher du but.  En janvier 1990, je tire la sonnette d’alarme pour que des décisions soient prises à la prochaine réunion du COMI pour arrêter le massacre. En effet, quand le ministre C. Allègre a annoncé la dissolution de la cellule informatique du ministère de l’Enseignement supérieur et forcément la nôtre, certains assistants des directions scientifiques ont crié : On a gagné, c’est la fin du despotisme. Leur première réaction a été de ne distribuer que 70  % des crédits de l’année précédente. Les utilisateurs sont assommés car il n’y a eu aucun débat scientifique. Le tableau suivant donne les variations d’utilisation comparée du CIRCÉ et du CCVR en 1989 par rapport à 1988. Utilisation des centres en 1988 et 1989 : CCVR CIRCÉ

CRAY

Baisse d’activité de 24%

3090/IBM

Augmentation de 23% par les utilisateurs payants en dehors du groupement scientifique de chimie

VP200

Augmentation 25%

F. Kourilsky, bien conscient de la divergence qui apparaît entre notre analyse de la situation et celle du COMI, demande des changements, mais ne veut pas d’oppositions frontales. Le 22 novembre 1991, il me conseille lors de la préparation du dossier de remplacement des machines du CIRCÉ par une puissante machine vectorielle et la fermeture du CCVR : « Il s’agit de trouver une présentation de l’état actuel des réflexions qui soit acceptable pour tout le monde (ceci inclut, vous-même, les utilisateurs, les directeurs scientifiques, les membres du conseil d’administration, la DRED, le gouvernement par le bais de la délocalisation, etc.). »

256

De l’IBM 360/75 au superordinateur Jean Zay

Une difficulté supplémentaire était apparue avec la volonté du gouvernement de faire des délocalisations en province et il fallait montrer les difficultés que ça poserait pour le CIRCÉ. Je lui ai répondu le même jour par une analyse des faits bruts et de l’urgence d’agir, en insistant encore une fois que c’étaient des « propositions » de la DIS, mais que c’était à lui de prendre les décisions. Ces propositions étaient une présentation possible à envoyer à Messieurs Berroir et Alessandrini, si vraiment l’imposition du départ en province était à éviter à tout prix la semaine suivante. De toute façon il fallait demander aux deux chefs de centres, et Christian Michau pour les réseaux et une ou deux autres personnes prises au COMI ou parmi les chercheurs, de s’attaquer immédiatement à établir un dossier technique. C’est d’ailleurs ce qu’ils demandent. Pour la préparation des dossiers, il faut faire appel à Jean-Claude Adam, directeur du CCVR et Serge Fayolle, directeur du CIRCÉ (je parle sous leur contrôle), qui sont très bons, de la classe des directeurs de centres américains. Ils le souhaitent mais sont inquiets des calendriers proposés au sous-groupe du COMI et affirment que si on les laisse travailler comme ils en avaient eu l’intention depuis quelques temps, en quinze jours, ils peuvent en s’adjoignant C. Michau pour le réseau et une autre personne du COMI et un ou deux chercheurs pour les missions du centre, avoir bouclé le dossier technique et présenter des options chiffrées et argumentées. Je les connais bien. Ils en sont capables. Après ce sera au comité de direction de décider. Les questions de fond n’ont jamais été abordées, ni au COMI ni dans les sous-groupes. Eux ont l’expérience de la gestion d’un centre et ont proposé de travailler en parallèle les sujets : − mission du centre équipé d’une machine vectorielle ; − effet d’une délocalisation possible ; − coût en francs et en moyens humains ; − délais. Leur proposition n’a pas été retenue, d’où l’inquiétude du personnel qui ne comprenait pas la lenteur de la prise de décisions du COMI. « Le directeur et le personnel du CIRCÉ souffrent du gel de leur centre depuis quatre ans. Ils ne souhaitent pas une augmentation continue de puissance mais ils travaillaient auparavant dans l’enthousiasme parce que leur mission était la même depuis la création du centre  : y faire ce qui ne pouvait pas se faire ailleurs. Ils regrettent de n’avoir pas fait évoluer l’outil dont ils ont la charge en corrélation avec les besoins. Par exemple, il avait été convenu qu’un constructeur leur prêtait une machine parallèle il y a deux ans. Cela n’a pas pu se réaliser et on a pris du retard. » Les relations avec l’Enseignement supérieur ne font plus de drame. À l’Enseignement supérieur, toutes les décisions concernant l’informatique sont gelées dans l’attente du rapport Demazure. On attend toujours un rapport, c’est le prétexte pour l’inaction. C’est le ministre C.  Allègre qui intervient directement avec deux chargés de mission, Messieurs Courtillot et Touzot à qui, il a ordonné de répondre non à toutes les propositions. Mais sur le terrain les équipes se connaissent et collaborent activement. Les problèmes interviennent quand elles ont besoin d’un aval de leur hiérarchie pour des questions internationales. Mais M. Lombard, directeur de REUNIR en a fait son affaire et m’avouait au téléphone qu’il était plus libre ainsi.

1989-1992 257

Le COMI en février 1992 avait noté que le centre s’orientait vers le calcul intensif. Le projet MIPS (Moyens Informatiques Performants pour la Science) a été mis en place pour parer aux défaillances du COMI. En effet, comme il a déjà été dit le schéma directeur proposé par le COMI était mauvais. Dans ce schéma le CCVR et le CIRCÉ évoluaient harmonieusement et chacun remplaçait sa machine vectorielle pour une plus puissante. Malgré tous les habillages, il n’y avait pas vraiment d’innovation. On affirmait la nécessité du réseau. Il était temps : le CNRS et la DRED y travaillaient depuis quatre ans mais la France était le seul grand pays d’Europe qui ne l’ait pas encore officiellement annoncé. Et pour continuer, il leur fallait un aval officiel. On devait redéfinir les missions, et pour cela, revenir tout simplement à leur formulation de P. Jacquinot en 1969. Mais beaucoup ne les connaissaient pas, ou les avait oubliées, ou bien, simplement fallait-il vingt-trois ans pour que la prise de conscience ait lieu. Mais inutile de paniquer. Partout dans les grands centres étrangers, on change d’ordinateur mais on garde l’organisation du centre et son esprit. Petit à petit, la présentation de la situation s’éclaircit grâce au travail du projet MIPS. Mais des discordances apparaissaient en interne quand il s’agissait de désigner le secrétaire permanent du projet. Le directeur général et moi-même étions persuadés que le choix du secrétaire permanent de notre COMI était décisif quant à la qualité du schéma directeur pour l’informatique qu’il fournirait. F.  Kourilsky ne voulait pas être pris de court par les évènements et se voir imposer une nomination. Étant donnée la composition du COMI, nous aurions certainement eu un schéma directeur semblable au précédent. J.  Sevin le voyait comme une personne ayant un rôle important, capable de présenter des choix. La communauté scientifique unanime, sans hésitation, proposa P.  Salzedo. Mais A.  Berroir souhaitait quelqu’un de beaucoup plus insignifiant. La personne qu’il craindrait le plus à cette place était précisément P. Salzedo. Pas comme il le prétendait parce qu’il ne connaissait pas les problèmes des scientifiques (il sait bien que c’est faux), mais il le savait capable de déjouer, souvent par sa seule présence, des montages plus ou moins douteux n’ayant rien à voir avec l’impartialité. François Kourilsky m’a demandé de lui faire des propositions. Les premiers noms qui me sont venus à l’esprit sont ceux de Bertrand, directeur du laboratoire LURE et Victor Alessandrini. Je les avais rencontrés l’un et l’autre à un congrès récent aux États-Unis organisé par IBM et j’avais apprécié les questions qu’ils posaient et leurs interventions. L’un et l’autre avaient surtout utilisé des micros, mais V. Alessandrini faisait partie, en qualité de chercheur, du conseil scientifique du CCVR. Un autre bon candidat aurait été M. Bigot, du laboratoire de chimie à l’ENS de Lyon, mais il n’était pas intéressé. Finalement c’est V. Alessandrini qui fut choisi. Il n’y a pas eu d’emblée adhésion aux solutions proposées et bien des luttes et joutes oratoires ont opposé ceux qui étaient hostiles aux changements, ceux qui pensaient qu’il n’allait pas assez vite, ceux qui restaient indifférents. Mais l’atmosphère avait changé.

258

De l’IBM 360/75 au superordinateur Jean Zay

Quand F.  Kourilsky me demandait comment je pouvais garder ma bonne humeur 180, je lui faisais la même réponse que celle que j’avais faite à S. Feneuille en 1987 dans les mêmes circonstances : je lui rappelais que le CIRCÉ avait toujours su sortir des pires situations. Un centre de calcul, ce n’est pas seulement du matériel, ce sont aussi des équipes et justement il y a de bonnes nouvelles. Dans une note manuscrite du même jour, je lui signalais l’excellent travail de deux ingénieurs de haut niveau, Jean-Marie Teuler et Denis Girou, qui assistaient des utilisateurs de pointe. Tant que l’équipe était enthousiaste et qu’elle savait conjuguer son bon travail quotidien et sa préparation anticipée pour l’avenir, il n’y avait pas à s’inquiéter. Et aussi longtemps qu’on pourra garder du personnel d’élite, le centre continuera de remplir sa mission. Plus tard, leurs mérites ont été reconnus : J.-M. Teuler recevra la distinction du Crystal et D. Girou, quand il sera directeur du centre, celle du Crystal d’or pour toute son équipe. C’était à la direction de leur obtenir le matériel adéquat pour qu’ils puissent travailler. Maintenant tous les pays avaient compris l’usage qu’on peut faire des machines vectorielles et remplaçaient dans leurs grands centres leurs machines par d’autres de nouvelle génération. Pourquoi n’y arriverions-nous pas ? 

10.7.1 Problèmes d’administration de réseau J’ai déjà expliqué qu’en France, la construction et l’administration du réseau n’avaient pas posé de problèmes entre les ingénieurs responsables et les directions générales. À ceci plusieurs raisons : les directions scientifiques ne prétendaient pas y comprendre quelle que chose, les deux responsables techniques C. Michau et Le Guigner s’entendaient très bien. Ils étaient excellents dans leur domaine et C. Michau a vite pris un rôle dans les instances internationales. Et c’était un domaine particulièrement cher à F.  Kourilsky, tellement que dans son souci que le CNRS soit bien représenté, il insistait pour, au début que je sois présente à des réunions où C. Michau faisant tout le travail. Restait à lui trouver une position officielle. Pas de poste libre en vue. Alors en attendant, F. Kourilsky l’a nommé son conseiller pour les réseaux. Dès que ce sera possible, il créera une unité de service réseau qu’il lui confiera. Nous avions toute confiance en C. Michau. Ça nous libérait d’un gros travail et moi d’incessants voyages à l’étranger, même si Bob Cooper responsables des réseaux anglais et de la RFA étaient devenus des amis personnels. En interne, M. Berroir ne veut pas que quelque chose existe en dehors du COMI et ne voit pas la nécessité d’une cellule réseau, pas plus que d’une autre instance pour écrire un autre schéma directeur. Quant à M. Ganouna de l’IN2P3, il dit clairement qu’il ne reconnaît que le CERN pour organiser le réseau dont il a besoin. Mais c’est normal. L’IN2P3 mène fort bien sa barque et je me suis bien gardée d’intervenir, sauf quand il a fallu que le CIRCÉ achète du matériel national quand ils ont eu besoin de VAX.

180 Réponse

1990.

à F. Kourilsky, du 18 novembre 1991, suite de la conversation du 29 octobre

1989-1992 259

J’ai aussi été informée par Michel Demazure, mathématicien, responsable à l’Enseignement supérieur que le département Sciences Physique pour l’Ingénieur (SPI) du CNRS avait offert le poste de responsable du réseau français à C. Michau qu’il apprécie. Il affirme que l’ES l’accepte et s’en remet à lui. Il y a bien eu quelques utilisateurs qui ont manifesté leur mécontentement. Par exemple, celui qui expliquait au directeur général que nous jetions l’argent par les fenêtres et que pour se relier à haut débit au CCVR, il suffisait de basculer tout notre réseau sur le CNUSC ou le CCPN qui, eux, étaient reliés au CERN, à charge pour nous de squatter la liaison CERN-CCVR. Puisqu’il fallait répondre à tout le monde, je lui ai expliqué que : « Ce qu’on appelle “un basculement de réseau” peut se faire mais que c’est une très grosse opération. Jusqu’à présent, tout est organisé avec deux gros pôles géographiques, l’un au CIRCÉ, l’autre au CNUSC. Si cela doit changer, là il faut de la concertation et avertir au plus vite tous les autres partenaires. » Dans la construction du réseau international, nous n’étions pas leader, mais occupions une place honorable avec nos deux experts à qui faisaient confiance Boc Cooper et Klaus Ullman responsables de JANET anglais et DFN allemand. Nous avons reçu de Bob Cooper, directeur de JANET, une proposition complète « Collaboration on high performance networking ». Elle était très satisfaisante et montrait bien comment dans ce domaine, les Anglais étaient à la fois pragmatiques et excellents managers. Ils étaient prêts à nous faire profiter de leur avance, mais en contrepartie profiteraient des apports théoriques de nos experts. C’était une excellente solution pour redonner un élan à notre RENATER national après le départ de M. Lombard. Nous sommes ainsi sortis des solutions franco-françaises et nous avons été stimulés pour passer plus vite du stage réflexions, cogitations au stade réalisations. « Mon impression générale est que ce sont des pays dont la structure est la plus adéquate comme la Grande-Bretagne qui tire le maximum de bénéfices. On arrive à ce paradoxe que nous sommes présents dans les groupes de travail, que nous sommes moteurs dans le projet IXI, mais que à cause de nos déficiences internes, nous n’en tirons pas de bénéfices, d’où la nécessité des efforts à faire sur le plan national. Au plan national À la suite du rapport Caseau, M. Lombard a constitué deux groupes ; un groupe technique et un groupe de pilotage pour s’occuper de deux problèmes : − la plaque à haut débit Île-de-France ; − l’infrastructure nationale X25 à relier au point d’accès international X25 IXI installé au CIRCÉ. Le groupe de pilotage comprend un représentant de l’EDF, du CEA, de l’INRA, du CNET, de l’ONERA et moi-même. Dans le groupe technique, M. Michau représente le CNRS. Lors de la première réunion, le ministère de l’Éducation nationale avait envoyé un observateur en attendant la mise en place de leurs nouvelles structures. Il y a eu quelques difficultés diplomatiques au niveau des deux ministères pour la suite des opérations, M. Courtillot expliquant à M. Demazure qu’il attendait une

260

De l’IBM 360/75 au superordinateur Jean Zay

lettre officielle de demande de participation émanant de M. Lombrard, celui-ci disant qu’il en avait envoyé une pour laquelle il n’avait pas eu de réponse. Finalement, j’ai joué mon rôle de “Madame bons offices” et l’Éducation nationale s’est décidée à travailler à une stratégie commune sous l’égide de M. Lombard. Il était temps car maintenant que la décision est prise, tout le travail reste à faire et notre retard avec les pays voisins s’est dangereusement creusé ces mois derniers. Dans mes notes du mois de mars 1991, je vous ai informé : […] du projet proposé par la Grande-Bretagne et l’Allemagne et soutenu pas la CEE d’un premier réseau à haut débit reliant ces pays et la France. Actuellement, les Britanniques sont en train d’améliorer JANET pour l’amener au niveau de 2 Mbits/s (ce JANET Mark 2 devrait être prêt pour dans un an) et ils ont en tête le futur SUPER JANET qui serait au niveau de 100 à 140 Mbits/s. Coopérer avec les Britanniques au moment où on lance RENATER nous permettrait de bénéficier des dix années d’expérience réussie qu’ils ont eues avec JANET. » J’ai informé M. Borde de notre bureau de Londres de cette initiative et il en a été discuté lors du voyage de M. Curien à Londres le 18 avril 1991. Les problèmes interviennent quand les équipes techniques ont besoin d’un aval de leur hiérarchie pour des questions internationales. Il était difficile de leur faire prendre des décisions. C’était sans doute perceptible à l’extérieur car, M. Ouannès, le même qui six ans auparavant disait n’importe où mais pas au CIRCÉ, m’alertait depuis Bruxelles où il était maintenant en poste, que si le MRT ne se mettait pas à étudier rapidement le projet TRIXI, alors c’était sans espoir que la France ait une place dans le domaine des réseaux. C’est la DG XIII qui devait travailler à l’étude du projet de liaison à haut débit LondresParis-Berlin que j’avais préparé avec Bob Cooper et Klaus Ullman. J’ai transmis les propositions au ministère pour étude dans le comité de pilotage. Le projet EUREKA COSINE sou sa forme actuelle a conduit au réseau IXI étendu aux 19 pays. Il doit être maintenu, même après la fin de COSINE (dans un an et demi). Ce sera le réseau de base « public relation » absolument nécessaire. Monsieur Curien, avant son voyage à Londres, avait discuté de ses problèmes de fond avec Lionel Jospin, ministre de l’Éducation nationale, de la Jeunesse et des Sports et Paul Quilès, ministre des Postes et Télécommunications et de l’Espace dans une réunion interministérielle 181 prévue le 21 janvier et repoussée au 1er février.

181 Note

de l’auteure : Il y aura trois discours, par Messieurs Curien, Quilès et Jospin. J’étais chargée de préparer pour H. Curien, cinq transparents à partir desquels, il établirait lui-même son texte.

Chapitre 11 1993-2013

Introduction Cette période met fin à une autre de stagnation de quatre années, pendant lesquelles il n’y a pas eu de matériels nouveaux installés, mais où l’équipe technique a fourni un gros effort pour à la fois aider les derniers «  petits utilisateurs » à prendre leurs ailes, et à se préparer à l’arrivée inéluctable d’un CRAY. La période de vingt ans a vu trois directeurs : Serge Fayolle pendant cinq ans, Victor Alessandrini pendant dix-huit ans et Denis Girou, pendant neuf ans de 2011 à 2020. Ils ont tous été the right person at the right place (la bonne personne au bon endroit). Serge Fayolle, directeur pendant deux mandats, le premier 1991 à 1993 et le second en 2009 et 2010, dans sa modestie, souhaite qu’on le considère comme un directeur de transition qui n’a pas droit à l’erreur. Mais son action a été décisive dans deux périodes critiques. Pendant le premier mandat, il a fallu à la fois amener et maintenir le niveau de l’équipe pour qu’elle puisse mettre en marche en un temps record la machine tant attendue et aider les derniers « petits » utilisateurs à se prendre en mains. Pendant le second, le problème était autre. V. Alessandrini a très bien mené le centre. Mais, même avec les instituts disciplinaires, conseils de tous ordres, l’IDRIS dépendait toujours du CNRS et les décisions continuaient à être prises entre le directeur du centre et celui du CNRS. Quand Fayolle est arrivé, il a dû dialoguer avec les nouvelles instances, leur rappeler que le centre existait et établir les nouveaux liens administratifs.

262

De l’IBM 360/75 au superordinateur Jean Zay

Pour se donner bonne conscience, on peut dire que ça a été un temps de réflexion. Mais la réflexion était faite depuis des années. Le problème c’est qu’on n’était pas passé à l’action. Est-ce une autre manifestation de l’exception française ? On décolle en retard, mais après on rattrape. Les années suivantes ont été fastes. Le matériel a été choisi avec minutie en l’adaptant au plus près aux besoins, tout en maitrisant, les coûts. C’est en 2007 que se place le profond changement dans la gestion de l’informatique au niveau national avec la création du GENCI. Une étape décisive a vraiment été franchie. La technique a évolué à un rythme accéléré. Les échanges avec l’étranger se sont amplifiés. La pression des utilisateurs qui ont besoin de calcul intensif, la possibilité pour les autres d’exécuter en local la plupart de leurs travaux ont poussé les décideurs à un revirement d’opinion. Il y a une instance qui n’a pas changé : c’est l’opinion que l’équipe technique a de son rôle. Elle s’est préparée aux changements et elle est prête à les affronter. Le moment a été propice pour la mise en route de réformes demandées depuis vingt ans. C’est à la même époque que la section Recherche et Développement d’EDF est entrée dans le calcul haute performance au service du groupe. En effet, en 1993 la R&D d’EDF se lance dans la recherche in silico avec un célèbre CRAY. Un quart de siècle plus tard, de nombreux chercheurs d’EDF utilisent l’un des supercalculateurs internes, dont le dernier né, baptisé GAÏA, pointait dans le top 100 mondial en puissance lors de sa mise en service début 2019. Le Calcul Haute Performance (High Performance Computing ou HPC) est en effet l’outil roi pour améliorer la précision des simulations, booster la rapidité des calculs de risques ou encore l’efficacité des algorithmes d’Intelligence Artificielle. La mutualisation des clusters existants présente également des avantages économique (investissement partagé), et organisationnels  : les calculateurs HPC d’EDF affichent un taux d’occupation de l’ordre de 80%.

11.1 Machines installées et logiciels mis en service Le tableau suivant donne la liste et le nom des machines installées à l’IDRIS entre 1993 et 2020, avec leurs caractéristiques, leurs années de départ et d’arrivée pour les deux dernières périodes. Le coefficient multiplicatif annuel moyen est de 1,68 pour l’IDRIS et de 1,82 pour le TOP, c’est-à-dire que le coefficient de la loi de Moore est en moyenne de 2,82 pour l’IDRIS et de 3,31 pour le TOP. Ce sont les plus élevés en cinquante ans d’existence du centre, mais la puissance n’est plus qu’un des facteurs qui caractérise un centre de calcul.

Figure 119 – Caractéristiques des supercalculateurs installés à l’IDRIS 1993-2013

1993-2013 263

264

De l’IBM 360/75 au superordinateur Jean Zay

Figure 120 – Machines en service de 1993 à 2013

Figure 121 – Courbes de régression comparées pour la 4e période

1993-2013 265

Pour compléter ces courbes, il faut lui adjoindre celle établie par l’ORAP ci-dessous.

Figure 122 – Classement dans le TOP500 des ordinateurs français installés (adapté de l’ORAP).

Cette figure montre que si la somme des puissances installées à l’IDRIS continue d’augmenter, le rang dans le classement TOP500 de la machine installée la plus puissante recule devant celui de la plus puissante installée en France dans le privé à partir de juin 2000.

11.2 Création de l’IDRIS en 1993 L’équipe était impatiente, et attendait un CRAY depuis des années. Les matériels existaient, l’équipe technique était prête et attendait elle aussi. Mais c’est la motivation d’une partie des membres de la tutelle qui manquait. L’atmosphère avait changé dans le monde informatique et les grands groupes étaient tous passé au calcul vectoriel et le CNRS n’a franchi le pas qu’en 1993. On a enfin installé le CRAY attendu depuis 1981. Le CIRCÉ a pris le nom d’IDRIS. La place du centre de calcul avait changé souvent dans l’organigramme du CNRS, au gré de l’évolution de ses structures. C’est maintenant une Unité Propre de Service (UPS), rattachée administrativement, au département Sciences et Techniques de l’Information et de la Communication (STIC). L’IDRIS est un institut qui garantit la continuité de la structure de service. Il assure la mise en place et l’exploitation d’un environnement dédié au calcul intensif répondant à la demande de communautés scientifiques qui ont besoin de très grandes puissances de calcul. L’IDRIS se comporte essentiellement comme

266

De l’IBM 360/75 au superordinateur Jean Zay

un prestataire de service, sans vraie valeur ajoutée complémentaire et sans activité de recherche propre. Sa mission reste d’y faire ce qu’on ne peut pas faire ailleurs. Elle est restée inchangée depuis la création. C’est cet ailleurs qui a changé. Les centres abritant des ordinateurs de grande puissance se sont développés en France et beaucoup plus vite à l’étranger, d’abord dans les milieux de la recherche académique puis dans ceux des entreprises. C’est cette évolution (qui n’est pas une révolution) qui fait que des industriels, comme l’EDF, l’ONERA, la Météo ont travaillé au CCVR et le quittent quand elles ont trouvé leur outil chez elles et n’ont plus eu besoin d’aller le chercher « ailleurs ». Donc, l’IDRIS fait une partie de ce qu’on ne peut pas faire ailleurs. Ce sont les vetos des commissions qui ont bloqué l’installation du CRAY  1 en 1981, douze ans auparavant. On savait ce qu’il fallait faire, mais on n’a pas pu le faire. Sinon, depuis 1981, les changements de machines auraient normalement amené à évoluer sans heurts comme le centre d’une grande université étrangère et à intégrer naturellement le vectoriel, puis le parallèle et le massivement parallèle, avec en même temps l’approfondissement de des problèmes scientifiques. Et le CNRS aurait économisé beaucoup d’argent pour arriver au même résultat. Les vetos des commissions, l’animosité des centres plus petits qui pensaient à tort que nous étions la source de tous leurs maux, on n’y pouvait rien. En revanche, la DIS (Direction de l’Informatique Scientifique) aurait dû proposer une structure plus forte pour prendre en charge une partie plus importante de la charge de formation à la micro- et mini-informatique que faisait le CIRCÉ, tout simplement parce qu’elle n’était pas faite ailleurs. Ce n’était pas au Groupe Services aux Utilisateurs (GSU) de travailler à adapter des logiciels du VP sur des micros pour que les utilisateurs puissent continuer leurs tâches chez eux le dimanche quand le centre était en automatique. La politique du ticket modérateur avait conduit jusqu’à la dernière minute à des absurdités. Est-il normal qu’en 1990, au CNRS, des chercheurs de l’Institut de Chimie des Substances Naturelles (ICSN) exploitent sur un Vax des programmes qui tournent une semaine et ne donnent le résultat que s’il n’y a pas eu une panne au bout de trois ou quatre jours ? Ceci est dû à la fois à la difficulté d’obtenir des crédits calcul qui a conduit aux absurdités dénoncées par le rapport Caseau et au manque de formation des chercheurs. Quand on change une organisation, il peut toujours se poser des problèmes délicats d’affectation de personnel. Michel Petit parle de la façon dont il a réglé les siens au moment de la fermeture du centre de calcul de l’INAG. Il s’agissait là d’une reconversion nécessaire et il est très fier de s’en être bien tirer 182. À la création de l’IDRIS, il ne s’agissait pas de conversion d’une équipe, mais d’une fusion de l’équipe du CIRCÉ avec les quelques personnes venues avec leurs postes du CCVR à sa dissolution et avec trois ingénieurs embauchés sur un contrat de six mois. Il y a certainement eu quelques incidents, mais tout s’est bien passé dans le calme, sous la houlette de S.  Fayolle qui redevenait directeur adjoint après avoir été directeur pendant trois ans. Huit jours après le démarrage, les ingénieurs sur contrat lui ont dit qu’ils finiraient leur contrat, 182 INAG :

Institut National d’Astronomie et de Géophysique.

1993-2013 267

mais étaient inutiles car l’équipe sur place en savait autant qu’eux. Cette reconnaissance était bien venue après le travail de préparation. L’un des trois a été embauché à la fin du contrat. L’IDRIS avait engagé trois ingénieurs sur contrat pour le démarrage, l’un a été affecté à l’exploitation, les deux autres à l’assistance système et utilisateurs. Cette fusion de l’équipe primaire avec celles venant d’autres origines aurait pu poser des problèmes délicats. Après une semaine les ingénieurs sur contrat ont expliqué qu’ils resteraient finir leurs contrats, mais étaient inutiles, car les équipes sur place étaient aussi bonnes qu’eux. C’était la récompense après tout le travail de préparation. En décembre 1993, toutes les machines installées au CIRCÉ ont été arrêtées et remplacées par un supercalculateur CRAY Y MP C90/94, machine principalement vectorielle.

Figure 123 – Livraison IDRIS CRAY C94

11.3 Année 1994 En 1994, un second calculateur vectoriel CRAY, dénommé AXIS par IDRIS, est installé à l’IDRIS. La configuration finale des deux plateformes est la suivante : Mémoire Puissance MHz princien pale Gflop/s

Nom NB Modèle IDRIS Cœurs

CPU Chip

ATLAS

Y-MP C90/98

8

ECL

238

4 Go

8

COS/ UNIX

AXIS

Y-MP C90/94

4

ECL

238

2 Go

4

COS/ UNIX

OS

Rpeak mesuré Rang au TOP500 7,6

81

De l’IBM 360/75 au superordinateur Jean Zay

268

Quatre fois plus puissant que le CRAY 2, le CRAY C98 est un ordinateur multiprocesseur vectoriel à mémoire partagée. De ce fait, il permet de gérer les calculs en parallèle, et donc avec une vitesse accrue par rapport à celle d’un monoprocesseur. Dans sa version complète, le CRAY C98 peut intégrer huit processeurs. Sa mémoire principale peut atteindre 4  Goctets et sa mémoire secondaire 16 Goctets. Son sous-système d’entrées-sorties peut gérer des débits d’information de plus de dix milliards d’octets par seconde. Les noms AXIS et ATLAS ont été choisis parce qu’AXIS signifie « Vertèbre proche de l’atlas  » et ATLAS «  Première vertèbre cervicale qui soutient la tête ». ATLAS porte AXIS ; l’utilisation de ces deux calculateurs correspond à cette image.

11.4 Années 1995 et 1996 11.4.1 Évolutions du parc de calculateurs Un calculateur d’architecture parallèle, T3D de CRAY, est installé en septembre 1995. L’arrivée de cette machine va permettre d’accéder au programme de parallélisme massif. On lui adjoint, en 1996, un second calculateur d’architecture parallèle le modèle T3E, acheté par le CNRS qui a deux fois plus de processeurs pour le calcul parallèle que le T3D. Il coopère avec le parc machines installé et offre une plate-forme aux chercheurs deux fois plus puissante. La configuration de la plateforme est donnée ci-dessous : Nom IDRIS

Modèle

Nb de processeurs

Taille mémoire

Puissance

KAOS

CRAY T3D

128

8 Go

19,2 Gflops

ALEPH

CRAY T3E

256

32 Go

153,6 Gflops

Rpeak mesuré au TOP500

Rang

153,6 Gflops

12

L’architecture des calculateurs CRAY T3D et du T3E donne pleinement accès au calcul parallèle. Néanmoins, il n’élimine pas la charge de travaux à exécuter sur le C98 (calculateurs vectoriels). Les CRAY 98 et C94 seront éteints fin 1999.

1993-2013 269

Figure 124 – Schéma de configuration de l’IDRIS en novembre 1996

11.4.2 Serveurs de fichiers En novembre 1993, l’IDRIS disposait, pour les besoins d’archivage, d’une machine Hitachi qui pilotait deux robots Storagetek offrant ensemble une capacité de 3 To. Dès l’année suivante, une machine Convex, nommée Maia, remplace la précédente et la capacité de la robotique est progressivement passée à 4 To. En 1997, l’ajout d’un robot GRAU a permis d’étendre la capacité d’archivage à 25 To, puis plus tard à 200 To en changeant de technologie pour les cassettes. En 1999, la machine Maia a été remplacée par une machine SGI, nommée Gaya, qui a elle-même connu deux évolutions jusqu’à aujourd’hui. De façon concomitante, la capacité des robots Storage tek est passée à 400  To, avant qu’ils soient remplacés par une robotique de même marque mais de nouvelle génération, pour une capacité qui a crû progressivement pour atteindre les 4 Po fin 2013. L’espace disque en ligne est constitué d’une grappe de 46 disques durs 314 d’une capacité totale de 202  Go et une grappe de 24 disques durs 314 d’une capacité totale de 106 Go. Dans cette même période, le grand centre de l’Éducation nationale de Montpellier change aussi de matériel.

De l’IBM 360/75 au superordinateur Jean Zay

270

11.5 Le CINES Fin décembre 1999, le CNUSC se transforme pour devenir le CINES 183 (Centre Informatique National de l’Enseignement Supérieur) actuel, créé par le décret n° 99-318 du 20 avril 1999. Le changement apporta de nouvelles missions, ainsi qu’un changement de statut. Le 6 mars 2014, les statuts du CINES sont modifiés par décret paru au journal officiel qui fait apparaître une nouvelle mission – l’hébergement de matériels informatiques à vocation nationale. Durant toutes ces années, le nombre de salariés au sein de l’établissement varie autour d’une quarantaine de techniciens et ingénieurs. En janvier 2011, le CINES disposait de plusieurs machines pour le calcul haute performance : − un ordinateur SGI Altix ICE 8200 EX7 ; − un ordinateur IBM P1600 + Cluster POWER5 ; − un cluster Bull (avec GPU pour calcul hybride). Le supercalculateur Jade (SGI Altix ICE 8200 EX), dont les caractéristiques suivent, a une puissance de crête de 267 TFlops : − 536 nœuds bi-socket équipés de processeurs Intel Xeon E5472 à 32 Go de RAM ; − 1 344 nœuds bi-socket équipés de processeurs Intel Nehalem X5560 à 36 Go de RAM ; − Infiniband DDR et QDR 4 x dual plane ; Figure 125 – Le supercalculateur Jade du CINES − 700 To de disques (Lustre).

11.6 Différents types de calculs à l’IDRIS Depuis 1993, le centre a installé un CRAY C98, un CRAY T3D, un processeur 256 CRAY T3E, un Fujitsu VPP300, un système IBM Power 3 et peu après un système parallèle vectoriel NEC SX-5 de 38 processeurs. Rang dans le TOP500

Calculateur

Nbre processeurs

Rmax (GFlop/s)

Rpeak (GFlop/s)

33

T3E, CRAY/HPE

256

98,5

153,6

335

T3D MCA128-8, CRAY/HPE

128

12,8

19,2

341

VPP300/6, Fujitsu

6

12,8

13,2

183 https://fr.wikipedia.org/wiki/Centre_informatique_national_de_l%27enseignement_supérieur#Anciennes_machines_de_calcul

1993-2013 271

L’IDRIS a participé au rapport qui couvrait deux domaines  : conditions d’implantation d’un nouveau synchrotron et rôle des Très Grands Équipements (TGE) dans la recherche publique ou privée, en France et en Europe, rapport n° 2821 déposé le 19 décembre 2000 par Messieurs Christian Cuvilliez, député et René Trégouët, sénateur. Serge Fayolle, directeur adjoint de l’IDRIS, a indiqué que l’investissement dans un centre de calcul tel que celui qu’il dirige et dont les performances sont voisines de celles du CINES, est de l’ordre de quelques dizaines de millions de francs par an. Il s’agit donc d’un équipement qui diffère des TGE classiques par son coût mais aussi par la nécessité de le renouveler tous les quatre à cinq ans, en raison des progrès très rapides de l’informatique. À  cet égard, le choix de machines vectorielles ou de calculateurs massivement parallèles ne saurait être qu’une question d’opportunité, compte tenu de la durée de vie très limitée des technologies informatiques. Au demeurant, le mode de gestion et d’utilisation d’un centre de calcul présente des points communs avec ceux d’un TGE. Recourant aux technologies du parallélisme et du calcul réparti, l’IDRIS est membre d’EUROGRID, grille de calcul européenne, grâce à laquelle le chercheur ne se soucie pas de savoir où se trouve le centre de calcul qui prend en charge ses demandes. Un point capital est celui du personnel et du recrutement. Il faut en effet souligner que les grands centres de calcul ne comprennent pas seulement des moyens matériels mais aussi des compétences essentielles pour la diffusion des technologies. Il faut en conséquence, un important budget de Rémunération et Charges Sociales (RCS). L’accès aux serveurs de l’IDRIS dépend bien évidemment des réseaux régionaux, ce qui confère une grande importance à une bonne distribution de ceux-ci.

11.6.1 Les enjeux du calcul parallèle Victor Alessandrini, directeur de l’IDRIS dit dans un article 184 publié dans le bulletin d’information de l’ORAP (ORganisation Associative du Parallélisme) : « Au cours des quarante dernières années, le calcul scientifique s’est appuyé sur une croissance continue des performances du matériel informatique, une croissance exponentielle (suivant la loi de Moore) des puissances de calcul et des tailles mémoire disponibles. Des architectures vectorielles développées dans les années 70 (notamment par CRAY) donnaient naissance à une nouvelle génération de superordinateurs. Les architectures de calcul parallèle introduites dans les années 90 permettent d’atteindre des performances inégalées par l’utilisation de grands nombres de processeurs effectuant des calculs simultanés. Les architectures parallèles, utilisant l’interconnexion

184 Bulletin

d’information de l’Organisation Associative du Parallélisme (ORAP), n° 9, octobre 1996, (http://orap.irisa.fr/wp-content/uploads/2016/03/biorap-9.pdf)

272

De l’IBM 360/75 au superordinateur Jean Zay

d’un très grand nombre de processeurs au sein d’une seule machine, ont permis une croissance de la puissance de calcul largement supérieure à celle que l’on pouvait espérer de la loi de Moore. L’informatique de pointe a été dominée successivement par CDC, CRAY, Fujitsu et actuellement IBM avec la machine Blue Gene. Les États-Unis et le Japon fournissent la majorité des machines les plus performantes. » Dans ce même article, il fait le point sur les architectures parallèles, retrace l’historique du calcul intensif de l’IDRIS depuis sa création et dresse un bilan de la réflexion technique et stratégique qui a présidé à l’évolution des gros moyens informatiques de l’IDRIS.

11.6.2 Le calcul vectoriel Le NEC SX-5, appelé UQBAR comporte une grappe de trois calculateurs. Pour ce qui est du calcul vectoriel, cette plateforme restera pour longtemps le plus gros supercalculateur vectoriel du monde. Un premier nœud à 16 processeurs (8 Gflops de puissance crête chacun) et 128 Go de mémoire partagée, a déjà été mis en service fin novembre 1999. Une phase de migration des applications vectorielles a été initialisée, celles qui tournaient sur les anciennes plates-formes CRAY et Fujitsu, avant leur arrêt fin janvier 2000. Un bon nombre de projets vectoriels sont adaptés à la nouvelle architecture et entrés en phase de production.

Figure 126 – NEC SX-5

Les deux autres nœuds de la grappe UQBAR : − un nœud supplémentaire à 16 processeurs et 64 Go de mémoire partagée ; − le « petit nœud  » à 6 processeurs et 32 Go de mémoire partagée. Deux nœuds supplémentaires seront ajoutés quelques mois suivants. La grappe atteint ainsi un total de 40 processeurs vectoriels.

1993-2013 273

Figure 127 – Schéma des grappes du NEC SX5

Un réseau à très haut débit, 8 Go/s relie les trois nœuds. Les utilisateurs ne voient qu’une seule machine à 40 processeurs. Classement TOP500 UQBAR en novembre 2000.

UQBAR

Rang

Système

Nbre Cœurs

Rmax (GFlop/s)

Rpeak (GFlop/s)

67

SX-5/38M3, NEC

38

280,0

304,0

11.6.3 Le calcul scalaire Le POWER3 fut lancé par IBM en 1998. Il intègre 15 millions de transistors par puce. Il est le premier à mettre en place une architecture 64 bits SMP (Symetric MultiProcessor). Il est destiné au calcul scientifique. La même année, est installé un nœud IBM Nighthawk POWER3, TLON d’architecture scalaire avec 8 puissants processeurs et 16  octets de mémoire partagée. Puisque la nouvelle plate-forme est une machine plus spécialisée pour le calcul vectoriel que les bons vieux CRAY C98/C94, elle demande des vecteurs

274

De l’IBM 360/75 au superordinateur Jean Zay

plus longs pour délivrer toute sa puissance de calcul. Elle supporte certains codes pas très bien adaptés à la nouvelle architecture vectorielle.

11.6.4 Calcul parallèle massif Sa mise en œuvre à l’IDRIS en 2012 a été expliquée par Pierre-François Lavallée, alors ingénieur responsable du calcul intensif. À cette date il écrivait : « Depuis pour maintenir cet accroissement continu de puissance, il a fallu avoir recours au parallélisme massif à tous les niveaux de l’architecture. Au niveau du cœur d’exécution, on décode plusieurs instructions simultanément (superscalaire), on multiplie et on pipeline les unités fonctionnelles et enfin on a recours à l’Hyper Threadind (HT) ou Simultaneous Multi Threading (SMT) pour exécuter simultanément plusieurs threads. Au niveau du processeur on va multiplier le nombre de cœurs d’exécution et on peut éventuellement lui adjoindre des accélérateurs (GPU, MIC). Au niveau du nœud à mémoire partagée, (on utilisera le terme de nœud par la suite), on va multiplier le nombre de processeurs. Enfin au niveau de la mémoire, on va multiplier le nombre de bancs mémoire accessibles simultanément. Cette révolution s’accompagne d’un changement de référentiel, la sacro-sainte métrique flops/s (la puissance de calcul brute) étant progressivement remplacée par le flop/s/watt (la puissance de calcul par unité électrique) avec son propre classement des machines les plus efficaces énergétiquement le GREEN 500. On peut extrapoler l’archétype des machines exaflopiques telles qu’on peut les attendre à l’horizon 2018-2020. Ce seront des architectures avec des centaines de milliers, voire des millions de cœurs, dont la brique de base sera un nœud potentiellement hétérogène (mélange de cœurs généralistes et de cœurs spécialisés) associé à une hiérarchie mémoire extrêmement complexe composée de multiples niveaux de cache 185. »

11.7 Année 2004 Elle est marquée par la création de DEISA (Distributed European Infrastructure for Supercomputing Applications) et la publication du rapport 1994-2004 de l’ORAP (ORganisation Associative du Parallélisme) qui sera suivi de beaucoup d’autres.

11.7.1 Création de DEISA DEISA est un consortium de centres nationaux de calcul en Europe qui se propose de déployer et d’exploiter une infrastructure de calcul distribuée de très haute performance. La puissance de calcul totale sera de plus de 20 Teraflops 185 La

lettre de l’IDRIS de février 2012, article «  La programmation parallèle hybride MPI-Open MP » par Pierre-François Lavallée.

1993-2013 275

au début du projet en 2004 avec une importante et constante évolution dans les années suivantes. L’émergence de l’Earth Simulator japonais (une architecture vectorielle spécialement conçue pour le calcul scientifique) comme leader mondial des supercalculateurs a suscité une profonde remise en question des stratégies et priorités des HPC. Le super-cluster DEISA est représenté dans la figure suivante. Les sites qu’il relie sont le FZJ à Jüliche et le RZG à Garching, tous deux en Allemagne, le CINECA en Italie, le CSC en Finlande et l’IDRISCNRS en France. Le but fondamental de DEISA n’est pas de mettre en place un réseau dédié à des nœuds d’échelle mondiale. Le seul et unique critère de réussite du projet est son impact sur les sciences computationnelles en Europe. La mobilisation des ressources humaines est décisive pour atteindre le succès.

Figure 128 – Architecture du cluster DEISA D’après Niedenberger & Mextorf (2005), Computational Methods in Science and Technology, 11 (2), 119-128.

La première étude du projet en décembre 2004 186, a été menée par Allan Sacha Brun du CEA de Saclay et Jean-Paul Zahn de l’observatoire de Meudon. Elle est intitulée : Vers une compréhension dynamique des étoiles : simulation 3-D de la turbulence et du magnétisme stellaires. En février 2006, l’administration de DEISA retient 29 projets scientifiques 187 dont le projet HORIZON, qui est d’utiliser le calcul massivement parallèle pour modéliser la formation des

186 Lettre

de l’IDRIS n° 7 de décembre 2004, Archives de la direction générale du CNRS, conservées dans les Archives de la DIS. 187 Lettre de l’IDRIS n° 8 de décembre 2006, Archives de la direction générale du CNRS, conservées dans les Archives de la DIS.

276

De l’IBM 360/75 au superordinateur Jean Zay

structures de l’Univers. DEISA a publié un superbe ouvrage 188 portant sur les résultats scientifiques obtenus grâce à la structure réseau dont ceux sur les ondes gravitationnelles présentés par l’Italie. En 2008, V. Alessandrini a organisé un symposium DEISA les 28 et 29 mai à Édimbourg. Il fait suite à ceux de Paris, Bologne et Munich et, à partir de juin 2008 des séminaires dans ces locaux d’Orsay, sur le thème du calcul de haute performance, afin d’accompagner les utilisateurs.

11.7.2 Rapport de l’ORAP 1994-2004 En 1992, le Comité des Applications de l’Académie des Sciences (CADAS), avait conclu dans un rapport 189 que dans tous les grands secteurs scientifiques, la méthode classique basée sur la théorie et l’expérience avait laissé la place à une méthode alliant théorie, simulation et expérience, avec des avancées inégales dues notamment à l’hétérogénéité des moyens. En 1994, devant le foisonnement des initiatives et des équipements en calcul parallèle, l’ORAP (ORganisation Associative du Parallélisme) est créé par le CEA, le CNRS et l’INRIA. Son président, Jacques-Louis Lions suggère : « … une structure souple de coordination dont les efforts portent sur la formation, la mise en œuvre des moyens et surtout l’ouverture et l’information entre les différents secteurs scientifiques tant académique qu’industriels. 190 L’objectif de cette organisation est le renforcement des collaborations entre les partenaires et la promotion des projets cohérents au plan national, européen et international. » Elle publie depuis dix-sept ans de nombreux rapports d’activité et participera à de nombreuses activités touchant à la recherche publique, privée et industrielle. L’ORAP en 1994 reprend des remarques du rapport Rabbia 191 sur la faiblesse de l’offre des constructeurs européens, malgré une position de pointe de la recherche dans le domaine des systèmes parallèles avancés. En 1997, à l’initiative du CNRS, 192 on assiste à un développement des mésocentres régionaux qui doit permettre aux utilisateurs une utilisation optimale des centres nationaux qui eux se développent à budget constant. Une enquête en 2000 sur 84 laboratoires, révèle que tous utilisent l’informatique, et 56 des moyens extérieurs pour une grosse puissance de calcul et des logiciels rares et coûteux. La préparation 188 Advancing

Science in Europe, ouvrage collectif sous la direction de Saara Värttö du CDC de Finlande. 189 Rapport du comité des applications de l’Académie des sciences, La vie des sciences, comptes rendus, série générale), tome 9,1992, n° 1, p. 63-83, sous la direction de Robert Dautray. 190 « Calcul Parallèle », ORAP, J-L Lions, 1994. 191 Rubbia et al., Report on the High Performance Computing and Networking Advisory Commitee, vol. 1, (CEC: October 1992). 192 « Réflexion sur une politique d’équipement méso-informatique au CNRS », COMI, mai 1997.

1993-2013 277

des calculs sur les centres nationaux se fait dans les mésocentres. Un point commun pour les centres intermédiaires est le manque de personnel spécifique. Ils sont utilisés à plein. En 2003-2004 les deux centres nationaux sont l’IDRIS, 55 personnes, 10  MF par an de budget en moyenne entre 1993 et 2000, et le CINES, 44 personnes, budget d’investissement de 4 MF. En novembre 2003, ils sont très loin dans le classement du TOP500. Si on cumule les puissances de crêtes des centres pour la recherche, on arrive à un total qui est le 1/3 de celui de l’Angleterre et les 3/8 de celui de l’Allemagne. On peut en effet considérer la simulation « soit comme un centre de coût, soit comme une opportunité stratégique ». Dans le premier cas, on vise un facteur de croissance de 50 en 10 ans. Dans le second, le facteur volontariste de 500 est un pari sur l’avenir aux États-Unis et au Japon. Vers la fin des années 90, le constat de sous équipement français est flagrant par rapport à celui des Américains. Pour rattraper ce retard la commission européenne a contribué au financement de projets destinés à développer le Calcul Haute Performance (CHP) en Europe. Les principaux moyens de financement sont les programmes cadres quatriennaux. Pour les 4e, 5e, 6e, l’Europe a investi respectivement 12 300, 14 940, 16 200 M€. Le 6e donne une place importante aux grilles de calcul et grilles de données, éléments importants du calcul de haute performance. Les financements communautaires ne vont pas vers les applications scientifiques et techniques (modélisation et simulation à grande échelle, par exemple), ce qui peut être considéré comme regrettable. Le rapport de l’ORAP 193 appuie en permanence sur notre retard par rapport à l’étranger et propose, entre autres, pour y remédier un gros effort de formation des chercheurs et des étudiants. S’appuyant sur les universités américaines, il met l’accent sur la double compétence nécessaire aux chercheurs de pointe à la fois dans leur secteur de recherche et en informatique. Un paragraphe entier, Les centres nationaux de calcul : du ticket modérateur à une affectation de ressources sur dossier scientifique, est consacré au sujet. Il souligne les effets néfastes du ticket modérateur. Il rappelle la décision prise en 1993 : « Le ministère chargé de la Recherche, prenant conscience de l’importance croissante du calcul de haute performance, et considérant que ces “grands instruments scientifiques” devaient être accessibles dans de bonnes conditions par la communauté scientifique, a décidé de prendre directement en charge les frais de ces deux centres. Cette “mesure incitative” a joué un rôle important dans le développement de la simulation numérique dans de nombreux domaines. » Les deux centres nationaux : IDRIS et CINES lancent chaque année un appel à propositions. Où en est l’Europe dans la course à l’exascale ? « Les spécialistes des applications et les informaticiens devraient collaborer. La France connaît cette année une vaste et multiple réflexion autour de l’avenir de la recherche. La question du calcul scientifique doit être posée 193 http://orap.irisa.fr/wp-content/uploads/2016/03/livre.pdf

De l’IBM 360/75 au superordinateur Jean Zay

278

explicitement comme une impérieuse priorité. Le calcul scientifique fait partie des secteurs dans lesquels le retard accumulé par la France est à la fois important et préoccupant. Nous souhaitons que le comité d’initiative et de proposition des États Généraux de la Recherche et de l’Enseignement supérieur s’empare du problème. » La recherche publique française, au CNRS, dans le monde universitaire, au CEA, à l’INRIA, représente un potentiel de très haut niveau. Ce potentiel recouvre aussi bien les compétences en informatique que celles en mathématiques ou dans les sciences utilisatrices. Lors de son 46e congrès de l’ORAP au début de 2021, il sera fait allusion à ce premier rapport

11 .8 Année 2006 Le Parlement a demandé à deux de ses membres un rapport sur le calcul scientifique. Ce rapport rappelle que : «  L’IDRIS (Institut du Développement et des Ressources en Informatique Scientifique), fondé en novembre 1993, a pris la suite du CIRCÉ ; il est le centre majeur du CNRS pour le calcul numérique intensif de très haute performance et est situé à Orsay 194. » Le rapport 195 se propose de dresser un bilan de la réflexion technique et stratégique qui a présidé à l’évolution des gros moyens informatiques de l’IDRIS depuis sa création fin 1993. Une perspective historique n’est pas inintéressante dans un secteur de pointe comme celui des technologies de l’information, où le progrès s’accélère de manière vertigineuse et les échelles de temps rétrécissent tous les jours. Les quelques années qui se sont écoulées ont été riches en enseignements. Les embûches et les fausses pistes n’ont pas manqué, pour l’IDRIS.

11 .9 Année 2007 - Création du GENCI

Le GENCI 196 (Grand Équipement National du Calcul Intensif) a été créé en 2007 par les pouvoirs publics français, pour rattraper le retard que la France avait pris dans la mise à disposition de capacités de calcul comparables à celles de ses homologues européens. Cette décision faisait suite au rapport Héon-Sartorius 194

Le rôle des très grands équipementiers dans la recherche  : http://orap.irisa.fr/ wp-content/uploads/2016/03/livre.pdf 195 Le calcul intensif à l’IDRIS bilan et perspectives. Rapport ORAP, avril 2004. http:// orap.irisa.fr/wp-content/uploads/2016/03/biorap-22.pdf 196 Interview de Catherine Rivière, PDG du GENCI (2016), http://www.genci.fr.

1993-2013 279

qui soulignait, en 2005, la nécessité d’une meilleure coordination des différents acteurs du calcul intensif en France et d’un financement suffisant et régulier du parc français de supercalculateurs. Le calcul intensif est, en effet, un outil stratégique pour la compétitivité de la France, tant sur le plan scientifique qu’industriel. En créant une structure spécifique comme le GENCI, le gouvernement a souhaité mettre en place une véritable politique dans ce domaine pour replacer la France au meilleur niveau européen et international. Doté d’un budget annuel de 30 M€, la société a comme missions principales : − assurer la maîtrise d’ouvrage des moyens de calcul nationaux, maintenant répartis dans trois centres de calcul : le Très Grand centre de calcul (TGCC) du CEA à Bruyères-le-Châtel, l’Institut du Développement et des Ressources en Informatique Scientifique (IDRIS) du CNRS à Orsay et le Centre Informatique National de l’Enseignement Supérieur (CINES) à Montpellier. À ce titre, le GENCI a la responsabilité du plan d’investissement pluriannuel d’évolution des supercalculateurs installés dans ces trois centres ; − porter la stratégie nationale d’équipement en calcul intensif au bénéfice de la recherche scientifique française en lien avec les trois centres nationaux de calcul ; − participer à la réalisation d’un écosystème intégré du calcul intensif à l’échelle européenne ; − promouvoir la simulation numérique et le calcul intensif auprès de la recherche académique, des industriels et, avec la Banque Publique d’Investissement (Bpifrance) et l’INRIA, dans une initiative spécifique pour les PME nommée HPC-PME1. Pour réussir son programme, GENCI a besoin de gens compétents d’où des efforts pour réfléchir à leur formation. Des ateliers de travail issus de l’initiative Penser le Pétaflop ont réfléchi à la question Les métiers du numérique : formation, recherche et débouchés. Les conclusions, publiées en 2008, précisent des plans pour des formations de tout niveau dans les écoles et facultés et appellent à construire un plan de formation supérieure dans le domaine de la simulation numérique et de son application aux diverses disciplines. L’annexe 39 donne un exemple de formation à l’IDRIS.

11.10 Année 2010 - Création de PRACE et du COCIN 11.10.1 PRACE PRACE, Partnership for Advanced Computing in Europe, a officiellement été créée au printemps 2010 sous la forme d’une Association Internationale sans But Lucratif (AISBL) de droit belge. Sa feuille de route est de ramener l’Europe du calcul intensif dans la compétition internationale. Et ce, grâce à l’investissement de cinq de ses pays membres (l’Allemagne, l’Espagne, la France, Italie

280

De l’IBM 360/75 au superordinateur Jean Zay

et la Suisse) qui l’ont financé successivement, chacun, à hauteur de 100  millions d’euros sur cinq ans pour la première phase (2010-2015) puis désormais pour PRACE2 (2016-2019) et au support de la Commission européenne avec le financement de projets d’implémentation, des supercalculateurs de très grande puissance pour soutenir à la fois le progrès des connaissances et l’innovation en Europe. Depuis sa création, PRACE a alloué plus de 12 milliards d’heures de calcul à 465 projets issus de la recherche académique et industrielle (avec plus de 50 PME ou grands groupes impliqués) mais a également apporté des services à forte valeur ajoutée  : formation, support aux utilisateurs pour les communautés émergentes et les PME, prototypage de nouvelles technologies matérielle et logicielle. La France est en bonne position. Son engagement s’est concrétisé par l’acquisition et l’installation de supercalculateurs pour les équipements des trois centres nationaux. Non seulement, elle est le premier pays en nombre de projets scientifiques retenus mais elle est également le premier pays en nombre d’industriels (grands comptes et PME) qui utilisent les ressources de PRACE 197. L’accès aux ressources de PRACE se fait par le biais d’un seul critère, internationalement reconnu : l’excellence scientifique. L’initiative EuroHPC (European High-Performance Computing) fondée en 2017 s’est occupée à mutualiser les futurs supercalculateurs reliés par un réseau de transmission super-performant. Où faut-il les installer ? C’est la Finlande qui est supposée recevoir le suivant. Le centre de calcul d’Orsay n’est aujourd’hui qu’un des hypercentres de calcul, installés en Europe, hypercentres qui sont accessibles par les réseaux. Mais ce qui est primordial pour les chercheurs, c’est que le but initial fixé par Pierre Jacquinot soit atteint. C’est un cinquantenaire qui consacre une évolution réussie. L’informatique de service non seulement est reconnue comme indispensable, mais elle est devenue une affaire d’état. Les chercheurs ont le choix des moyens dans la communauté européenne.

11.10.2 COCIN Le COCIN (Comité d’Orientation pour le Calcul Intensif) a été créé fin 2010 par la présidence du CNRS. Il est chargé de la réflexion collective sur les besoins, la structuration et les évolutions en calcul. Il a publié plusieurs livres blancs.

11.11 Année 2011 L’année 2011 a été pour l’IDRIS une année de transition principalement consacrée à la préparation du renouvellement des supercalculateurs. Outre les activités correspondant à ses deux missions essentielles, d’une part l’exploitation du parc de calculateurs et des machines de service associées et d’autre part le support applicatif de haut niveau apporté aux utilisateurs. Les principaux événements qui ont marqués l’année écoulée ont été des travaux d’infrastructure très conséquents, étendus sur dix-huit mois, permettant de multiplier la capacité 197 https://prace-ri.eu/hpc-access/project-access/

1993-2013 281

électrique par un facteur 2,5, pour l’exploitation de la prochaine génération des machines. L’arrêt de DEISA en avril 2011, marque le terme d’un projet de sept années dans lequel l’IDRIS s’était très investi. Il l’avait dirigé dans ses quatre premières années, et ses activités furent intégrées au projet PRACE dans sa deuxième phase d’implémentation qui a démarré en septembre 2011 (PRACE-2IP, septembre 2011-août 2013).

11.11.1 Protection du Potentiel Scientifique et Technique (PPST) La Protection du Potentiel Scientifique et Technique (PPST) est une préoccupation primordiale de la Nation qui a toujours animé les gouvernements successifs 198. Mais face aux changements apparus ces dernières décennies, les menaces et les moyens d’attaques mis en œuvre, il était devenu indispensable de modifier la législation en vigueur en la matière. Bien qu’il ait été amendé plusieurs fois au fil du temps, le dispositif reposait sur une vision relevant pour l’ensemble des rapports de forces géopolitiques tels qu’il existait à l’époque de la guerre froide. La nouvelle réglementation s’étend dorénavant erga omnes c’est-à-dire à tous et non plus comme par le passé uniquement aux personnes d’une nationalité autre que celle des pays de la communauté européenne. Ont été identifiés des secteurs protégés et des unités protégées et des Zones à Régime Restrictif (ZRR). L’IDRIS, bien sûr, a été concerné directement par ces changements. Une zone ZRR a été créée et couvre la quasi-totalité des bâtiments sauf quelques salles ouvertes au public. De plus, l’IDRIS a fait évoluer sa politique de sécurité selon les recommandations mises à jour de l’Agence Nationale de la Sécurité Informatique (ANSI).

11.11.2 La Maison de la simulation La Maison de la simulation est un laboratoire commun du CEA, du CNRS, de l’INRIA et des universités Paris-Sud et Versailles-Saint-Quentin fondée en 2004. Son objectif est de continuer à optimiser le retour scientifique des supercalculateurs déployés au niveau national, supercalculateurs achetés par GENCI, l’IDRIS et le TGCC, et au niveau européen dans le cadre de l’infrastructure PRACE. Tous les scientifiques français et européens ont maintenant accès à un ensemble de machines de calcul de très haute performance et il faut développer des applications capables d’exploiter cette énorme puissance de calcul pour faire des avancées scientifiques. Le PTAC représente une quinzaine de formations par an avec une participation volontaire et actives des personnels des centres de calcul de l’INRIA.

198 La

lettre de l’IDRIS de février 2012, article « Protection du potentiel scientifique et technique » par Denis Girou et Vincent Ribaillier.

282

De l’IBM 360/75 au superordinateur Jean Zay

Figure 129 – Maison de la simulation (DR)

La maison de la simulation, en collaboration avec les autres PTAC, a établi un curriculum au niveau européen qui a été validé par une commission d’experts indépendants. Avec le déploiement d’une infrastructure pour le calcul intensif, aussi bien au niveau national avec GENCI qu’au niveau européen dans le cadre de l’infrastructure de recherche PRACE, les chercheurs ont maintenant accès à un parc de supercalculateurs de classe mondiale. De tels supercalculateurs devraient rendre

1993-2013 283

possible des avancées majeures dans différents domaines scientifiques mais aussi bénéficier à la compétitivité industrielle. Atteindre ces objectifs impose de disposer d’applications conçues et optimisées pour une exécution des calculs en parallèle (sur des calculateurs ayant un très fort degré de parallélisme). De plus, l’exploitation des masses de données produites par les grandes simulations nécessite des outils de post-traitement et de visualisation adaptés. La complexité des architectures de classe Pétaflops et celles des systèmes physiques à simuler représentent de grands défis. Seules des équipes pluridisciplinaires comptant des informaticiens spécialisés dans le calcul intensif (HPC, High Performance Computing), des spécialistes du traitement numérique et des experts dans les domaines scientifiques visés peuvent les relever. Les supercalculateurs devraient rendre possible des avancées majeures dans différents domaines scientifiques mais aussi bénéficier à la compétitivité industrielle. Atteindre ces objectifs impose de disposer d’applications conçues et optimisées pour une exécution des calculs en parallèle, sur des calculateurs ayant un très fort degré de parallélisme. De plus, l’exploitation des masses de données produites par les grandes simulations nécessite des outils de post-traitement et de visualisation adaptés. L’objectif principal de la Maison de la simulation est de favoriser l’utilisation efficace par la communauté scientifique de ces grands équipements de calcul. Pour atteindre ses objectifs, la maison de la simulation développe ses activités dans trois directions : − un centre de recherche pluridisciplinaire sur la simulation numérique et la modélisation qui héberge des équipes de recherche regroupant chercheurs et ingénieurs autour de projets liés au calcul intensif ; − une unité de service et d’expertise ouverte aux communautés scientifiques ; − un pôle d’enseignement de formation initiale permanente et d’animation scientifique en calcul intensif. En complément à l’accès à des supercalculateurs de classe mondiale, PRACE a développé une offre de formation de pointe, notamment avec 9 PRACE Training Centres (PATC) dont un en France, porté par la Maison de la simulation en lien avec les trois centres nationaux de calcul et l’INRIA.

11.12 Année 2012 Le GENCI a acquis deux nouveaux supercalculateurs, Turing et Ada, conçus par IBM et installés à l’IDRIS. Avec cet investissement, le GENCI a permis à la communauté scientifique française, dès janvier 2013, de répondre aux grands défis scientifiques et industriels et de se préparer à l’avènement des futures architectures de calcul. Catherine Rivière (annexe 41), PDG du GENCI écrit : « Avec ce nouvel investissement, GENCI achève de renforcer les moyens de calcul nationaux avec des machines d’architectures complémentaires, après ceux du CINES avec le supercalculateur Jade et ceux du CEA avec Curie et Titane. Au total, c’est une puissance cumulée de plus de 1,6  PFlOPS que nous mettons désormais à disposition des scientifiques français, soit un gain d’un facteur 80 en cinq ans. »

284

De l’IBM 360/75 au superordinateur Jean Zay

Figure 130 – Machines Turing et ADA installées à l’IDRIS

Stéphane Requena dans un article explique : « Un supercalculateur, ou superordinateur, est un assemblage très dense de serveurs empilés les uns sur les autres et fédérés par un réseau très rapide. Il permet de traiter des problèmes inaccessibles pour un PC de bureau, en parallélisant les calculs, c’est-à-dire en donnant à chaque serveur un petit bout d’un problème à traiter. Sa puissance est mesurée en pétaflops, c’est-à-dire en millions de milliards d’opérations par seconde. En d’autres mots, c’est un accélérateur de science et surtout un outil qui sert à toute la société 199. »

11 .13 Grands challenges IDRIS 2012 La période de préparation à la mise en production des nouveaux supercalculateurs Turing et Ada a été l’occasion d’attribuer des ressources importantes à quelques projets particuliers pour leur permettre de réaliser des simulations de très grandes tailles sur tout ou partie des nouvelles configurations. Ces allocations exceptionnelles baptisées Grands challenges scientifiques ont pour but de concourir à des avancées scientifiques significatives dans diverses disciplines. Treize projets ont ainsi été sélectionnés à l’automne 2012 pour les Grands challenges IDRIS sur ses nouveaux supercalculateurs, neuf sur la machine Blue Gene/Q Turing et quatre sur la machine généraliste Ada. Ils ont concerné la plupart des disciplines scientifiques utilisatrices de la simulation numérique. CNRS, Le Journal, 10/04/2019, https://lejournal.cnrs.fr/articles/supercalculateursles-enjeux-dune-course-planetaire.

199

1993-2013 285 DRAKKAR

Quantification de la variabilité interannuelle intrinsèque de la circulation océanique

Méso-NH

Impact du transport collectif sur la stratosphère tropicale

APAFA

Étude de la propagation de la flamme inter-injecteurs sur le brûleur expérimental KIAI

ECOPREMS

Étude de la COmbustion PRE mélangée en Milieu Stratifié

DEUS-PUR

Dark Energy Universe Simulation : Parallel Universe Run

MHDTURB

Turbulence magnétohydrodynamique dans les disques d’accrétion

ZOOMBAH

Zoomed simulations of Black Hole Accretion

GYSELA

Simulations multi-espèces turbulentes dans les plasmas de Tokamak

PrecLQCD

Calculs de précision sur réseau

STABMAT

De la stabilité de la matière ordinaire : électromagnétisme et différence de masse des quarks u et d

SELTRAN

Surface d’énergie libre de transfert d’acides aminés au travers des membranes

LIQSIM

Simulations de phases liquides par dynamique moléculaire ab initio

BIGDFT

Étude ab initio de la structure et de la cinétique des matériaux d’anode pour les batteries ion-lithium

Une brochure, intitulée Grands challenges IDRIS 2012, a été publiée à cette occasion, présentant tous les projets ayant participé à ces Grands challenges 200. Elle a été préfacée par Catherine Rivière, présidente directeur général du GENCI et Philippe Baptiste, directeur des Sciences de l’Information au CNRS. Ils soulignent la politique d’investissement du GENCI qui termine ainsi son premier cycle d’évolution des moyens de calcul des trois centres nationaux. Elle met ainsi à la disposition de la recherche scientifique des moyens de calcul scientifique nécessaires à son excellence. Nous n’examinerons que deux propositions pour montrer en quoi les nouveaux moyens de calcul ont été indispensables. DAKKAR est un projet de coordination scientifique et technique entre des équipes du CNRS et du centre opérationnel Mercator Océan, avec des collaborations étroites au Royaume-Uni, en Allemagne et au Canada. Il réalise des simulations numériques de l’océan global et de la banquise à très hautes résolutions couvrant de longues périodes de cinquante ans et plus. Des simulations réalisées en 2008 ont montré des fluctuations à basse échelle, avec une grille de calcul de 25 km à l’équateur et 9 pour l’Antarctique. Dans les trois dernières années, une nouvelle simulation ORCA12 utilise une grille de calcul de 9 km à l’équateur et 200 http://www.idris.fr/media/docs/docu/grandschallenges2012/grandschallengesidris

2012.pdf

286

De l’IBM 360/75 au superordinateur Jean Zay

moins de 3 km le long de l’océan Antarctique, ce qui fait un peu plus de 600 millions de points et multiplie par 30 le temps et le prix du calcul. La méthode proposée en 2013 propose un maillage tripolaire 4322×3050µ46 points découpés en 3584 sous domaines océaniques, chaque domaine étant associé à un cœur de calcul de la machine ADA. Une année de simulation prend 12 heures. Avec les 5 millions d’heures attribuées, l’équipe a pu réaliser 85 ans de simulation et a poursuivi jusqu’à 100 ans avec les attributions régulières du GENCI. Ces simulations place l’équipe à la pointe de la compréhension et la quantification de la variabilité des océans ayant une implication climatique forte. Le second exemple a trait à la simulation d’un univers parallèle. L’univers est unique. Il est impossible de s’en extraire pour l’observer de l’extérieur. C’est pourquoi il faut faire des simulations afin de tester les modèles cosmologiques et de les confronter aux observations, pour apporter des réponses. La complémentarité des supercalculateurs Curie et Ada a été utilisée pour des milliers de simulations à 16 millions de particules et pour 64 de plus d’un milliard de particules chacune. À l’issue du calcul, il a été obtenu pour chaque simulation les spectres de puissance associés à la distribution de matière au cours de l’histoire de l’univers.

11.14 Résultats scientifiques Les sujets traités par les utilisateurs conservées dans les archives de la direction générale pour cette période montrent que tous les efforts de l’IDRIS ont été tournés vers l’applicatif dans tous les domaines. On les retrouve sur le site www.idris.fr et ils sont regroupés année après année en épais volumes qui remplacent les anciens volumes émis par la DIS qui relataient ses démêlés avec le ministère de l’Industrie et le ticket modérateur. Quel soulagement que la disparition de toutes ces discussions soient remplacées par d’autres portant sur des sujets scientifiques ! Il a fallu vingt ans avant d’arriver à ce résultat !

Chapitre 12 Période 2013-2021 Introduction Cette période est particulière à plus d’un point de vue. C’est pour le centre une période d’aboutissement de cinquante ans d’efforts pour la reconnaissance du centre de calcul du CNRS comme un des grands centres de calcul nationaux indispensables à la recherche. Deux directeurs se sont succédés : Denis Girou qui était déjà directeur à la fin de la période précédente et Jean-François Lavallée, ingénieur de haut niveau, jusque-là responsable du groupe calcul intensif. Il y a donc eu une parfaite continuité dans l’esprit de la direction, même si chacun a apporté et apporte sa marque personnelle. En tous cas, ils arrivaient avec la formation, les compétences techniques adaptées aux problèmes qu’ils avaient à affronter et une parfaite connaissance du milieu, tant du point de vue des utilisateurs, que de l’administration. Pendant ces années, son histoire ne peut être déconnectée de celle des autres acteurs français, européens et mondiaux. Les notions d’Intelligence Artificielle, de calcul quantique étaient dans l’air depuis des années. Mais c’est durant cette période qu’elles émergent et bouleversent à la fois le paysage informatique et la temporalité. Le ton était donné depuis cinquante ans par la croissance exponentielle des puissances installées et des volumes de données gérées, croissance elle-même rendue possible par les avancées technologiques, les nouvelles architectures vectorielles, parallèles et massivement parallèles. Mais le changement le plus profond vient du renversement de l’opinion sur la place de l’outil informatique dans notre société. On est passé de l’hostilité à un engouement difficilement imaginable il y a une décennie. Autrefois, les utilisateurs pleuraient littéralement devant leurs crédits calcul épuisés. Maintenant, le GENCI fait de la publicité sur les réseaux sociaux et incite les chercheurs des secteurs publics et privés, académique ou industriel à déposer des demandes pour attribution de temps sur ses machines en France ou en Europe. On trouve sur Internet des sites qui expliquent ce que sont le GENCI et ses trois missions. Dernière nouveauté : une agréable voix féminine vous invite dans une vidéo 201 à faire, en deux clics, une demande de temps de temps de calcul sur un calculateur d’exception ! 201 https://www.genci.fr/sites/default/files/Livret-information-Genci.pdf

288

De l’IBM 360/75 au superordinateur Jean Zay

La presse nationale  : Le Monde informatique, Le Monde diplomatique, Libération, L’Observateur, Le Midi libre, etc. rivalisent pour obtenir les interviews les plus claires des chercheurs de pointe. GENCI participe activement à cette information. Tous les mois sur son site web il vous communique dans la rubrique actualité la dernière idée nouvelle à peine sortie d’un des multiples laboratoires ou entreprises lancés dans cette course à la nouveauté. Il est : « En charge de mettre à disposition des moyens de calcul et de traitement de données massives performants, GENCI a pour mission, au niveau national et européen, de favoriser l’usage du calcul intensif associé à l’Intelligence Artificielle au bénéfice des communautés de recherche académique et industrielle. » Simultanément, un fléchissement non pas de la croissance, mais du coefficient de l’exponentielle de croissance des machines disponibles se manifeste. Le dernier TOP500 paru en juin 2021 suit bien cette tendance. Le classement est inchangé. Il ne faut pas en conclure que la croissance de la puissance est arrêtée ou que les besoins stagnent. Au contraire, mais il y a à cela plusieurs raisons. En voici deux  : le rythme d’avancées des technologies pour la génération des machines conventionnelles a ralenti. Un certain nombre de travaux peuvent être exécutés dans les centres équipés de machines nouvelle génération, de plus faible puissance que celles avoisinant le TOP, mais plus adaptées au problème à traiter. En revanche, une série de problèmes scientifiques demeureront toujours tributaires de la puissance installée dans les trois centres nationaux. Ce qui est certain c’est qu’on est en train de vivre un grand bouleversement. Deux révolutions sont en route ou à venir : celle de l’Intelligence Artificielle, et celle de l’avènement du quantique dans l’informatique. Mais où est la grande révolution ? Dans l’importance que prend l’Intelligence Artificielle dans nos vies ? Dans l’avènement du quantique dans nos technologies ou dans le passage dans le futur de l’informatique quantique électronique à l’informatique quantique photonique ? Un autre futur s’entrevoit, mais sans qu’il soit possible de dire ce qu’il sera. Une idée dont on croyait qu’elle ne serait applicable que dans vingt ans peut l’être quelque part dans le monde deux jours après et diffusée sur le Net. Les mots Intelligence Artificielle, ordinateur quantique sont partout, dans les revues scientifiques, mais aussi dans toute la presse, à la télévision. Nous ne pouvons ici que signaler les grands problèmes techniques et philosophiques qui se posent, quelques solutions entrevues et concrètement voir comment est abordé le premier challenge, celui de l’Intelligence Artificielle avec la machine parmi les plus puissantes d’Europe disponible actuellement à Orsay.

12.1 Évolution technique de l’IDRIS pendant la période 2013-2021 Cette période, à l’IDRIS, a été celle de l’exploitation des machines Ada et Turing prévues pendant la période précédente, puis de leur remplacement par l’ordinateur Jean Zay. L’augmentation de volume du stockage des données a été continue. En 2012, la plateforme répondait au schéma de la figure 131.

Période 2013-2021 289

Figure 131 – Configuration de la plateforme en 2012

Simultanément, depuis l’été 2012 la première phase de l’opération d’augmentation des capacités de stockage, a conduit à un appel d’offres pour le remplacement de la machine d’archives Gaya. C’est la proposition IBM qui a été retenue.

12.1.1 Calendrier des installations 2013 a été la première année d’exploitation de la nouvelle configuration Turing (Blue Gene/Q) et Ada (x3750), installée durant le second semestre de 2012, à la suite de la procédure d’acquisition lancée à l’automne 2011 par GENCI. Après la campagne exceptionnelle dite des Grands challenges à la fin de 2012, pendant la phase de qualification des nouveaux supercalculateurs, ceux-ci ont été pleinement opérationnels dès le 1er janvier 2013 pour la campagne d’attribution d’heures qui s’ouvrait. Durant toute l’année, ils ont été remarquablement fiables, avec une disponibilité de 98,5 % pour Turing et 99,5 % pour Ada (hors les arrêts programmés pour des mises à niveau des systèmes). Ada était une machine généraliste, Turing était plus spécifique, avec des processeurs lents, mais en grand nombre et reliés par un excellent réseau d’interconnexion. Elle était particulièrement adaptée aux calculs massivement parallèles nécessitant peu de mémoire par cœur.

290

De l’IBM 360/75 au superordinateur Jean Zay

L’année 2014 a été la deuxième dans l’exploitation des calculateurs Turing (Blue Gene/Q) et Ada (x3750). À  nouveau, ils ont fait preuve d’une fiabilité remarquable, avec pour chacun une disponibilité, hors les arrêts programmés pour des mises à niveau des systèmes, de l’ordre de 99,5%. De plus, à la suite de la décision prise par GENCI et le CNRS à la fin de l’année, la configuration de la machine Turing a augmenté de moitié. En 2014, elle est passée quasiment à 100 000 cœurs de calcul et à 100 To de mémoire centrale, ce qui a permis d’attribuer chaque année 655  Mh sur cette machine. Après une installation réalisée dans le temps record d’un mois, l’ensemble de la nouvelle configuration a été opérationnelle fin novembre. La machine d’archives qui pilote la robotique de cartouches magnétiques, a été remplacée en 2014. C’est donc d’un environnement largement étendu dont les utilisateurs ont bénéficié jusqu’à la fin de vie de la génération des supercalculateurs Turing (Blue Gene/q) et Ada (x3750). L’année 2015 a été marquée par l’extension des capacités disques des configurations de calcul avec l’ajout de 3  Po supplémentaires aux 2  Po disponibles depuis 2012, via des disques de nouvelle génération aux performances Figure 132 – Ordinateurs en service entre 2013 et 2021 nettement augmentées.

12.1.2 PRACE en France et les mésocentres Depuis la mise en œuvre du schéma directeur informatique de la recherche groupant le CNRS et l’Enseignement supérieur, les mésocentres se sont multipliés. Ils communiquent entre eux et avec l’étranger par RENATER. Ce sont d’abord les gros centres universitaires ou centres régionaux, ou centre autour d’une grande école, ou centre de calcul du secteur développement d’une entreprise qui a des liens avec la recherche. «  Le projet Equip@meso (Équipement d’excellence de calcul intensif de mésocentres coordonnés) 202 a été retenu dans le cadre des appels à projet Equipex 2010 des investissements d’avenir sur la période 2011-2019. Ses objectifs sont le développement des équipements et des interactions au sein des centres régionaux de calcul (compétences, capacités de calcul, formations) et le soutien de l’initiative HPC-PME. » 202 https://cat.opidor.fr/index.php/Equip@meso

Période 2013-2021 291

Qu’est-ce qu’un mésocentre ? − Des moyens humains, des ressources matérielles et logicielles, à destination d’une ou plusieurs communautés scientifiques, issus de plusieurs entités (EPST, universités, industriels), d’une même région, doté de sources de financement propres et destiné à fournir un environnement scientifique et technique propice au calcul haute performance. C’est une structure pilotée par un comité scientifique (plus ou moins structuré) et évaluée régulièrement. La liste des mésocentres en France en 2018 est donnée ci-dessous. Auvergne-Rhône-Alpes Centre Blaise Pascal / Pôle Scientifique de Modélisation Numérique (CBP/PSMN), GRICAD, Grid’5000 – Grenoble, Grid’5000 – Lyon, MUST calcul mutualisé entre le CNRS (l’université Savoie-Mont Blanc) Clermont Auvergne

P2CHPD, PMCS2I École centrale de Lyon

Bourgogne-FrancheComté

Université

Bretagne

GenOuest, Grid’5000 – Rennes, IFREMER

Centre-Val de Loire

CaSciModOT

Étranger

Grid’5000 – Luxembourg

Grand Est

Explor, Grid’5000 – Nancy, ROMEO (plateforme technologique de l’université de Reims Champagne-Ardenne), UNISTRA

Guadeloupe

Centre Commun de Calcul Intensif (C3I)

Hauts-de-France

Grid’5000 – Lille, MatriCS (plateforme pluridisciplinaire de calculs de l’université de Picardie-Jules Verne)

Nord-Pas-de-Calais Normandie

Criann

Nouvelle-Aquitaine

CALI, Mésocentre de calcul Intensif Aquitain (MCIA), SONEL

Occitanie

Calmip, GenoToul, Meso@LR,

Pays de la Loire

CCIPL, Grid’5000 – Nantes, ICI-CNSC

Provence-Alpes-Côte d’Azur

CCIAM, Grid’5000 – Sophia, SIGAMM

Île-de-France

Centrale-Supelec, centre de calcul, DataCenter@UPSud, ESPRI, GRIF, MeSU (Sorbonne-université), MesoPSL (université PSL), PHYMATH, S-CAPAD

Figure 133 – Liste des mésocentres en 2018

292

De l’IBM 360/75 au superordinateur Jean Zay

12.1.3 Comparaison des puissances installées et du TOP500 La même méthode que pour les périodes précédentes est employée, même si elle est moins bien adaptée maintenant que la puissance n’est plus qu’un critère parmi d’autres et que la configuration étant stable pendant plusieurs années, le choix des limites des périodes étudiées soit plus délicat.

Figure 134 – Courbes de régression des puissances de 2013 à 2020

Période 2013-2021 293

Période 2013-2020

Facteur multiplicatif tous les 2 ans

Coefficient a centre de calcul

TOP

centre de calcul

TOP

1,31

1,38

1,72

1,90

En moyenne tous les deux ans la puissance totale installée est multipliée par 1,72 et celle du TOP par 1,90. La croissance a été moins forte à la fois pour le TP500 et l’IDRIS. Les deux premières places au TOP500 du 28  juin 2021 restent inchangées avec les mêmes ordinateurs. La course à l’exascale subit une pause. Le site du TOP500 dit qu’elle demeure élusive. Le Fugaku reste l’ordinateur commercial installé le plus puissant dans un centre de recherche avec des pointes mesurées lors des benchmarks de 537 Pflops. C’est trois fois supérieur à la puissance du Summit installé par le DOE (département de l’énergie) à l’Oak Ridge National Laboratory (ORNL) dans le Tennessee aux États-Unis. Summit a atteint l’exascale dans un cas très particulier et avec une précision réduite à 16 bits.

12.1.4 Ordinateur Jean Zay L’année 2019 a été pour l’IDRIS une année de transition principalement consacrée à la préparation du renouvellement à venir de ses supercalculateurs. La collaboration entre l’IDRIS et GENCI, et pour la première fois des spécialistes de l’Intelligence Artificielle, en vue du remplacement des anciennes configurations de calcul Ada et Turing, a commencé dès le début de l’année 2017. Elle a abouti en 2019 à l’acquisition du premier supercalculateur hybride accéléré installé en Europe, de la compagnie. Hewlett-Packard Entreprise (HPE), C’est une combinaison de technologies Intel CSL et Nvidia GPU reliés par un réseau très haut débit OPA. Il occupe une surface au sol de 150 m2, pèse 43 tonnes et approche les 2  MWh de consommation électrique. Ce supercalculateur de nouvelle génération, baptisé Jean Zay avait dans sa première configuration une puissance de crête de 16 Pflops. Deux opportunités, une donation de Facebook et l’anticipation de l’extension de la machine initialement prévue en 2021 ou 2022 et destinée à préserver son homogénéité, ont porté maintenant ses caractéristiques à 28,2 Pflops. Cette machine est aussi la première du parc GENCI à offrir un premier niveau de stockage haut débit de 2,5 Po à plus de 0,5 To/s basé sur des mémoires flash et non des disques rotatifs. Il est le premier supercalculateur français convergé entre calcul intensif et Intelligence Artificielle, issu du plan national #AIforHumanity. Les nouveaux accélérateurs de type GPU optimisent le traitement des calculs intensifs et fournissent plus de 82 % de la puissance de calcul. Côté stockage de données, Jean Zay bénéficie d’une organisation hiérarchique sur plusieurs niveaux qui lui permettent de soutenir une charge très importante d’accès aux données avec des débits proches de 0,5 To par seconde. Jean Zay est aussi un champion de l’efficacité énergétique grâce à sa technologie de refroidissement à eau tiède de dernière

294

De l’IBM 360/75 au superordinateur Jean Zay

génération, dont les calories sont récupérées pour chauffer le bâtiment CNRS de l’IDRIS et potentiellement 1000 logements. L’architecture de Jean Zay préfigure celles des machines exaflopiques (capables de faire 1  milliard de milliards d’opérations) à venir. À  ce titre, Jean Zay est une plate-forme idéale pour développer les applications massivement parallèles et accélérées de demain, où un seul chercheur accède à tout ou partie du supercalculateur pour résoudre à l’échelle de la machine un problème scientifique donné ou exécuter un ensemble de travaux indépendants (simulations d’ensemble, études d’incertitudes et d’optimisation…) ou couplés (simulations multi-physiques). Les caractéristiques techniques détaillées ci-dessous (figure  135) en font une architecture particulièrement bien équilibrée et aussi bien adaptée aux problématiques du HPC qu’à celles de l’IA : − 86 344 cœurs de calcul Intel Cascade Lake cadencés à 2,5 GHz ; − 1 292 GPU NVIDIA V100 avec 32 Go de mémoire HBM2 (phase 1) ; − 1 404 GPU NVIDIA V100 avec 16 Go de mémoire HBM2 (extension) ; − 427 To de mémoire totale, − un réseau d’interconnexion Intel Omni-Path à 100 Gb/s avec une topologie de type Enhanced-Hypercube 8D ; − un système de stockage de premier niveau en technologie Full Flash de 2,2 Po, accessible avec une bande passante supérieure à 500 Go/s ; − un système de stockage capacitif de second niveau en technologie disques rotatifs de 35 Po de volumétrie accessible avec une bande passante supérieure à 150 Go/s.

Figure 135 – Caractéristiques techniques du Jean Zay

Les trois centres nationaux sont alors équipés de supercalculateurs comme le montre la figure 136.

Période 2013-2021

Supercalculateur Occigen CINES

295

Supercalculateur Jean Zay IDRIS

Supercalculateur Joliot-Curie TGCC

Figure 136 – Les machines du GENCI dans les trois centres nationaux

12 .2 Organisation administrative L’ensemble PRACE-GENCI est un franc succès, même s’ils sont imparfaits. On croule un peu sous le nombre des comités, commissions, groupes de travail, ateliers, mais au moins on n’y discute plus de ticket modérateur, ni de l’intérêt de l’informatique. Un jeune chercheur ne peut imaginer la nature des luttes de ses aînés d’il y a trente ans pour la survie des centres de calcul.

Figure 137 – Missions de GENCI-PRACE

296

De l’IBM 360/75 au superordinateur Jean Zay

Jusqu’à maintenant, les trois missions de GENCI-PRACE : calcul intensif, participation des centres régionaux et présence à l’international, sont identiques sous des noms à peine différents de ceux employés dans le premier schéma directeur CNRS-Enseignement supérieur où il était question de calcul intensif dans les grands centres, de centres universitaires, et d’un réseau efficace reliant le tout. Mais il pourrait y avoir des changements dans une décennie ou plus avec les nouvelles technologies. Des changements sont intervenus aussi dans l’organisation interne du centre. La réorganisation des services commencée sous la direction de P. Salzedo et qui a continué depuis s’est affirmée. Maintenant, sept groupes participent au service aux utilisateurs. Il y a cinquante ans, en France des chercheurs en informatique travaillaient à réinventer la roue. Maintenant, avec les ingénieurs de haut niveau des centres de calcul, ils travaillent avec les constructeurs à mettre au point les machines les plus puissantes du moment ou celles qui vont le devenir.

12.2.1 MICADO La Mission-Calcul Données (MICADO) du CNRS 203, a été créée le 2 mars 2015. Elle est présidée par Denis Veynante. Son comité de pilotage est constitué par le Comité d’Orientation pour le Calcul Intensif (COCIN). Elle doit 204 : − assurer la définition et la mise en œuvre d’une politique globale et cohérente du CNRS pour tout ce qui concerne le calcul haute performance, les grilles, le « cloud » et les infrastructures de données massives dès que le coût en investissement et/ou en fonctionnement, y compris les charges salariales, est significatif. En conséquence, la mission a la charge de tous les projets d’investissement du CNRS (sur budget opéré par le CNRS, que ce soit en subvention d’État ou en ressources propres) dans ce domaine, y compris les projets d’infrastructures immobilières ou de travaux immobiliers « conséquents » associés ; − piloter les ressources humaines et financières affectés aux centres de calcul, grilles, laboratoires dédiés tels que IDRIS, CC-IN2P3 (hors missions spécifiques IN2P3), France-Grilles, Maison de la simulation, LCG, etc. en partenariat avec les instituts de rattachement de ces unités. La mission présidera le conseil d’administration de l’IDRIS et participera à celui du CC-IN2P3 ; − veiller à la cohérence de la politique du CNRS dans le domaine défini précédemment avec les « objets » de niveau national ou international. Il est aussi l’un des représentants du CNRS aux conseils d’administration de GENCI, de RENATER, du CINES et au comité de pilotage d’INFRANUM ; − aider les directeurs scientifiques référents à construire, avec nos partenaires, une stratégie conjointe en matière de calcul haute performance et de grandes masses de données. Cette stratégie s’appuiera en particulier sur les mésocentres et les centres de compétences mutualisés dans lesquels le CNRS s’investit ou décidera de s’investir. 203 http://www.cocin.cnrs.fr/

204 http://www.cocin.cnrs.fr/spip.php?rubrique31

Période 2013-2021 297

12.2.2 Identification des services gestion des ressources En charge de mettre à disposition des moyens de calcul et de traitement de données massives performants, GENCI a pour mission, au niveau national et européen, de favoriser l’usage du calcul intensif associé à l’Intelligence Artificielle au bénéfice des communautés de recherche académique et industrielle. Un tout nouveau livret d’information des services et ressources GENCI dans les centres nationaux est à la disposition des utilisateurs 205. En voici le sommaire :

Les ressources sont toujours attribuées sur des critères scientifiques, mais pour plus d’efficacité une petite partie du temps l’est avec plus de souplesse pour tenir compte momentanément de contraintes matérielles ou logicielles, en particulier au moment de changement de machine. Deux fois par an, sous la coordination du GENCI, un appel à propositions commun à l’ensemble des centres nationaux (CINES, IDRIS et TGCC) est organisé pour une allocation d’heures valable un an. Les demandes de ressources 206 se font par le formulaire DARI 207 (Demande d’Attribution de Ressources Informatiques) pour l’ensemble des centres. Le circuit des demandes d’allocation est schématisé dans la figure 138 ci-après.

205 https://www.genci.fr/sites/default/files/Livret-information-Genci.pdf,

en juin 2021. 206 https://www.edari.fr 207 http://www.idris.fr/docs/formulaires.html

mis en ligne

298

De l’IBM 360/75 au superordinateur Jean Zay

Figure 138 – Cheminement d’une demande d’allocation d’heures

Les demandes sont examinées du point de vue scientifique par des comités thématiques. Puis, un comité d’évaluation se réunit pour statuer sur les demandes de ressources et indiquer au comité d’attribution, placé sous la responsabilité de GENCI, les propositions d’affectation des heures de calculs sur les trois centres nationaux. Entre ces deux appels à projets, la direction de l’IDRIS étudie les demandes spécifiques (dites «  Au fil de l’eau  ») et effectue des attributions limitées pour éviter le blocage de projets en cours. Afin de pouvoir évaluer et améliorer les performances de leurs codes sur la machine, les nouveaux projets disposent d’une procédure appelée « Accès préparatoire » permettant de bénéficier de facilités. En une séance ont allouées : − 50 000 heures cœurs sur la partition CPU de Jean Zay ; − 1000 heures GPU sur la partition GPU de Jean Zay. Depuis avril 2010, PRACE a organisé 20 appels à projets qui ont permis d’offrir plus de 23 milliards d’heures à 734 projets européens. Ci-après, la liste des comités thématiques associés à chaque secteur : − Environnement ; − Écoulements non réactifs ; − Écoulements réactifs et/ou multiphasiques ; − Biologie et santé ; − Astronomie et géophysique ; − Physique théorique et physique des plasmas ; − Informatique, algorithmique et mathématiques ; − Dynamique moléculaire appliquée à la biologie ;

Période 2013-2021 299

− Chimie quantique et modélisation ; − Physique, chimie et propriétés des matériaux ; − Intelligence Artificielle et applications transversales du calcul.

12.2.3 Benchmark et cas d’usages D’après une étude Glassdoor, le métier de Data scientist est aujourd’hui le métier n° 1 au monde. Il est également devenu l’un des plus rares. La preuve : avec plus de 90 % des données mondiales créées ces deux dernières années, le nombre de Data labs et de projets Data a littéralement explosé dernièrement. Amplifié par un besoin d’innovation fort des entreprises, un « Time-to-Market » accéléré et une pénurie de ressources, ce phénomène ne fait que s’accroître… et pas uniquement dans le bon sens. Seulement 30  % des projets réussissent à franchir l’étape de l’industrialisation à grande échelle ! Data labs et projets Data s’imposent incontestablement comme des accélérateurs de transformations digitales, mais plus de six projets sur dix resteront au stade de prototypes, pire seront abandonnés.

12.3 L’Intelligence Artificielle Les publications, livres et articles dans la presse ou sur le Net traitant de l’Intelligence Artificielle sont extrêmement nombreux, 3000 en dix ans, dont 80 % ces quatre dernières années. Les annonces sur les réseaux sociaux se multiplient. Des histoires de l’IA commencent à paraître. Récemment, une découverte dans des fouilles, fait reculer les débuts de l’informatique à 23 000 ans, aux Sumériens, en l’assimilant à ceux du calcul 208. Qu’en sera-t-il pour celle de l’Intelligence Artificielle ? Il est utile avant d’étudier de l’Intelligence Artificielle à l’IDRIS, de placer le concept d’IA dans un cadre plus large. Bien que dans les rapports d’activité de l’IDRIS, dès l’installation du Turing, une grande place soit faite à la préparation des outils pour l’Intelligence Artificielle nous nous bornerons à suivre l’explosion de l’intérêt pour l’IA à partir du moment où elle est devenue officiellement un enjeu pour l’État. Plusieurs définitions de l’IA reflètent l’usage qu’en fait son auteur. Un guide 209 pour l’utilisation de l’IA à grande échelle dans l’entreprise la définit ainsi : « Cette expression qui a déjà fêté ses soixante ans, mais qu’on croirait tout juste née… l’Intelligence Artificielle, c’est la capacité que l’on donne à une machine (un robot, un ordinateur) de réaliser des tâches intellectuelles complexes qui étaient jusque-là réalisées par l’Homme. »

208 https://www.techno-science.net/definition/6170.html 209 Vekia-Guide :

Les 5 pré-requis pour la réussite de l’IA à grande échelle.

300

De l’IBM 360/75 au superordinateur Jean Zay

12.3.1 Rapport Cédric Villani Une mission a été confiée le 3 septembre 2017, par le Premier ministre Édouard Philippe à Cédric Villani, brillant mathématicien, lauréat de la médaille Fields : Donner un sens à l’Intelligence Artificielle  : pour une stratégie nationale et européenne. Il la définit lui-même : Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Le rapport a été remis le 8 mars 2018 210. Il insiste dès la première ligne sur la difficulté d’une définition : « L’Intelligence Artificielle désigne en effet moins un champ de recherches bien défini qu’un programme fondé autour d’un objectif ambitieux  : comprendre comment fonctionne la cognition humaine et la reproduire, créer des processus cognitifs comparables à ceux de l’être humain. » Le rapport est divisé en six parties : − partie 1 : Une politique économique articulée autour de la donnée ; − partie 2 : Pour une recherche agile et diffusante ; − partie 3 : Anticiper et maîtriser les impacts sur le travail et l’emploi ; − partie 4 : L’intelligence au service d’une économie plus écologique ; − partie 5 : Quelle éthique de l’IA ? − partie 6 : Pour une Intelligence Artificielle inclusive et diverse. Il pointe cinq focus sectoriels  : transformer l’éducation, la santé à l’heure de l’IA, faire de la France un leader de l’agriculture augmentée, une politique, d’innovation et de rupture dans le secteur du transport au niveau européen, l’IA au service de la défense et de la sécurité, avec respectivement, cinq secteurs : éducation, santé, innovation, défense, sécurité ayant chacun plusieurs axes de recherche. Pour chacune des six parties, C. Villani prévoit toutes les questions que se poseront les scientifiques et le grand public, et il indique les réflexions à mener pour y répondre. Il s’inquiète de la place de la France dans cette révolution. Il va jusqu’à écrire dans son introduction : « Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de colonies numériques 211. » C. Villani a consulté un grand nombre de personnes en France et à l’étranger avant d’écrire son rapport. Son contenu a été connu dès sa remise. Lui-même l’a rendu public le 28 mars. Il a inspiré directement le discours que le président de la République, Emmanuel Macron a fait le 29  mars 2018 au Collège de France. À cette occasion il a annoncé un plan de soutien à la recherche de plus d’un milliard d’euros et la création d’un comité de pilotage pour l’Intelligence Artificielle au plan national. La première réunion de ce comité, présidé par deux ministres, s’est tenue à Toulouse en novembre 2018. L’état financera la

210 https://www.vie-publique.fr/sites/default/files/rapport/pdf/184000159.pdf

211 Cette expression traduite de l’anglais « cyber colonisation » employée par Catherine Morin Desailly est faite au nom de la Commission européenne en 2013.

Période 2013-2021 301

recherche en Intelligence Artificielle à hauteur de 655 millions sur un total de 1,5 milliard 212 pour le plan dans son ensemble. C.  Villani a fait une véritable croisade pour défendre son idée devant des enseignants, des médecins, des entrepreneurs, des financiers, des lycéens, etc. Il a toujours insisté sur deux points cruciaux, l’engagement de l’état et la nécessité d’avoir une puissance de calcul suffisante dans un centre dédié. Le gouvernement l’a chargé de plusieurs autres missions, dont l’une sur l’enseignement des mathématiques : « Jean-Michel Blanquer a confié une mission sur les mathématiques 213 à une équipe menée par Cédric Villani, député de l’Essonne, et Charles Torossian, inspecteur général de l’Éducation nationale. Le rapport sur l’enseignement des mathématiques en France a été remis au ministre de l’Éducation nationale le lundi 12 février 2018. »

12.3.2 L’apprentissage profond avec Yann Le Cun C. Villani, en tant que mathématicien, s’intéressait, à côté de la théorie de l’IA, à son impact sur la société. Yann Le Cun, titulaire du prix Turing, l’équivalent du prix Nobel pour l’informatique a une autre approche 214. Pour lui, c’est en essayant de construire une machine intelligente qu’on apprend ce qu’est l’IA 215. Il pose dès 1987 216, quand il débarque aux États-Unis en tant que « post doc », les premiers jalons de l’apprentissage profond, le «  deep learning  ». Il n’était question que de reconnaissance vocale et de détection de fraudes sur les cartes de crédit « car il n’y avait pas beaucoup de données pour entraîner les machines » et les ordinateurs n’étaient pas assez rapides. De plus les logiciels, pour ce type de problèmes, sont difficiles à écrire. Il a fallu attendre 2012 et l’arrivée des cartes graphiques GPU pour les données soient assez nombreuses et la vitesse de calcul suffisante 217. Yann Le Cun a écrit plus de 200 articles et documents, à la fois pour expliquer comme l’IA bouleversait notre quotidien et en même temps la démystifier. Il explique que ce n’est pas parce qu’on a écrit pour un ordinateur des algorithmes qui lui ont permis d’être champion au jeu de go qu’il est devenu intelligent. La dernière étape n’est pas encore franchie. «  On n’a pas encore mis au point les techniques de base qui nous permettraient de construire une machine vraiment intelligente. Les dangers immédiats concernent davantage l’invasion de la vie privée que l’émergence 212 https://www.enseignementsup-recherche.gouv.fr/cid136649/la-strategie-nationale-

de-recherche-en-intelligence-artificielle.html mesures pour l’enseignement des mathématiques, https://www.education.gouv.fr/ 21-mesures-pour-l-enseignement-des-mathematiques-3242 214 Quand la machine apprend, Yann Le Guen, éditions Odile Jacob. 215 Le Nouvel observateur, n° 2867 du 17/10/2019. 216 https://www.wedemain.fr/inventer/qui-est-yann-lecun-ce-francais-qui-a-decroche-leprix-turing-le-nobel-de-l-informatique_a4008-html/ 217 https://www.lesechos.fr/tech-medias/intelligence-artificielle/yann-lecun-recoit-leprix-turing-cest-une-histoire-pleine-de-rebonds-1004128 213 21

302

De l’IBM 360/75 au superordinateur Jean Zay

d’une armée de machines intelligentes qui décideraient de se débarrasser des humains. Mais ces dangers ne sont pas propres à l’Intelligence Artificielle, ils ont plutôt à voir avec le Big Data et l’apprentissage automatique de base. » Il s’attache lui-même et son équipe à écrire un modèle du cerveau avec ses neurones et ses synapses artificiels. Il rappelle inlassablement que l’IA intervient dans tous les domaines, en particulier qu’elle assiste, avec tous les objets connectés, qu’elle soigne avec l’aide au diagnostic, en particulier médical, qu’elle est active en recherches pharmaceutiques, qu’elle compose quand on lui demande de continuer la Symphonie inachevée, qu’elle traduit, qu’elle conduit avec les automobiles autonomes, qu’elle compose, qu’elle vend avec l’e-commerce etc. Dans un de ses articles, Yann Le Cun fait part de ses réflexions sur le temps que met une idée nouvelle à être acceptée. Il martèle toujours la même idée (cf. note 215). « J’ai été un peu surpris du temps que ça a pris pour que ces idées décollent. Il y a eu une espèce de décennie perdue entre le milieu des années 90 et le milieu des années 2000 où très peu de gens travaillaient sur la question, et ça nous a amenés parfois à douter de nous-mêmes. En fait, beaucoup d’idées ont été maintenues sous pression et quand la cocotte-minute a explosé, ça a été une révolution dont la rapidité nous a surpris. Les processus de la science ont fonctionné d’une certaine manière, c’est normal qu’il y ait des résistances aux idées nouvelles. » La lenteur de la prise de conscience de l’importance d’une idée nouvelle est développée plusieurs fois dans les chapitres précédents. Le même phénomène se produit dans des domaines d’activité autres que l’informatique. Le processus aboutissant à la prise de la décision de la construction du tunnel sous la Manche en est un bon exemple 218. Bien entendu, il n’est pas dans nos ambitions, ni nos compétences de recenser tout ce qui se fait à l’IDRIS, ou ailleurs dans le domaine de l’Intelligence Artificielle. Mais on peut juste remarquer que les définitions qui sont proposées par C. Villani et Yann Le Gun seront peut-être révisées dans le futur. Les travaux récents sur le blob 219, cette cellule géante apparue sur Terre il y a 3,8  milliards d’années, bien avant les végétaux et les animaux et a fortiori l’homo sapiens, se révèle capable de boire, de manger, de choisir sa nourriture, 218 Note de l’auteure  : En 1950, le cours de Georges Connes, professeur de littérature anglaise, portait sur l’étude de l’année 1929 en Angleterre. Une proposition de construction d’un tunnel sous la Manche avait été faite. La majorité du département travailliste était favorable. Puis, une commission a été nommée. Sir William Bull et le baron d’Erlinger, champions infatigables de la bonne cause, remuaient ciel et terre. Un ingénieur, M.  Collard, a rédigé les projets techniques avec la construction d’une ligne nouvelle à traction électrique. Il a même donné des horaires Paris-Londres en 2 h 45. Les partisans l’étaient sans aucune réserve. Les autres invoquaient de multiples raisons sans fondement et contradictoires pour le refuser. G. Connes dit qu’il est certain que le bon sens finira par l’emporter, mais qu’il ne sait pas quand. 219 Le blob, une cellule qui apprend, le journal du CNRS,16  juillet 2020, Reportage CNRS, vidéo.

Période 2013-2021 303

de se reproduire, de se déplacer, d’apprendre, de trouver le plus court chemin pour sortir d’un labyrinthe et tout cela et bien d’autres choses, sans cerveau ni système nerveux. On pense déjà à mettre à profit ces mécanismes quand on les aura élucidés pour arrêter la prolifération des cellules cancéreuses et améliorer nos robots. Où nous conduiront les neurosciences et les informaticiens ?

12.3.3 La Chine avec Kai-Fu Lee Kai-Fu Lee 220 est considéré, entre autres, comme expert dans deux domaines, l’Intelligence Artificielle et l’histoire la Chine. Pour lui  : L’IA sera plus foudroyante que l’électricité. Avec la différence que pour distribuer l’électricité il a fallu établir des lignes et planter des poteaux alors que pour l’IA les différents réseaux sont tous prêts. Elle va supprimer de nombreux emplois routiniers. Les investisseurs sont partout dans le mode à prendre des risques, alors que Thomas Edison a dû faire des emprunts à une banque. La Chine est passée en dix ans du stade de copieur à celui d’innovateur. « L’Intelligence Artificielle va provoquer des changements majeurs et rapides comme aucune autre révolution industrielle ne l’a fait jusqu’ici, ouvrant la voie à un nouvel ordre mondial bipolaire. » Et bien sûr, il est certain que la révolution viendra de la Chine. Dans son livre China, Silicon Valley and the newWorld Order, il distingue l’IA en ligne, l’IA professionnelle, l’IA avec le deep learning, l’IA perceptive avec la prolifération des capteurs, l’IA autonome qui donne la capacité de manipuler, de bouger, comme les robots ou l’appareil qui apprécie la maturité des fraises et avance un bras articulé pour les cueillir. Kai-Fu Lee démontre à quel point l’IA va changer nos modes de vie et transformer l’économie, en privilégiant les individus les plus adaptables et les plus créatifs. Il propose d’utiliser les ressources financières considérables ainsi générées afin de soutenir les métiers où l’humain est irremplaçable : l’éducation, l’artisanat, les services à la personne.

12.3.4 Convergence HPC-IA Il s’agit à la fois des convergences des architectures et des usages. 221 Le HPC a besoin de l’IA pour traiter les masses de données sortant des grands instruments scientifiques, pour traiter les résultats des simulations numériques. L’IA a besoin du HPC pour : − le passage à l’échelle apprentissage des réseaux de neurones (réseaux plus complexes, plus de données, plus de classes…) ; 220 https://www.lesechos.fr/tech-medias/intelligence-artificielle/kai-fu-lee-cerveau-

de-lintelligence-artificielle-en-chine-1023047

221 http://orap.irisa.fr/wp-content/uploads/2018/11/5-Orap-F42-GENCI-Stephane-

Requena.pdf

304

De l’IBM 360/75 au superordinateur Jean Zay

− l’automatisation du choix des modèles (AutoML) ; − l’explicabilité et traçabilité de l’IA (XAI). En mars 2018, à la suite du rapport de C. Villani, le MESRI a demandé à GENCI d’intégrer une composante dédiée à l’IA dans le projet de la nouvelle machine pour l’IDRIS. Il en est résulté l’installation du prototype Ouessant : − pile 12 nœuds OpenPOWER quadri GPU nVIDIA P100 ; − logiciel PowerAI sous Docker. L’IDRIS a participé dès sa mise en service à un projet de grande envergure sur la reconnaissance de la flore mondiale. Les performances ont été très bonnes sur un nœud, mais un problème est survenu pour le passage à l’échelle avec plusieurs nœuds. L’installation du prototype a été un succès dès le début. On a vu précédemment que l’arrivée d’un nouveau supercalculateur dans un des trois centres nationaux est toujours un événement. Avec sa structure massivement parallèle et ses accélérateurs GPU, le Jean Zay apportait de la puissance à la Très Grande Infrastructure de Recherche GENCI (TGRIG-GENCI). Les utilisateurs qui faisaient de grosses simulations dans tous les domaines déjà explorés, chimie, astronomie, astrophysique, pharmacie, médecine, etc. l’attendaient. Mais c’était d’autant plus excitant que ce n’était pas qu’une augmentation de puissance. Son architecture était en rupture avec celle de la génération précédente et elle annonçait la génération future. Ce n’était pas une machine quantique, mais elle pouvait dans certains cas la simuler. Elle fait du calcul intensif, mais elle peut aussi exécuter des travaux d’IA 222. Comme c’était à son installation la seule en Europe et qu’il n’y en avait pas beaucoup d’exemplaires dans le monde, son installation a été accompagnée d’un « contrat de progrès » entre les équipes du centre de calcul et celles de HPE. Elles ont travaillé ensemble au portage de six applications « phares », représentatives de la diversité des usages, avec l’aide de leurs développeurs. Couronnée de succès et unanimement saluée, cette idée novatrice servira d’exemple. Une autre convergence HPC/HPDA s’est établie entre l’IDRIS centre de calcul intensif et le CC-INN2P3, expert en gestion de données massives, pour le traitement des grands volumes de données. 223

12.4 Résultats obtenus Rappeler les matériels et logiciels mis en place ne suffit pas. L’important est de savoir ce qui en a été fait. Un an après son inauguration, Jean Zay répond aux besoins de 1600 chercheurs au travers de plus de 600 projets de recherche issus de la communauté de la simulation numérique et de l’Intelligence Artificielle. Ce n’est pas notre sujet d’en faire une analyse. Notre but n’est pas de les présenter tous, mais simplement à travers quelques exemples de montrer comment le centre s’est adapté avec les outils commercialisés, pour répondre aux besoins d’une communauté scientifique qui explosent. Ils seront divisés en trois parties : un rappel très 222 http://orap.irisa.fr/wp-content/uploads/2018/11/5-Orap-F42-GENCI-Stephane-

Requena.pdf

223 https://jcad2019.sciencesconf.org/data/JCAD_Toulouse_2019MDayde.pdf

Période 2013-2021 305

succinct de ce qu’on appelle l’Intelligence Artificielle, une présentation très réduite de ce qu’on en attend dans les différentes disciplines, et enfin deux exemples propres à l’IDRIS, la réponse au Grand challenge Jean Zay 2020 et la participation du centre à la lutte contre la Covid-19. Les domaines d’applications théoriquement envisagés pour l’ordinateur quantique sont prometteurs, parce que la machine learning et plus spécifiquement le deep learning se prêtent parfaitement au côté probabiliste de l’informatique quantique. On attend des progrès dans : − les prévisions plus exactes de la météo ; − l’apparition d’une IA forte ayant conscience d’elle-même ; − la génomique ; − la maîtrise de la matière.

12.4.1 Enjeu de programmation L’installation et la mise en service du supercalculateur Jean Zay ont été réalisées avec le soutien de GENCI par les équipes de l’IDRIS et de HPE. Elles ont démontré leur savoir-faire dans la mise en œuvre dans les délais prévus d’une grande infrastructure de calcul. Et c’était capital. La collaboration étroite entre les équipes de chercheurs et des spécialistes informaticiens de haut niveau permet bien souvent d’optimiser la mise au point des logiciels de simulation et de régler les problèmes de mise en production du supercalculateur. Ainsi sont réalisées des simulations numériques qui poussent aux limites non seulement les capacités de la machine mais aussi les logiciels de simulation eux-mêmes et l’ensemble de l’environnement informatique pour en exploiter les résultats. Elles sont ainsi essentielles pour franchir les changements d’échelle, aussi bien applicatifs que scientifiques, rendus possibles par les avancées technologiques dans le domaine du calcul intensif et de l’Intelligence Artificielle. La présence pendant cette période de rodage, des équipes du centre de calcul (spécialistes systèmes et applicatifs), de GENCI et des experts du constructeur informatique, mobilisés pour résoudre les difficultés éventuelles de démarrage de la machine, est la clé du succès. Le CNRS a d’ailleurs bien reconnu l’excellence du travail accompli puisque, dans son ensemble, l’équipe a reçu la distinction du Cristal d’or. Un exemple de cette collaboration est donné par Philippe Wautelet 224. Ingénieur, responsable du support applicatif des machines massivement parallèles de l’IDRIS, il est un exemple type de l’ingénieur de haut niveau qui fait un travail de chercheur dans un secteur de pointe, mais dont les sujets de recherche lui sont dictés par sa fonction. Il les détaille dans une interview donnée au CNRS, publié en juin 2014 dans une lettre de l’IDRIS 225. En voici un extrait. «  Par le biais des difficultés remontées par nos utilisateurs, je me suis donc intéressé à l’IA. J’ai d’abord travaillé sur le portage et l’optimisation des applications sur nos systèmes. Je me suis également impliqué sur la 224 Philippe 225 IDRIS.

Wautelet a reçu en 2014 le Cristal du CNRS. Interview de Philippe Wautelet, La lettre de l’IDRIS n° 4, juin 2014.

306

De l’IBM 360/75 au superordinateur Jean Zay

programmation hybride et sur la problématique des entrées-sorties parallèles, essentielles dans la gestion des grandes masses de données (Big Data). J’ai également développé un outil (libhpcidris) de mesure de performances et de l’utilisation de la mémoire sur Blue Gene/P, également disponible à présent sur notre Blue Gene/Q. J’ai également réalisé des tests de performance sur les systèmes d’entrées/ sorties de différentes machines européennes et en particulier sur les machines prototypes PRACE pour l’exascale. »

12.4.2 Biologie et bio-informatique L’Institut Français de Bio-informatique (IFB) est issu d’une proposition du réseau national des plates-formes (PG) de bio-informatique (ReNaBi) en réponse à l’appel à projets « Infrastructures Nationales Biologie et Santé » du programme « Investissements d’Avenir ». La bio-informatique, dans une conception large, est définie comme l’ensemble des méthodes informatique permettant de gérer et d’analyser les données produites par les sciences du vivant. Cependant, il faut noter qu’historiquement la communauté bio-informatique s’est développée à partir de l’analyse des données de séquences (d’ADN, d’ARN et de protéines), de leurs structures et de leurs interactions et n’inclut pas l’analyse des images qui constituent aussi des données biologiques très importantes. Une caractéristique essentielle des analyses bio-informatiques est qu’elles sont, le plus souvent, facilement distribuables. Si on dispose de N processeurs, il suffit de découper les produits en N lots qui seront exécutés indépendamment sans que les processeurs aient besoin de communiquer entre eux. Une grande majorité des traitements bio-informatiques ne nécessite donc pas l’utilisation des machines HPC des grands centres de calcul ou les processeurs coopèrent grâce à de coûteuses liaisons large bande passante et faible latence telle qu’InfiniBand. Le CNRS, IBM, l’INRIA, l’Institut français de bio-informatique et la start-up innovante SysFera déploient E-Biothon, une plateforme expérimentale mise à la disposition des chercheurs en bio-informatique pour accélérer et faire progresser la recherche en biologie, santé et environnement. Cette plateforme, hébergée à l’IDRIS, est constituée d’une partie de l’ancienne configuration Blue Gene/P et est accessible au travers d’un portail applicatif dédié.

12.4.3 Climat Le climat est étroitement lié à la météorologie et pour les différencier on peut dire de façon schématique que la météorologie est l’étude déterministe du temps qu’il fait, avec le détail de sa chronologie, alors que le climat est l’étude des caractéristiques statistiques du temps qu’il a fait ou qu’il pourrait faire. Le climat comporte plusieurs particularités, certaines étant communes avec la météorologie, d’autres étant spécifiques : on ne peut en isoler une sous-partie, on ne peut pas faire d’expériences contrôlées, c’est un système chaotique ou de

Période 2013-2021 307

nombreux phénomènes interagissent avec des échelles caractéristiques temporelles et spatiales qui varient continûment sur plusieurs ordres de grandeurs, etc. La modélisation numérique permet d’aborder ces différentes difficultés et joue un rôle central dans l’étude du climat, l’interprétation et la mise en cohérence de nombreux résultats aussi bien théoriques qu’issus d’observations. Le développement des modèles climatiques est intimement lié à celui des ordinateurs. Dans les années 50, John Von Neumann et ses collègues ont conçu le premier modèle numérique de météorologie sur le premier calculateur programmable existant. Quelques années plus tard, Norman Philips et son équipe ont réalisé une simulation de l’atmosphère Nord sur une période de 31 jours, qui peut être considérée comme la première simulation « climatique ». Les modèles numériques de climat sont en premier lieu des modèles de circulation générale (MCG) de l’atmosphère et de l’océan : ils sont basés sur les équations de la mécanique des fluides (équations de Navier-Stokes) qui expriment la conservation de masse, de la quantité de mouvement et de l’énergie pour un fluide. Les résultats montrent que ce raffinement de maillage permet de réduire d’importants biais des modèles, mais pas tous. En effet, on est encore très loin d’avoir des maillages assez fins pour résoudre toutes les échelles. Il faudra encore attendre probablement des dizaines d’années pour que de telles simulations soient possibles sur de longues périodes. Ainsi, il demeurera nécessaire pendant encore longtemps de modéliser ces phénomènes sous-mailles (c’est-à-dire non explicitement résolus) et de les coupler au noyau dynamique. Cette modélisation doit tout d’abord représenter la turbulence tridimensionnelle et les écoulements dont les dimensions caractéristiques sont inférieures à celles de la maille. Pour l’atmosphère, cette modélisation doit également prendre en compte la condensation de la vapeur d’eau en gouttelettes d’eau et de glace, leur organisation sous forme de nuages, la formation de précipitations éventuelles, etc. Ces phénomènes jouent un rôle clé pour les études climatiques et les prévisions météorologiques. Le développement de cette modélisation repose beaucoup sur des résultats de modèles numériques à très haute résolution mais ne couvrant qu’une surface très limitée de la Terre. Ce sont par exemple les simulations : − des grands tourbillons Large Eddy Simulation, (LES) avec un maillage de la dizaine de mètres ou les modèles d’orages ; − du Cloud Resolving Models (CRM) avec un maillage de la centaine de mètres ou du kilomètre qui peut résoudre des circulations méso-échelles associées aux nuages convectifs ; − de la simulation numérique directe, Data Numerical Simulation (DNS) qui ne permet de couvrir que des échelles très limitées. Jusqu’à peu, les échelles numériques de ces trois familles de modèles, GCM, CRM et LES, étaient disjointes. Grâce à l’accroissement des puissances de calcul, les configurations d’étude de ces modèles commencent à se recouvrir, ce qui facilite l’utilisation de modèles à très haute résolution pour développer la modélisation des phénomènes sous-mailles des modèles à résolution plus faible. Les simulations sont de plus en plus nombreuses et plus longues et plus proches des observations. Le développement des modèles climatiques nécessite des moyens importants aussi bien informatiques qu’humains, des collaborations très fortes sont nécessaires entre les développeurs.

308

De l’IBM 360/75 au superordinateur Jean Zay

12.4.4 Étude de l’écoulement des fluides Elle intervient dans beaucoup de domaines qui vont de l’aéronautique à la médecine. On peut citer : − analyse de performance pour la simulation de la propagation d’ondes en milieu hétérogène en sismique ; − simulation aux grandes échelles et validation pour les écoulements dans les compresseurs aéronautiques ; − application de faisceaux laser ultra-court dans un plasma ; − effets hydrodynamiques sur l’agrégation d’amyloïde : l’agrégation de protéines amyloïdes solubles mal repliées en fibrilles insolubles bien organisées est la marque de plusieurs maladies neuro-dégénératives telles que les maladies d’Alzheimer, de Parkinson et de Huntington. Dans le 8e plan cadre européen, dit Horizon 2020, la commission européenne a organisé la structuration de son soutien au calcul de haute performance et au traitement des grandes masses de données autour de trois piliers : un pilier technologique, avec le projet ETP4HPC qui regroupe aujourd’hui 72 organisations, un pilier infrastructure avec l’infrastructure et les projets PRACE auxquels l’IDRIS participe depuis leur origine en 2008 et un nouveau pilier scientifique constitué de centres d’excellence qui regroupent chacun un ensemble de partenaires. Huit projets ont été sélectionnés dans ce cadre en 2015, couvrant des domaines scientifiques majeurs, comme les énergies renouvelables, la conception de nouveaux matériaux, la chimie atomique et moléculaire, le changement climatique et les outils informatiques pour accroître les performances des applications HPC. Sur ces huit projets, l’IDRIS a été impliqué dans deux d’entre eux, renforçant ainsi son engagement européen : EoCoE (Energy oriented training ans consultancy in simulation and modelling) qui réunit 22 partenaires dans huit pays sous le pilotage de la Maison de la simulation et E-CAM (An e-infrastructure for software training and consultancy in simulationand modelling), qui réunit 17 partenaires choisis dans 12 pays autour de l’organisation du CECAM (Centre Européen pour le Calcul Atomique et Moléculaire) dans le domaine de la physico-chimie des matériaux.

12.4.5 Chaîne d’approvisionnement Les PME sont invitées à réorganiser leur chaîne d’approvisionnement 226 qui doit devenir intelligente. C’est la cheville ouvrière de leur activité. Elle doit être guidée par l’Intelligence Artificielle logistique qui aide à gérer les ruptures et accélère la croissance.

226 https://www.lenovo.com/fr/fr/smarter/smart-supply-chain-solutions?utm_source=−

Google&utm_medium=Search&utm_campaign=MasterBrand_Supply_Chain_Theme &cid=fr:sem:4cva69&gclid=CjwKCAjwyIKJBhBPEiwAu7zll9kea_TXcN6A2-voe2y_ 4g46jaghY9v-Znb6KzWRKU8mGaUWU3rm-hoC6TMQAvD_Bw

Période 2013-2021 309

12.4.6 Grands challenges 2020 Une période particulière de trois mois, dite Grands challenges 2020 dédiée au démarrage, aux tests et à la mise au point d’une architecture complexe, a été réservée à quelques utilisateurs, acceptant par principe les aléas de conditions opérationnelles pas totalement stabilisées, en contrepartie d’une occasion unique d’accéder à des ressources de calculs pouvant aller jusqu’à l’intégralité du supercalculateur, pour la réalisation de simulations ou de traitements exceptionnels.

Figure 139 – Projets pour les Challenges 2020

Après un appel à candidatures lancé par GENCI auprès des différents comités thématiques représentant les disciplines utilisatrices, 30 Grands challenges (18 en

310

De l’IBM 360/75 au superordinateur Jean Zay

simulation numérique et 12 en Intelligence Artificielle) ont donc été retenus et ont partagé le supercalculateur principalement entre juillet et octobre 2019. Côté recherche académique, la majorité des domaines utilisateurs étaient représentés. L’ensemble des sujets retenus se classaient dans les 9 thèmes des comités thématiques 227 (figure 139). À l’issue de cette phase, la machine Jean Zay a été ouverte à tous les utilisateurs le 1er novembre 2019. Son extension, opérationnelle depuis l’automne 2020, constitue elle-même l’opportunité de nouveaux Grands challenges. Les résultats sont publiés dans une brochure du CNRS intitulée Grands challenges 2020, Jean Zay 228 de GENCI-CNRS. Cet apport de la simulation numérique et de l’Intelligence Artificielle à la recherche ouverte, induit une activité stratégique au service de la compétitivité scientifique et économique. Il est combiné à l’utilisation, pour la première fois dans le parc de machines de GENCI, d’une machine massivement accélérée. C’est une nouvelle étape du déploiement d’une offre combinée calcul intensif/ traitement de données massives appuyée sur les deux centres de calcul d’envergure nationale du CNRS, IDRIS et CC-IN2P3. Elle est à destination des grandes infrastructures de recherche, une communauté encore absente des utilisateurs des ressources offertes par GENCI. Nul doute que cette action donnera lieu à des nouveaux projets toujours plus passionnants.

12.4.7 Recherches sur la Covid-19 En charge de mettre à disposition des moyens de calcul et de traitement de données massives performants, GENCI a pour mission, au niveau national et européen, de favoriser l’usage du calcul intensif associé à l’Intelligence Artificielle au bénéfice des communautés de recherche académique et industrielle. Dans le cadre des efforts de recherche menés au niveau national pour endiguer l’épidémie de Covid-19, il met à disposition des chercheurs académiques et industriels français ses moyens de calcul et de stockage pour leurs travaux de modélisation/ simulation, traitement de données et usage de l’Intelligence Artificielle 229. Ils y étaient invités par des annonces comme celle-ci : « Si vous êtes un chercheur intéressé par l’utilisation immédiate des ressources de GENCI situées dans les trois centres nationaux de calcul (TGCC pour le CEA, IDRIS pour le CNRS et CINES pour les universités) mais aussi par l’accompagnement de vos équipes de support. Demandez un accès prioritaire. » Cela s’applique notamment à la recherche au niveau moléculaire pour comprendre les mécanismes utilisés par le virus à développer des vaccins et des thérapies, à la recherche épidémiologique pour comprendre et prévoir la propagation de la maladie, et à d’autres approches connexes visant à comprendre

227 http://www.idris.fr/media/jean-zay/grands-challenges/grands-challenges-idris-2020.pdf 228 http://www.idris.fr/media/jean-zay/grands-challenges/grands-challenges-idris-2020.pdf 229 https://www.genci.fr/sites/default/files/RA2011-Genci-VF-opt2_0.pdf

miers pas

- RacE pre-

Période 2013-2021 311

et à stopper la pandémie. L’annexe 42 donne quelques exemples des travaux sur le sujet, effectués dans les trois centres nationaux français et des temps alloués. L’optimisation d’outils d’analyse de données d’imagerie médicale des poumons grâce à des technologies d’Intelligence Artificielle, pilotée par Émilie Chouzenoux au sein de l’équipe-projet OPIS (Optimisation, Imagerie et Santé) du centre de recherche INRIA Saclay-Île-de-France et de CentraleSupélec-université Paris-Saclay. Depuis le début de la pandémie de Covid-19, cette équipe a travaillé au développement de plusieurs outils mettant en œuvre des techniques avancées de deep learning pour l’aide au pronostic de patients atteints de la Covid-19. Citons l’outil AI-Severity (projet ScanCovIA, partenariat Institut Gustave Roussy, KremlinBicêtre, Owkin), visant à anticiper, dès la première visite, si un patient développera une forme légère ou sévère de l’infection, et l’outil MASC-Net (partenariat avec University Politehnica of Bucharest), permettant aux médecins de localiser finement et automatiquement les lésions pulmonaires dans les scanners thoraciques des patients Covid-19. L’équipe souhaite maintenant tirer parti des ressources de calcul du serveur AMD pour améliorer les performances de MASC-Net en intégrant des nouvelles bases de données mises récemment à disposition du public académique. Dans ce cas, PRACE a été particulièrement actif pour coordonner les recherches au niveau de l’Europe. Il signale 230 : Several other European actors are opening up their facilities for urgent/priority access to the HPC systems and other resources to support the research to combat the coronavirus. La carte d’Europe qu’il publie pour montrer les liaisons entre les centres de recherches travaillant sur la Covid-19 est impressionnante.

Figure 140 – Centres de recherche européens travaillant sur la Covid-19. Crédit : Shutterstock/ Inna Bigun 230 https://prace-ri.eu/hpaccess/hpcvsvirus

312

De l’IBM 360/75 au superordinateur Jean Zay

12.5 La sécurité La sécurité a été sérieusement pensée par les constructeurs et les développeurs des systèmes d’exploitation qui ont su l’intégrer pleinement dans leurs cahiers des charges et définir des modèles innovants aussi bien d’un point de vue matériel que logiciel. L’introduction de la mémoire flash complexifie l’extraction des données en mémoire car, contrairement au cas des disques durs, de solides compétences en électroniques sont requises ainsi que du matériel spécialisé. Du point de vue l’architecture logicielle, les noyaux robustes du monde UNIX et les concepts de virtualisation ont su être judicieusement réutilisés pour mettre en œuvre le principe du cloisonnement des applications. Ces précautions s’accompagnent d’autres mesures de sécurité comme la gestion fine des privilèges accordés aux applications ou la signature numérique des applications installées. La communauté des chercheurs en IA, n’était pas habituée aux pratiques des utilisateurs traditionnels du calcul intensif, ni aux contraintes d’accès d’un centre national. GENCI, a dû faire évoluer les modes d’accès aux ressources, dans le respect de règles de sécurité indispensables, étant donnés la valeur et le caractère stratégique des matériels mis à disposition. Il a fallu aller vers plus de flexibilité et de souplesse, ce dont profitent aussi tous les autres utilisateurs. Parallèlement, l’IDRIS a mis en place un environnement logiciel adapté et un support dédié de très haut niveau.

12.6 Le calcul et l’ordinateur quantique La documentation qui se veut sérieuse sur le calcul et l’ordinateur quantique est extrêmement volumineuse. Elle va d’un livre sur l’informatique quantique en 60 minutes 231 (on vous prévient quand même qu’il vaut mieux avoir quelques notions, ce n’est pas l’informatique pour les nuls), au cours de master dans nombre d’universités en France et à l’étranger. Depuis trois ans, une très vaste documentation : comprendre l’informatique quantique est disponible sur Internet et mise à jour annuellement 232. Tous les journaux scientifiques, et même la grande presse essaient de ne pas manquer une nouveauté. Afin de pouvoir éliminer de ce déluge de déclarations tout ce qui n’est que fantasme, il faut rappeler quelques notions basiques du calcul quantique. Le CEA 233 le fait très bien dans un article qui vient d’être publié en mai 2021. Dans l’informatique classique, l’information est portée par des bits qui peuvent prendre la valeur 0 ou 1. Ils sont stockés dans des cases mémoires groupées en registre. Le qubit peut être dans les deux états à la fois. Comme c’est le cas avec le chat de Schrödinger, qui dans sa cage peut être ou mort ou 231 Informatique

quantique, Franck Franchini, Amazon Italia, Logistica. l’informatique quantique, 3e édition, Olivier Ezratty. 233 https://www.cea.fr/comprendre/Pages/nouvelles-technologies/essentiel-sur-ordinateur-quantique.aspx 232 Comprendre

Période 2013-2021 313

vivant. On ne le saura qu’en ouvrant la cage. Grâce aux principes de superposition et d’intrication, un registre de N qubits est à un instant donné dans une superposition de 2 N états. Un registre de N bits ne se trouve que dans N d’entre elles. Toute opération appliquée à un registre de N qubits s’effectue donc en parallèle sur les 2N états. On peut dire aussi que l’ordinateur quantique double sa puissance à chaque qubit ajouté. Avec 10 qubits la puissance est multipliée par 210 soit 1024. Mais l’état du registre est très fragile. Il est détruit après un temps très court dit de décohérence. Une partie des problèmes techniques peut être levée dans une certaine mesure, par la simulation d’un ordinateur quantique sur un ordinateur classique massivement parallèle. Les possibilités sont tellement prometteuses que les associations public-privé fleurissent, pour être les premières à sortir un appareil programmable et commercialisable. Pour le moment, il y a quatre sortes de qubits à l’étude. Trois fonctionnent à très basse température  : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés. Le quatrième le qubit photonique travaille à la température ambiante. Les recherches se font à l’échelle mondiale 234. La théorie du contrôle optimal 235 fait appel à l’IA, et ceci depuis très longtemps. Elle consiste à rechercher une solution sous la forme mathématique d’un problème d’optimisation qu’on peut résoudre numériquement. Les trajectoires ainsi calculées en 1960 pour les montées en altitude des avions de chasse sont contraires à l’intuition. La même technique a été utilisée plus tard pour trouver la trajectoire utilisant le moins de carburant possible dans la mission Apollo. En France, Emmanuel Macron a annoncé en janvier le plan quantique français, dont le programme et l’équipement sont pilotés par le CEA, le CNRS et l’INRIA. L’IDRIS avec sa machine massivement parallèle acquiert une bonne expérience.

12.6.1 Offre en 2019 L’ENS française Umanis a fait un benchmark sur les offres d’Intelligence Artificielle tirant partie de l’informatique quantique le 12 septembre 2019 236. À cette date, D-Wave était le seul à disposer d’une solution d’IA quantique industrialisable. Mais c’était sous la forme d’un supercalculateur à installer et pas d’un service cloud managé utilisable.

234 https://lejournal.cnrs.fr/dossiers/dans-les-coulisses-de-la-nouvelle-revolution-quan-

tique 235 https://lejournal.cnrs.fr/articles/les-promesses-du-controle-quantique 236 https://www.journaldunet.com/solutions/dsi/1444084-matrice-umanis-de-l-ia-quantique-d-wave-ibm-et-rigetti-en-tete/

De l’IBM 360/75 au superordinateur Jean Zay

314

Points forts des offres d’IA quantique analysées (2019) Acteurs

Maturité (critères analysés : hardware, software, intégration)

Momentum (critères analysés : potentiel, communauté, investissements)

D-Wave

Propose des solutions industrielles concrètes. Ne peut pas traiter tous les problèmes (se limite à l’optimisation et la prédiction). Alliances avec des éditeurs de logiciels quantiques

Concurrence de Fujitsu sur le même créneau (même si la solution de Fujitsu n’est pas purement quantique) Problèmes de scalabilité à moyen terme et donc de concurrence par rapport aux autres acteurs

Google

Depuis quelques années, collaboration avec Rigetti & Intel. Est en train de créer ses propres chipsets

Suprématie quantique en approche avec le processeur Bristlecone (de 72 qubits)

IBM

Offre industrielle proche de la quantique utilisable par la communauté

Momentum important de la part de la communauté. Outils et plateforme parmi les plus pratiques et commercialisables. Processeurs et présence d’une interface graphique. Gros investissements dans la recherche

Intel

En retard sur d’autres technologies. Fort investissement essentiellement côté hardware

En recherche de co’alliances avec les acteurs du cloud

IonQ

Vient du monde universitaire et est orienté hardware plutôt que software

Amazon parmi les investisseurs

Travaux débutés en 2005 (Station Q). Pas de communication sur la partie hardware qui est plus prometteuse que les autres (stabilité). A suivre de près

Bonne implémentation pour toute la communauté Microsoft et open source. Simulateurs pratiques à l’utilisation

Nokia

Laboratoire de recherche hérité des Bell Labs. Partie hardware essentiellement

Faible momentum et peu de communications pour l’instant, à suivre

Rigetti Computing

Bonne maturité des outils de développement. Préparent d’une solution full-stack

Bon momentum de part un bagage scientifique important, la roadmap et les alliances

Xanadu

Petite échelle pour l’instant mais souhaite concurrencer les grands acteurs

Bon momentum côté machine learning (avec les composants StrawberryFields, Pennsylvanie)

Microsoft

Figure 141 – Points forts des offres d’IA quantiques en 2019

Période 2013-2021 315

12.6.2 Quelle est la situation en septembre 2021 ? La compétition est féroce entre d’anciens constructeurs et ceux qui émergent. Tous les fabricants de cartes graphiques et de processeurs ne sont pas en reste Ils ont tous une section développement-recherche très en avance sur leurs produits disponibles en magasin. Le processeur AMD a le vent en poupe 237. Robert Freyman avait imaginé au début des années 1980 le principe d’un calculateur quantique. Ce concept devient réalité. Tristan Meunier, du laboratoire Néel de Grenoble constate 238 : « Nous vivons actuellement une époque charnière où les industriels, comme Google ou IBM, s’emparent du sujet qui était resté jusqu’ici l’apanage des laboratoires de recherche et cela promet de nous faire passer des caps technologiques majeurs. » L’année dernière, c’était Google qui arrivait en tête avec son Sycamore, 2,8 fois plus puissant que le Hummingbird d’IBM, il n’y avait pas d’offres d’ordinateurs quantiques clés en main avec système d’exploitation. Mais la situation change de jour en jour. Des exemples pris chez trois constructeurs donnent une petite idée de cette lutte pour la suprématie. Elle porte sur la nature du qubit, le nombre de qubits, leur stabilité (temps de décohérence) et sur les problèmes de refroidissement, donc le taux d’erreur « L’idée des codes correcteurs a été une petite révolution dans le domaine. Avec elle, même les plus pessimistes ont commencé à croire en la possibilité d’un ordinateur quantique », confie Sébastien Tanzilli. Le problème de la correction des erreurs limite le nombre de qubits utilisables et par conséquent la puissance 239. Dans leur principe les codes correcteurs sont simples. Mais ils sont très gourmands, ce qui limite leur emploi. Avec 1000 ou 10  000 qubits physiques, on code un seul qubit logique utilisable pour le calcul. Ainsi un ordinateur de 1000 qubits logiques comporte au moins 1 million de qubits physiques. Les problèmes de réfrigération sont cruciaux 240.

237 https://blog.materiel.net/amd-sur-tous-les-fronts/#more

238 https://www.techno-science.net/actualite/ordinateur-promesses-aube-quantique-

N18376.html

239 https://lejournal.cnrs.fr/articles/ordinateur-les-promesses-de-laube-quantique

240 https://usbeketrica.com/fr/article/comment-ordinateur-quantique-pourrait-transfor-

mer-notre-monde

316

De l’IBM 360/75 au superordinateur Jean Zay

Figure 142 – Unité de refroidissement – Réfrigérateur à dilution de l’ordinateur quantique à circuits supraconducteurs construit par IBM. Reprint Courtesy of IBM Corporation ©

12.6.3 IBM IBM 241 est bien décidé à tenir sa place dans le peloton de tête des géants de l’informatique quantique. Son premier microprocesseur quantique, le Falcon traitant 27 qubits en 2019 s’est vu adjoindre en 2020 le Hummingbird qui montait jusqu’à 65  qubits. Les prévisions fort ambitieuses tablent sur un processeur à 127 qubits dans l’année, puis 433 qubits en 2022. Il espère dépasser les 1123  qubits d’ici 2023 avec le IBM Condor. Ce serait une vraie révolution. IBM a déjà de multiples quantum systèmes avec les 27  qubits Falcon processeurs aussi bien que des systèmes avec les 65 qubits Hummingbird processeurs, accessibles aux membres de l’IBM quantum network. En attendant, IBM vient d’inaugurer son premier ordinateur quantique sur territoire européen. Plus précisément dans ses Data centers d’Ehningen, près de Stuttgart, le « Q  System One » de 27 qubits. Il est basé sur le Falcon. Pour soutenir l’énergie délivrée par un tel processeur, IBM a déjà pensé et construit un système de refroidissement de trois mètres de haut. Sur le long terme, le constructeur imagine des processeurs contenant des millions de qubits, tous reliés à d’immenses systèmes de refroidissement pour permettre une puissance capable de changer le monde. C’est de la science-fiction car il faudrait que les logiciels puissent les utiliser. « Le Q system one est d’ores et déjà à la disposition des entreprises, start-up, instituts de recherche et universités. Il s’agit d’un tournant dont l’économie, l’industrie et la société allemandes tireront un grand profit. Les ordinateurs quantiques promettent de résoudre des catégories entièrement nouvelles de problèmes qui sont hors de portée des ordinateurs conventionnels les plus puissants d’aujourd’hui », a déclaré le CEO d’IBM Arvind Krishna. 241 https://www.ictjournal.ch/news/2021-06-16/ibm-lance-le-plus-puissant-des-ordina-

teurs-quantiques-deurope

Période 2013-2021 317

12.6.4 Microsoft Microsoft avait misé sur le fermion Majorana ndlr plus stable, permettant d’augmenter le nombre de qubits. L’annonce 242 au début de l’année incluait des outils de développement. Un article était paru dans Nature. Mais des difficultés sont survenues et le projet a été arrêté momentanément.

12.6.5 Honeywell Un nouvel acteur de poids 243 émerge dans le domaine de l’informatique quantique. Le groupe industriel Honeywell et la start-up Cambridge Quantum Computing ont créé une joint-venture dont le nom reste à déterminer. Objectif annoncé : proposer le portefeuille de technologies et de solutions d’informatique quantique le plus complet du secteur. Cambridge Quantum est l’un des leaders mondiaux en matière de logiciels et d’algorithmes quantiques. L’équipe pluridisciplinaire d’Honeywell se consacrant à l’informatique quantique (160 personnes) va rejoindre la joint-venture, qui comptera au total quelque 300 collaborateurs. Le CEO d’Honeywell, Darius Adamczyk, sera le président de la nouvelle société, qui sera dirigée par le CEO de Cambridge Quantum Ilyas Khan. Honeywell investira entre 270 et 300 millions de dollars dans la nouvelle société et disposera d’un accord à long terme pour participer à la fabrication des pièges à ions critiques nécessaires à l’alimentation du matériel quantique. Reuters précise que Cambridge Quantum détiendra le reste avec ses investisseurs, dont fait partie IBM, l’un des acteurs clés de l’informatique quantique. Cambridge Quantum continuera à collaborer avec Big Blue ainsi qu’avec d’autres fabricants du secteur, a précisé à Reuters le CEO Ilyas Khan.

12.6.6 Le Sycamore de Google Les équipes de Google viennent de démontrer que, sous certaines conditions, la correction des erreurs fonctionne sur le processeur quantique Sycamore de l’entreprise et peut même évoluer de manière exponentielle. De quoi mener à une nouvelle étape vers la construction d’un ordinateur quantique tolérant aux pannes. Cette avancée est susceptible d’attirer l’attention des scientifiques travaillant sur la correction d’erreurs quantiques, un domaine qui ne s’intéresse pas au nombre de qubits mais plutôt à leur qualité. Si l’augmentation du nombre de qubits pris en charge par les ordinateurs quantiques est souvent présentée comme le facteur clé permettant de débloquer la puissance de calcul sans précédent des technologies quantiques, il est tout aussi important de s’assurer que ces qubits se comportent de manière à obtenir des résultats fiables et sans erreur. C’est l’idée qui sous-tend le concept d’un 242 https://experiences.microsoft.fr/articles/quantique/informatique-quantique-pari-fou

243 https://www.ictjournal.ch/news/2020-03-05/honeywell-affirme-avoir-cree-le-plus-puissant-des-ordinateurs-quantiques

318

De l’IBM 360/75 au superordinateur Jean Zay

ordinateur quantique tolérant aux pannes, mais la correction d’erreurs quantiques n’en est encore qu’à ses débuts. Pour l’instant, les scientifiques s’efforcent toujours de contrôler et de manipuler les quelques qubits dont ils disposent, en raison de la nature extrêmement instable de ces particules, ce qui signifie que les calculs quantiques sont encore truffés d’erreurs. Selon Google, la plupart des applications nécessiteraient des taux d’erreur aussi bas que 10-15, en comparaison, les plateformes quantiques de pointe ont actuellement des taux d’erreur moyens proches de 10-3.

12.6.7 La Chine bat le record de Google Sycamore En juin 2021, Pan Jianwei 244 de l’université de Hefei en Chine annonce un record : l’ordinateur Zuchongzhi n’a pris que 72 minutes pour résoudre un problème alors qu’il aurait fallu en moyenne huit ans sur un supercalculateur de haute volée. C’est dans cette même université que sera construit le premier ordinateur à puces photoniques qui, dans certains cas, permettent des gains de vitesse de plusieurs ordres de grandeur, et ceci à températures ambiantes.

244

Lebigdata.fr, « Informatique quantique : la Chine bat le record de Google Sycamore ». https://www.lebigdata.fr/informatique-quantique-chine-depasse-google

Chapitre 13 Épilogue Toute l’histoire écrite dans les chapitres précédents est celle d’un centre de calcul français créé il y a cinquante ans, phénomène très limité dans le temps, dans l’espace, et finalement par le nombre de personnes directement impliquées. Elle a permis de faire la liste des matériels installés de plus en plus rapides, des logiciels de plus en plus sophistiqués et performants, et plus important des problèmes scientifiques de plus en plus ardus qu’ils ont permis d’aborder. L’occasion était donnée de rendre hommage à l’équipe technique dont la continuité et le travail ont permis la réussite de l’entreprise. Mais elle a surtout mis en évidence plusieurs phénomènes sociétaux dont certains sociologues commencent à faire des objets d’études. Ils sont de plusieurs ordres. Le plus évident est qu’à côté de l’histoire des réalisations, il existe une histoire parallèle relatant les difficultés de tous ordres qui ont abouti à des choix et des compromis. Un autre est que l’acceptation d’une proposition novatrice prend toujours du temps. Il y a une phase de rejet pour de fausses raisons techniques, puis de reconnaissance du principe accompagnée de multiples objections plus rationnelles mais sans rapport avec l’objet. Suit une prise de conscience de l’intérêt du projet, accompagnée de l’appropriation de l’idée de départ avec un enthousiasme tout nouveau pour mettre en œuvre des solutions. On parle beaucoup pour le moment de prise de conscience dans tous les domaines. Dans celui de l’informatique, c’était vrai jusqu’à l’arrivée de l’informatique photonique, mais c’est peut-être en train de changer. Enfin, cette histoire a souligné la nécessité première de rester vigilant à toutes les découvertes et idées nouvelles qui se font chaque jour autour de nous. Il n’y a pas si longtemps, quand une expérience avait été faite à l’étranger, il fallait attendre une publication pour la connaître. Maintenant, avec les nouveaux moyens de communication, la planète entière peut être mise au courant instantanément. Alors le danger vient d’être noyé sous les informations. Heureusement, nous sommes assistés par des instances qui font le tri pour nous. Dans notre cas, un site du GENCI informe journellement de ce qui s’est découvert depuis la veille, avec en plus des historiques mensuels. 245

245 http://www.prace-ri.eu/2021/

320

De l’IBM 360/75 au superordinateur Jean Zay

Mais le phénomène est plus subtil. Nous suivons au jour le jour l’installation de machines toujours plus puissantes dans le monde, au Pakistan, en Slovénie ou ailleurs. Elles se multiplient. Nous nous rassurons en voyant le réseau de tous les ordinateurs qui travaillent à des recherches sur la Covid-19. Nous sommes admiratifs des moyens déployés. Il existe depuis toujours une histoire parallèle du développement de l’informatique, non pas à l’échelle d’un petit centre de calcul, mais à l’échelle mondiale. Avec une énorme différence : la temporalité a changé. L’histoire parallèle est connue au moment où elle se crée et on pourrait parler d’histoire hybride comme on parle d’ordinateurs hybrides. Nous nous heurtons aux limites de notre conception classique des ordinateurs conventionnels. Une première révolution a eu lieu avec l’arrivée des ordinateurs quantiques à puces électroniques, mais ils avaient encore des limites. Cependant ils ont permis la démonstration de l’avantage quantique pour certains types de programmes. Mais il y a encore beaucoup de difficultés à vaincre pour passer à un usage courant et à l’industrialisation. Le problème de l’échauffement pour les grandes puissances n’est pas résolu, encore moins pour les ordinateurs classiques quantiques que pour les conventionnels. Le Jean Zay chauffe déjà tous les laboratoires du plateau de Paris-Saclay. Le 3 décembre 2020, une publication a stupéfié le monde informatique, celle de la parution dans le très sérieux journal Science d’un article d’une équipe chinoise de l’université Science & Technology of China de Hefei 246. Sous la direction de Chao-Yang Lu, elle a démontré l’avantage quantique, le fameux quantum advantage, en résolvant le problème de l’échantillonnage du boson gaussien, problème de combinatoire, sur un ordinateur à puces photoniques, le Jiuzhang, en 200 secondes au lieu de 2,5 billions d’années qu’aurait duré le calcul sur leur ordinateur conventionnel le plus puissant le SunwayThahuligh (classé quatrième au TOP500) (figure 143). L’idée de cette possibilité avait été émise en 2011 par S.  Auromson et A.  Arkhipov 247, mais la réalisation constitue une prouesse dans un temps si court. La photo qui suit a fait le tour du monde et depuis quelques mois illustre beaucoup de publications sur le sujet. Radio Canada a donné l’information le 4  décembre 248. La nouvelle a été immédiatement reprise par toute la presse académique, dont Nature qui titre : Light on Quatum Advantage 249 et Integrated Avalanche Photodetectors for Visible Light 250 et par des journaux industriels 251. Chacun essaie de faire une vulgarisation compréhensible, mais suffisamment exacte pour frapper les esprits. 246 Noms

des membres de l’équipe  : Han-Sen Zhong, Hui Wang, Yu-Hao Deng, MingCheng Chen, Li-Chao Peng, Yi-Han Luo, Jian Qin, Dian Wu, Xing Ding, Yi Hu, Peng Hu, Xiao-Yan Yang, Wei-Jun Zhang, Hao Li, Yuxuan Li, Xiao Jiang, Lin Gan, Guangwen Yang, Lixing You, Zhen Wang, Li Li, Nai-Le Liu, Chao-Yang Lu, Jian-Wei Pan. 247 S. Aaronson & A. Arkhipov In Proc. 43rd Annual Symposium on Theory of Computing, 333-342 (ACM, 2011). 248 https://ici.radio-canada.ca/nouvelle/1754684/scientifique-chine-etats-unis-quantique 249 https://www.nature.com/articles/s41563-021-00953-0 250 www.nature.com/articles/s41467-021-22046-x 251 https://www.zdnet.fr/actualites/suprematie-quantique-chinoise-avec-un-ordinateurquantique-a-emission-de-lumiere-39914415.htm

Épilogue 321

Figure 143 – Jiuzhang à l’université de Hefei. © AFP

Dès le lundi 7 décembre, les actualités du journal DZNET insistent sur l’importance de la réalisation de l’échantillon de boson gaussien qui est peut-être un véritable tournant dans le monde de l’informatique. La nouveauté, et elle est de taille, c’est que les photons ont remplacé des particules de métal et qu’il n’y a plus besoin de réfrigération extrême. Dans son article, Delphine Leprince-Ringuet prévient que la valeur de l’expérience réside plutôt dans la preuve que les ordinateurs quantiques basés sur la lumière pourraient être aussi prometteurs que leurs homologues basés sur la matière. Le 8 décembre, c’est au tour du site Micronews de titrer : Photon based quantum computer does a calculation that ordinary computers might never be able to do. En Chine, la nouvelle est annoncée dans deux émissions en ligne du Quotidien du Peuple les 7 et 21  décembre 2020 252. Elle précise que le prototype d’ordinateur quantique chinois Jiuzhang est leader mondial en matière de capacités de calcul. Il a exécuté en 200 secondes un travail qui aurait pris 600 millions d’années sur l’ordinateur le plus puissant du monde. 253 Aussitôt, une avalanche d’articles est apparue dans les milieux académiques et industriels pour discuter les résultats. Les deux champions, Google avec son Sycamore et IBM avec Humingbird avaient déjà démontré l’avantage quantique, dans une moindre proportion, mais qu’ils prétendaient pouvoir améliorer. L’expérience chinoise était une deuxième vérification obtenue cette fois avec des puces photoniques. Les discussions résident sur la portée de cet exploit. Très modestement, l’équipe chinoise explique qu’ils ont démontré l’avantage avec un superordinateur construit pour résoudre certains problèmes. Quels sont les développements prévus et en cours ? Depuis plusieurs années, on connaissait la course à l’exascale avec les ordinateurs traditionnels et le fameux classement au TOP500. Puis il y eu une première évolution quantique avec des qubits intégrés dans des puces électroniques par Google et IBM. Les découvertes s’accélèrent. La course à la puce photonique est maintenant lancée. Des possibilités énormes de gains l’accompagnent 254. 252 http://www.focac.org/fra/zjfz_2/dcfz/t1838379.htm 253 Le

Fugatu japonais. H.-S. et al., Science https://doi.org/10.1126/science.abe8770(2020) http://www.focac.org/fra/zjfz_2/dcfz/t1841485.htm https://www.bcv.ch/pointsforts/Marches/2021/L-informatique-photonique-quantiqueun-saut-de-puce-gigantesque 254 Zong,

322

De l’IBM 360/75 au superordinateur Jean Zay

D’après  un article du GENCI sur les marchés du 23  mars 2021 intitulé « L’informatique photonique quantique, un saut de puce gigantesque » : « Le Royaume-Uni finance la recherche dans l’informatique quantique depuis 2013 et les États-Unis depuis 2015. Le Canada y a investi plus d’un milliard de dollars, et la Chine aurait déjà dépensé plus de 10 milliards de dollars. En 2018, l’Union européenne a débloqué un  milliard d’euros pour stimuler la recherche dans les technologies quantiques. En début d’année, la France a annoncé l’investissement de 1,8 milliard d’euros sur cinq ans pour stimuler la recherche et le développement de l’informatique quantique 255. » Avec cette dernière annonce, le président Emmanuel Macron a affirmé pendant sa visite à l’université Paris-Saclay le 21 janvier 2021 qu’il veut positionner la France aux côtés des États-Unis et de la Chine. Il avait déjà mis en place en 2018 un plan d’investissement de 1,3 milliard d’euros pour le développement de l’Intelligence Artificielle. Les industriels ne sont plus suiveurs, mais participent à la recherche fondamentale et industrielle. Des start-ups européennes sont présentes dans la course. Comme une start-up vaudoise, Light Generating Technology (LGT) liée à l’École Fédérale Polytechnique de Lausanne (EPFL). Elle a créé une puce quantique photonique qui a été développée par la firme canadienne Xanadu qui faisait déjà partie des 18 entreprises recensées en 2018 travaillant sur l’Intelligence Artificielle quantique. Aussi une start-up francilienne Quandela, fondée en 2017 (https://quandela.com/) qui vient en 2020 de créer un émetteur de photons uniques, essentiel pour lutter contre les photons perdus, et en vendra cette année entre 5 et 10 pour un chiffre d’affaires de près d’un million d’euros. Elle poursuit son ascension ; le 5 janvier 2022, ses succès techniques sont unanimement salués dans la presse : https://www.actuia.com/actualite/levee-de-fonds-de-15-millions-deuros-pourle-premier-ordinateur-quantique-de-quandela/ https://www.frenchweb.fr/quandela-leve-15-millions-deuros-pour-proposerun-premier-ordinateur-quantique-photonique-en-2022/430136 Elle perfectionne son processeur Prometheus, première brique de son ordinateur quantique, avançant à la fois dans la recherche en fondamental, technique et commercial. Un article sur son avance photon par photon, vient de paraître le 9 février 2022 : Ref. : https://www.industrie-techno.com/article/calcul-quantique-le-francais-quandela-avance-photon-a-photon.63723. Un autre se penche sur l’évolution d’un chercheur qui, au sein de cette société, devient entrepreneur : Ref.  : https://www.bpifrance.fr/nos-actualites/quandela-valerian-giesz-de-chercheur-a-entrepreneur. Quandela réussit le défi à la fois d’avoir des idées et de les réaliser dans un domaine hautement compétitif. Les créateurs de Jiuzhang annoncent eux aussi qu’ils poursuivent son perfectionnement. Et travaillent maintenant à Jiuzhang 2.0. Ils espèrent que leurs recherches vont en stimuler beaucoup d’autres dans les deux domaines électronique et photonique. Et là leurs souhaits ont été pleinement exaucés. On trouve peu de publications sur l’ordinateur chinois photonique, mais une foule sur l’ordinateur quantique à puces électroniques copiant celles du Sycamore de Google. 255 https://www.usinenouvelle.com/editorial/pour-son-ordinateur-quantique-quandela-

mise-sur-les-photons-uniques.N1095889

Épilogue 323

C’est moins novateur et surtout les constructeurs espèrent rentabiliser tout leur travail précédent sur les ordinateurs conventionnels. IBM fait dans ce sens un effort particulier et dit renaître de ses cendres. Une chercheuse française du CNRS travaillant en France et aux États-Unis, Eleni Diamanti, 256 a fait avec d’autres chercheurs une démonstration expérimentale du quantum advantage à l’aide d’un système expérimental photonique, combiné avec un algorithme interactif complexe qui permet de résoudre un certain type de problèmes mathématiques avec des informations limitées. Ces dernières lignes avaient été écrites en juin 2021. Mais le paysage a évolué encore plus vite qu’on ne l’avait anticipé. Le 28 octobre, la Chine 257 annonce à la fois que Jiuhzang 2 a réalisé en 1 milliseconde ce qui aurait pris 30 billions d’années sur un ordinateur classique et que Zuchongzhi 2 avec ses 66 qubits est 10 millions de fois plus rapide que le Sycamore de Google. La Chine a donc maintenant la suprématie aussi bien dans le domaine quantique supraconducteur qui fonctionne à température proche du zéro absolu que dans le domaine quantique photonique qui travaille à la température ambiante. Toute la presse s’en fait l’écho. Des superordinateurs photoniques ont vu le jour et ils se développeront à l’avenir. Mais reste le problème du Big Data et des Data centres qui se multiplient et sont d’énormes consommateurs d’énergie parce qu’il faut les refroidir. Une technique révolutionnaire, a été proposée en novembre 2020  : stocker les données sur l’ADN. Toutes les données du monde tiendraient dans la main 258. Le 30 novembre 2021 à 18 h 30, Alice Vitard publie dans L’Usine digitale un article : « Grâce à l’IA, l’Institut Curie veut prédire l’efficacité des traitements contre le cancer du sein ». Pouvoir prédire s’il y aura récidive ou pas, si les traitements seront efficaces ou pas, serait un progrès immense. Combien d’heures de calcul seront-elles nécessaires pour les études à venir sur le comportement du blob ? Le site GENCI 259 donne les informations parues en 2021 : y le 16 novembre sur le nouvel ordinateur Adastra qui sera installé au CINES ; y le 17 novembre sur : − une nouvelle participation dédiée à l’IA pour le supercalculateur Jean  Zay, particulièrement intéressante puisqu’elle détaille l’upgrade qui sera fait du Jean Zay en 2022. Le GENCI, l’IDRIS et NVIDIA annoncent une augmentation massive des ressources du Jean  Zay consacrées à la recherche en Intelligence Artificielle, boostées par les performances du dernier accélérateur NVIDIA 100. Figurant déjà parmi les supercalculateurs convergés les plus puissants en Europe, Jean Zay va voir sa configuration encore évoluer pour atteindre au début de l’année 2022 un total de plus de 3 152 GPUs, comprenant à la fois des GPU NVIDIA V100 et des GPU NVIDIA A100 Tensor Core. 256 Une

nouvelle démonstration expérimentale de l’avantage quantique, Federico Centrone, Niraj Kumar, Eleni Diamanti and Iordanis Kerenidis. Nature Communications, le 8 février 2021. DOI  : https://www.cnrs.fr/fr/une-nouvelle-demonstration-experimentale-de-lavantage-quantique 257 https://www.lebigdata.fr/chine-ordinateur-quantique-google 258 https://lejournal.cnrs.fr/articles/stockage-de-donnees-la-revolution-sur-adn 259 https://www.genci.fr/fr/articles-categories/actus

324

De l’IBM 360/75 au superordinateur Jean Zay

La puissance des premiers devrait permettre de doubler l’actuelle capacité de calcul dédiée à l’Intelligence Artificielle sur Jean Zay. Cette extension proposera 52 serveurs HPE Apollo 6 500 Gen 10 comportant chacun 
8 NVIDIA A100 (un total de 640 Go de mémoire HBM2 par serveur), particulièrement bien adaptés pour les grands modèles de TAL ou en vision ; − le rappel des master classes à la FrenchTech Paris Saclay. Elle propose un programme d’accompagnement pour les PME ; y le 1er décembre sur : − HPCQS 260, vers un écosystème de supercalculareurs de classe mondiale, pionnier du calcul hybride quantique fédéré en Europe. Il vise à développer, déployer et coordonner une infrastructure européenne fédérée, en couplant étroitement deux simulateurs quantiques contrôlant chacun plus de 100 qubits avec des supercalculateurs situés dans deux centres HPC européens. Il est coordonné par le professeur Kristel Michelsen du centre de calcul Jülich, l’un des cinq centres participants  : « HPCQS représentera un premier “petit pas” pour les équipes scientifiques européennes, préparant néanmoins le “pas de géant” attendu dans un futur proche vers le calcul à performance exceptionnellement haute. Nous sommes extrêmement heureux de construire cet avenir avec nos partenaires européens ». Le projet pilote HPCQS, d’une durée de quatre ans, offrira un environnement de programmation du simulateur quantique, basé sur deux développements logiciels européens, le Quantum Learning Machine (QLM) d’@Atos et le Parastation ModuloTM de @ParTec. Ensemble, ces technologies permettront l’intégration fine (faible latence) de simulateurs quantiques dans des systèmes HPC modulaires classiques, une première en son genre. Cette même information sur HPCQS est accessible sur plusieurs autres sites 261. Comme la puissance d’un ordinateur quantique varie exponentiellement avec le nombre de qubits, les constructeurs se font une guerre commerciale féroce. En novembre 2021, toute la presse parle de l’annonce qu’IBM a faite de son processeur EAGLE de 127 qubits à la conférence Quantum Summit 2021 262. Il devance ainsi le processeur du Sycamore de Google avec ses 53 qubits et celui du Zuchongzhi 2.1 de la Chine qui en a 66. Des logiciels hybrides permettent de simuler un ordinateur quantique sur un ordinateur classique pour un nombre de qubits limité qu’on essaie d’augmenter. IBM analyse sa politique en informatique quantique 263. Il rappelle qu’ils ont été les premiers à mettre l’informatique quantique sur le cloud en 2016. La dernière 260 https://www.genci.fr/fr/node/1157

261 https://www.ins2i.cnrs.fr/fr/cnrsinfo/hpcqs-vers-un-supercalculateur-quantique-

federe-en-europe Et https://www.hpcqs.eu/ 262 https://www.actuia.com/actualite/ibm-annonce-larrivee-de-son-nouveau-processeurquantique-supraconducteur-de-127-qubits-eagle/ 263 https://research-ibm-com.translate.goog/interactive/system-one/?_x_tr_sl=en&_ x_tr_tl=fr&_x_tr_hl=fr&_x_tr_pto=sc

Épilogue 325

version de leur Quantum System One est tellement complexe et fragile qu’elle est encapsulée dans une enceinte scellée et hermétique de 30 sur 30 cm de verre borosilicaté de 1,5 cm d’épaisseur. Le cryostat du système est composé de deux cadres indépendants en aluminium et acier. Le premier système pour les essais mécaniques a été assemblé et testé en Italie. Maintenant ils ont des installations en Amérique du Nord, en Allemagne et au Japon, avec disent-ils bien d’autres à venir. Les nouveaux centres de calcul abritent des systèmes accessibles aux membres d’IBM Quantum Network via l’IBM cloud. Les projets que ces installations permettront dans tous les domaines concernent toutes les disciplines 264. La France veut rattraper son retard et une partie de la somme de 1,8 milliard que le président Macron a annoncée pour le secteur ira probablement à deux startups françaises sous forme de subventions de l’État. Il s’agit de Pasqal qui développe un ordinateur quantique de 100 qubits avec pour objectif 1000 qubits pour la fin de 2023 et Quandela qui promet un premier ordinateur quantique photonique complet en 2022. Avec son générateur de photons uniques intégré, Prometheus, premier ordinateur quantique, trône dans le showroom de Quandela.

Figure 144 – Le générateur de photons uniques Prometheus intègre des lasers, des filtres, de l’électronique et un petit cryostat. © Cyril Frésillon / CNRS / Quandela

Dans ce contexte complètement bouleversé, il est difficile d’imaginer les moyens de calcul qu’auront les utilisateurs dans le futur. Par quoi sera remplacé le Jean Zay dans quelques années et que deviendra notre organisation en centres nationaux et mésocentres ? Espérons que les futurs présidents de la République sauront d’une façon ou d’une autre préserver une place en Europe au centre d’Orsay ou à ce qui le remplacera. Cette annonce des progrès flamboyants de Quandela relatés ici le 9 février 2022 clôt ce livre. L’histoire continue.

264 https://www.guideinformatique.com/actualites-informatiques/ibm-deploie-le-quan-

tum-system-one-au-japon-1867.html

Table des illustrations

Figure 1 – Salle machine du CIRCÉ en 1975....................................................... 11 Figure 2 – Ordinateur Jean Zay installé au CIRCÉ en 2019................................ 11 Figure 3 – Comparaison des missions du JPL en 1963 et MICADO en février 2015....................................................................................................... 22 Figure 4 – Équipement du CEA civil jusqu’en 1972............................................ 35 Figure 5 – Tableau d’ensemble des années 1969 à 2020....................................... 51 Figure 6 – Tableau d’ensemble des années 1969 à 1993....................................... 52 Figure 7 – Tableau d’ensemble des années 1993 à 2019....................................... 53 Figure 8 – Tableau des noms des ministres et secrétaires d’État de tutelle......... 55 Figure 9 – Tableau des noms des directeurs généraux du CNRS......................... 56 Figure 10 – Transition des systèmes d’exploitation des superordinateurs d’Unix vers Linux.................................................................................................. 59 Figure 11 – Stockage sur disque et mémoire de masse......................................... 59 Figure 12 – Mémoires auxiliaires......................................................................... 60 Figure 13 – Liste non exhaustive d’utilisateurs extérieurs pendant la première quinzaine de juin 1975........................................................................................... 62 Figure 14 – Organigramme du centre de calcul................................................... 63 Figure 15 – Principaux rapports sur l’informatique pour la recherche................. 68 Figure 16 – Liste des tests exécutés par Roy Longbottom................................... 73 Figure 17 – Vitesse de calcul (Rmax) du top des superordinateurs sur 80 ans.... 75 Figure 18 – Évolution de la puissance de calcul des ordinateurs.......................... 76 Figure 19 – Régression des croissances du TOP ordinateurs de 1955 à 1996....... 77 Figure 20 – Extrapolation des courbes de Brenner par la National Navy à Washington........................................................................................................ 78 Figure 21 – Extrapolation des courbes de croissance de Brenner......................... 79 Figure 22 – Étude du TOP500 de 1990 à 2020.................................................... 81 Figure 23 – Évolution du parc machine du centre de calcul, 1969-2020............... 82 Figure 24 – Chronologie du parc machine de 1969 à 1993................................... 83

Table des illustrations327 Figure 25 – Évolution du parc machine du centre de calcul, 1994-2020............... 84 Figure 26 – Puissances installées au centre de calcul et TOP de 1969 à 2020..... 86 Figure 27 – Comparaison des puissances installées en mégaflops au centre de calcul et celles du TOP500 de 1969 à 2020....................................................... 87 Figure 28 – Chronologie des installations de 1969 à 1993.................................... 88 Figure 29 – Chronologie des installations de 1993 à 2013.................................... 89 Figure 30 – Courbes de régression des puissances des cinq périodes étudiées...... 91 Figure 31 – Puissances installées et TOP500 et leurs courbes de régression........ 92 Figure 32 – Machines installées de 1969 à 1980................................................... 100 Figure 33 – Régression des puissances de 1969 à 1981......................................... 101 Figure 34 – William Norris, président de Control DATA, au pupitre du CDC 3600....................................................................................... 105 Figure 35 – Schéma d’ensemble des IBM 360/75 et 360/50................................. 106 Figure 36 – IBM 360/75...................................................................................... 106 Figure 37 – Cheminement des travaux dans l’ensemble 360/50, 360/75 travaillant sous MVT/ASP................................................................................... 107 Figure 38 – Schéma de traitement par lots.......................................................... 108 Figure 39 – Dépôt au dispatching....................................................................... 109 Figure 40 – Terminal 2740................................................................................... 109 Figure 41 – Organigramme du personnel du CIRCÉ pendant la première décennie................................................................................................................ 111 Figure 42 – L’équipe système au travail.............................................................. 116 Figure 43 – L’ingénieur système Annie Potin...................................................... 117 Figure 44 – Article Magazine Ordinateur, Françoise Perriquet, mai 1983............ 118 Figure 45 – Exemple de calendrier de cours........................................................ 119 Figure 46 – Exemple de sommaire d’Interface..................................................... 120 Figure 47 – Numéro spécial d’Interface sur les bibliothèques.............................. 121 Figure 48 – Évolution du matériel du CIRCÉ..................................................... 123 Figure 49 – Le parc machines du centre de calcul............................................... 124 Figure 50 – Évolution des matériels et systèmes en 1973-1974............................ 124 Figure 51 – Pupitre IBM 370/165....................................................................... 125 Figure 52 – Salle machine CDC et IBM/370....................................................... 125 Figure 53 – Salle TSO......................................................................................... 126 Figure 54 – L’attente devant l’écran IBM 3270, affichage de l’avancement de la file d’attente des travaux.............................................................................. 126 Figure 55 – Console graphique IBM 2250............................................................ 133 Figure 56 – Listings d’un laboratoire de Sciences humaines................................ 134 Figure 57 – Dépenses en 1979............................................................................. 135 Figure 58 – Financement du remplacement d’un 168 par un 3033....................... 136 Figure 59 – Ventilation des moyens de financement............................................ 136 Figure 60 – Schéma des deux 168 et de leurs auxiliaires...................................... 138

328

De l’IBM 360/75 au superordinateur Jean Zay

Figure 61 – IBM 3330......................................................................................... 139 Figure 62 – IBM 3330......................................................................................... 139 Figure 63 – Janine Connes au milieu des bandes magnétiques............................ 139 Figure 64 – Terminaux parisiens......................................................................... 141 Figure 65 – Terminaux de province..................................................................... 142 Figure 66 – Gene Amdahl................................................................................... 143 Figure 67 – Organigramme du personnel............................................................. 143 Figure 68 – Répartition du personnel dans les groupes de travail....................... 144 Figure 69 – Réunion à la Gaude en 1968............................................................. 145 Figure 70 – Colloque d’ASPEN en 1970.............................................................. 146 Figure 71 – Brochure sur l’informatique outil de recherche au CNRS................. 147 Figure 72 – Tableau chronologique des installations réalisées et de celles souhaitées et préparées.......................................................................................... 159 Figure 73 – Temps mesurés de mai 70 à mai 71.................................................. 161 Figure 74 – Récapitulation mensuelle des temps pondérés par discipline de mai 1970 à mai 1971......................................................................................... 162 Figure 75 – Calendrier du changement de matériel............................................. 167 Figure 76 – Barème de notation des configurations proposées............................. 169 Figure 77 – Classement des trois configurations retenues.................................... 169 Figure 78 – Prix de revient du centre de 1971 à 1974.......................................... 174 Figure 79 – Dépenses maximales à prévoir.......................................................... 177 Figure 80 – Éventail des solutions envisagées pour les relations CIRCÉ 1 et CIRCÉ 2............................................................................................ 184 Figure 81 – Armoire des projets pilotes, dossier Cyclades, 1975.......................... 185 Figure 82 – Cheminement d’un dossier dans les diverses commissions................. 189 Figure 83 – Ensemble des villes reliées et installations des centres de calcul recensés.................................................................................................. 191 Figure 84 – Une des options du schéma directeur du 23 mai 1978 (exposé de Mme Connat)...................................................................................... 192 Figure 85 – Note manuscrite d’Y. Maillaux du secrétaire de la COMI................ 193 Figure 86 – Machines installées de 1980 à 1989................................................... 202 Figure 87 – Courbes des régressions des puissances de 1981 à 1989.................... 202 Figure 88 – Le fronton du CNUSC...................................................................... 203 Figure 89 – CRAY 1............................................................................................ 208 Figure 90 – Lettre d’intention de proposition d’un nouveau projet..................... 209 Figure 91 – Seymour Cray à une présentation du CRAY 2, 1982........................ 211 Figure 92 – CRAY 2............................................................................................ 213 Figure 93 – Parc des machines 1984-1989............................................................ 214 Figure 94 – Frontalisation du CRAY au CCVR.................................................. 216 Figure 95 – Configuration du DPS8/62............................................................... 218 Figure 96 – IBM 3090......................................................................................... 219

Table des illustrations329 Figure 97 – Caractéristiques des ordinateurs IBM............................................... 220 Figure 98 – IBM 3350......................................................................................... 223 Figure 99 – IBM 3380......................................................................................... 223 Figure 100 – Schéma de la configuration matérielle 1988.................................... 223 Figure 101 – Disponibilité des ordinateurs du CIRCÉ en 1988............................ 224 Figure 102 – Vue du magasin des cartouches....................................................... 225 Figure 103 – Le robot du STORAGETEK.......................................................... 226 Figure 104 – Les baies du STORAGETEK......................................................... 226 Figure 105 – Temps de calcul d’une transformée de Fourier de 1 million de points............................................................................................................... 230 Figure 106 – Analyseur harmonique de Michelson............................................... 231 Figure 107 – Appareils Nicolet pour FTIR.......................................................... 231 Figure 108 – Appareils pour spectroscopie par Transformée de Fourier dans l’infrarouge des sociétés Bruker, Hewlett-Packard, Digilab et Perkin-Elmer..................................................................................................... 232 Figure 109 – État du réseau REUNIR en juillet 1986......................................... 234 Figure 110 – État du réseau du SEU en novembre 1989...................................... 235 Figure 111 – Nettoyage des câbles....................................................................... 237 Figure 112 – Baies après la remise en service...................................................... 238 Figure 113 – Ordinateurs en service entre 1989 et 1992...................................... 241 Figure 114 – Régression des puissances installées et du TOP500 de 1989 à 1992...................................................................................................... 243 Figure 115 – Lettre de François Kourilsky sur l’urgence de l’audit...................... 244 Figure 116 – Topologie de la plateforme réseau CIRCÉ en 1989......................... 248 Figure 117 – Topologie du réseau NSFNET en 1989........................................... 248 Figure 118 – Commandes connues de super-computers en 1989.......................... 253 Figure 119 – Caractéristiques des supercalculateurs installés à l’IDRIS 1993-2013.............................................................................................. 263 Figure 120 – Machines en service de 1993 à 2013................................................ 264 Figure 121 – Courbes de régression comparées pour la 4e période....................... 264 Figure 122 – Classement dans le TOP500 des ordinateurs français installés........ 265 Figure 123 – Livraison IDRIS CRAY C94........................................................... 267 Figure 124 – Schéma de configuration de l’IDRIS en novembre 1996.................. 269 Figure 125 – Le supercalculateur Jade du CINES............................................... 270 Figure 126 – NEC SX-5....................................................................................... 272 Figure 127 – Schéma des grappes du NEC SX5................................................... 273 Figure 128 – Architecture du cluster DEISA....................................................... 275 Figure 129 – Maison de la simulation (DR)......................................................... 282 Figure 130 – Machines Turing et ADA installées à l’IDRIS................................. 284 Figure 131 – Configuration de la plateforme en 2012.......................................... 289 Figure 132 – Ordinateurs en service entre 2013 et 2021...................................... 290

330

De l’IBM 360/75 au superordinateur Jean Zay

Figure 133 – Liste des mésocentres en 2018......................................................... 291 Figure 134 – Courbes de régression des puissances de 2013 à 2020..................... 292 Figure 135 – Caractéristiques techniques du Jean Zay........................................ 294 Figure 136 – Les machines du GENCI dans les trois centres nationaux.............. 295 Figure 137 – Missions de GENCI-PRACE........................................................... 295 Figure 138 – Cheminement d’une demande d’allocation d’heures........................ 298 Figure 139 – Projets pour les Challenges 2020.................................................... 309 Figure 140 – Centres de recherche européens travaillant sur la Covid-19............ 311 Figure 141 – Points forts des offres d’IA quantiques en 2019.............................. 314 Figure 142 – Unité de refroidissement – Réfrigérateur à dilution de l’ordinateur quantique à circuits supraconducteurs construit par IBM..................................... 316 Figure 143 – Jiuzhang à l’université de Hefei...................................................... 321 Figure 144 – Le générateur de photons uniques Prometheus intègres des lasers, des filtres, de l’électronique et un petit cryostat................................................... 325