Un milliard de milliards d’opérations de calcul à la seconde (Exaflops), c’est le défi fou de l’exascale que relèvent les acteurs du High Power Computing (HPC). A savoir des ordinateurs de calcul intensif de prochaine génération qui verront le jour à l’horizon 2020-2025. Ces supercalculateurs seront 100 fois plus puissants que les plus puissantes machines d’aujourd’hui qui tournent »seulement » à quelques dizaines de Petaflops. Sur ce marché évalué à 44 milliards de dollars pour 2020 par le cabinet d’analyse Market Search Media, citons des constructeurs comme HP, IBM, Cray, SGI, Bull, Dell et Fujitsu. Précisons que, grâce à Atos-Bull, la France fait partie du club très fermé des 4 pays capables de fabriquer des supercalculateurs HPC aux côtés des États-Unis, du Japon et de la Chine (leader mondial en termes de performances).
Un rapprochement entamé en 2014
D’où l’importance en termes de souveraineté scientifique de l’annonce d’un accord signé ce mois-ci entre le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et le japonais Riken, Institut de recherche scientifique homologue nippon du CEA. Un rapprochement entamé dès 2014. L’idée, c’est de permettre à la France et au Japon de joindre leurs forces dans la course mondiale sur ce sujet stratégique. Les approches françaises et japonaises comportent par ailleurs de nombreuses similarités non seulement dans leurs choix technologiques mais également sur l’importance accordée à la construction d’écosystèmes d’utilisateurs autour de ces nouveaux super-ordinateurs. Plus précisément, cette collaboration s’inscrit dans le cadre d’un accord entre le ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche français et le ministère de l’Éducation, de la Culture, des Sports et des Sciences et Technologies japonais (Mext) signé récemment.
Simulation de la tenue sismique des installations nucléaires
Quant aux premières applications de simulation scientifique à l’aide du calcul intensif inscrites dans la collaboration franco-japonaise, elles concernent bien sûr la physique de la matière condensée et la chimie quantique mais aussi la tenue sismique des installations nucléaires. Un sujet d’une grande importance à l’heure où l’on envisage le démantèlement de certaines centrales nucléaires, comme celle de Fessenheim ainsi que le lancement de la nouvelle génération de réacteurs comme l’Evolutionary Power Reactor (EPR) et, à plus long terme, la mise au point de réacteurs à fusion nucléaire.
Une approche Open Source
Concrètement, le périmètre de la collaboration couvre le développement de composants logiciels Open Source (à code source ouvert), organisés au sein d’un environnement pouvant bénéficier aussi bien aux concepteurs de matériel qu’aux développeurs de logiciel et d’applications, sur des architectures x86 (celle des microprocesseurs Intel) et ARM -le principal concurrent d’Intel). Selon les deux instituts de recherche, l’approche Open Source est particulièrement indiquée pour conjuguer les efforts respectifs des partenaires, rapprocher les environnements logiciels sur ces architectures aujourd’hui encore très différentes et donner le plus de résonance possible aux résultats – notamment par des contributions au projet collaboratif OpenHPC.
© Erick Haehnsen
Commentez