Les États-Unis possèdent des milliers d’ogives nucléaires dans le stock d’armes nucléaires du ministère de la Défense. La taille du stock a considérablement diminué au cours des cinquante dernières années, mais le maintien du stock existant – composé d’ogives produites pour la plupart dans les années 1950 et 1960 – est une tâche complexe.
« Notre stock ne rajeunit pas », explique à ZDNET Jim Lujan, directeur du programme des plateformes HPC au Los Alamos National Lab (LANL). À mesure que les ogives vieillissent, dit-il, le laboratoire a la responsabilité d’évaluer comment le processus de vieillissement peut avoir un impact sur leur sécurité ou leurs performances.
Bien sûr, on ne peut pas vraiment tester des ogives nucléaires – du moins, pas en vertu du traité d’interdiction complète des essais nucléaires de 1996. Pour remplir sa mission, le laboratoire de Los Alamos utilise la modélisation et les simulations 3D. Grâce aux outils de calcul haute performance les plus avancés, le laboratoire et ses partenaires peuvent produire des simulations physiques de haute fidélité, et ils peuvent valider leurs simulations par rapport à des phénomènes réels et historiques.
Le gouvernement utilise des simulations et des calculs avancés pour accomplir ces tâches depuis les années 1990. Le défi, cependant, est que « ces problèmes deviennent de plus en plus gros », dit Jim Lujan, « et ils prennent plus de temps… Certaines de ces simulations physiques que nous réalisons, du début à la fin, peuvent prendre jusqu’à six à huit mois. »
Des ensembles de données massifs
Pourquoi ces problèmes prennent-ils de l’ampleur et du temps ? Une partie du problème vient du fait que les capacités informatiques sont tout simplement devenues très performantes, au point que les processeurs ont dépassé la vitesse à laquelle ils peuvent faire entrer et sortir des données pour effectuer des opérations arithmétiques. En général, les systèmes informatiques s’appuient sur la mémoire DDR, qui est entièrement hors puce, pour accéder à ces ensembles de données, ce qui crée un goulot d’étranglement.
Les simulations haute-fidélité, telles que celles utilisées pour évaluer l’état des stocks nucléaires, utilisent des ensembles de données massifs. Mais essayer d’utiliser un puissant processeur pour exécuter des charges de travail qui s’appuient sur des ensembles de données massifs, c’est un peu comme utiliser une voiture de sport pour faire ses courses.
« C’est un peu comme si vous aviez une voiture qui peut aller de zéro à 102 secondes, mais si elle ne peut pas contenir toutes les courses, quelle est l’efficacité de cette voiture, n’est-ce pas ? » se demande Jim Lujan. « Vous pouvez avoir un excellent moteur de course, mais si vous ne pouvez pas fournir cette vitesse efficacement à un large éventail d’applications, cela devient un défi. »
CPU de la série Max d’Intel
Pour résoudre ce problème, Los Alamos a commencé à utiliser le nouveau CPU Xeon Max Series d’Intel (nom de code Sapphire Rapids HBM) – les premiers processeurs basés sur x86 avec une mémoire à large bande passante sur la puce.
Cette semaine, Intel lance cinq SKUS différents de la puce, avec un nombre de cœurs allant de 32 à 56. Avec 64 Go de mémoire intégrée à large bande passante, les processeurs Xeon Max offriront une capacité de mémoire suffisante pour répondre à la plupart des charges de travail HPC courantes, sans avoir recours à la mémoire DDR.
Outre la simulation de la physique des ogives nucléaires, les CPU Max sont bien adaptés à un large éventail d’autres charges de travail HPC qui reposent sur d’énormes ensembles de données. Il peut s’agir de la découverte de médicaments ou de la génomique dans le domaine des sciences de la vie, ou encore de la modélisation du climat. Parallèlement, un nombre croissant de modèles d’IA, comme le Chat GPT, commencent à exploiter des ensembles de données massifs.
« Nous sommes impatients d’avoir cette bande passante mémoire accrue à proximité du processeur, car cela va faire une grande différence », explique Jim Lujan. « Nous ne courons pas seulement après la vitesse. Nous essayons d’obtenir l’efficacité et la résolution des problèmes. »
oneAPI à l’épreuve
Jusqu’à présent, dit Jim Lujan, le laboratoire a constaté une
amélioration des performances de 4 à 5 fois avec les applications
utilisant le Max CPU – sans avoir à modifier les applications.
L’un des principaux arguments de vente de la gamme Max d’Intel est la possibilité de tirer parti de oneAPI, un modèle de programmation commun, ouvert et basé sur des normes. « Les développeurs peuvent exploiter tous les codes qu’ils ont sur Xeon aujourd’hui et les transférer sur Xeon Max sans vraiment modifier le code », déclare Jeff McVeigh, vice-président d’Intel, à ZDNET.
Pour mettre oneAPI à l’épreuve, le le laboratoire de Los Alamos a essayé de prendre une application avec un code binaire et de la porter sur le processeur Xeon Max. Résultat : ils ont pu l’exécuter, sans aucune modification, avec une modeste amélioration des performances.
« Les choses fonctionnent donc plus vite, ce qui est formidable », déclare Jim Lujan. « Mais le niveau d’effort nécessaire pour reconnaître cette amélioration des performances est très minime. Nous pourrions passer à d’autres architectures qui pourraient nous apporter des améliorations plus modestes à certains égards. Mais si nous devons réécrire des centaines de milliers de lignes de code pour obtenir ces performances, cela a un coût. »
Source : ZDNet.com
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));
Cliquez ici pour lire l’article depuis sa source.