Bien que le géant des puces Nvidia ait tendance à jeter une longue ombre sur le monde de l’intelligence artificielle, sa capacité à évincer la concurrence du marché pourrait s’accroître, si l’on en croit les derniers résultats des tests de référence.
Le MLCommons, le consortium industriel qui supervise un test populaire des performances du machine learning, MLPerf, a publié mercredi les derniers chiffres concernant la « formation » des réseaux neuronaux artificiels. En trois ans, Nvidia a eu un seul concurrent : le géant des processeurs Intel.
Lors des tours précédents, y compris le plus récent, en juin, Nvidia avait deux concurrents ou plus, dont Intel, Google, avec sa puce « Tensor Processing Unit », ou TPU, et les puces de la startup britannique Graphcore, ainsi que le géant chinois des télécommunications Huawei dans les tours précédents.
Nvidia rafle les meilleurs scores
Par manque de concurrence, Nvidia a cette fois-ci raflé tous les meilleurs scores, alors qu’en juin, la société avait partagé la première place avec Google. Nvidia a présenté des systèmes utilisant son GPU A100, sorti depuis plusieurs années, ainsi que son tout nouveau H100, connu sous le nom de GPU « Hopper » en l’honneur de la pionnière de l’informatique Grace Hopper. Le H100 a obtenu le meilleur score dans l’un des huit tests de référence, pour les systèmes dits de recommandation qui sont couramment utilisés pour suggérer des produits aux gens sur le Web.
Intel a proposé deux systèmes utilisant ses puces Habana Gaudi2, ainsi que des systèmes étiquetés « preview » qui présentaient sa prochaine puce Xeon sever, dont le nom de code est « Sapphire Rapids ».
Les systèmes Intel se sont révélés beaucoup plus lents que ceux de Nvidia.
Nvidia a déclaré dans un communiqué de presse : « Les GPU H100 (aka Hopper) ont établi des records mondiaux en entraînant des modèles dans les huit charges de travail d’entreprise MLPerf. Ils ont fourni jusqu’à 6,7 fois plus de performances que les GPU de la génération précédente lorsqu’ils ont été soumis pour la première fois à l’entraînement MLPerf. Par la même comparaison, les GPU A100 d’aujourd’hui sont 2,5 fois plus puissants, grâce aux progrès des logiciels. »
Au cours d’une conférence de presse officielle, Dave Salvator, chef de produit senior pour l’IA et le cloud de Nvidia, s’est concentré sur les améliorations des performances de Hopper et les modifications logicielles apportées à l’A100. Salvatore a montré à la fois comment Hopper accélère les performances par rapport à l’A100 – un test de Nvidia contre Nvidia, en d’autres termes – et a également montré comment Hopper était capable de piétiner à la fois les puces Intel Gaudi2 et les Rapids Sapphire.
Google et Graphcore, absents de la compétition
L’absence de différents fournisseurs n’est pas en soi le signe d’une tendance, étant donné que dans les tours précédents de MLPerf, des fournisseurs individuels ont décidé de ne pas participer à la compétition pour ensuite revenir lors d’un tour ultérieur.
Google n’a pas répondu à une demande de commentaires de ZDNET sur les raisons de sa non-participation cette fois-ci.
Dans un courriel, Graphcore a déclaré à ZDNET qu’il avait décidé de consacrer le temps de ses ingénieurs à d’autres choses que les semaines ou les mois nécessaires à la préparation des soumissions pour MLPerf.
« La question des rendements décroissants a été soulevée », a déclaré Iain McKenzie, responsable de la communication de Graphcore, à ZDNET par e-mail, « dans le sens où il y aura un saut inévitable à l’infini, des secondes de moins, des configurations de système toujours plus grandes mises en avant. »
Graphcore « pourrait participer à de futurs tours de MLPerf, mais pour l’instant, cela ne reflète pas les domaines de l’IA où nous voyons les progrès les plus excitants », a déclaré Iain McKenzie à ZDNET.
Au lieu de cela, a-t-il dit, « nous voulons vraiment concentrer nos énergies » sur « le déblocage de nouvelles capacités pour les praticiens de l’IA ». À cette fin, « vous pouvez vous attendre à voir bientôt des progrès passionnants » de Graphcore, a déclaré Iain McKenzie.
Différents niveaux de performance
Outre le fait que les puces de Nvidia dominent la compétition, tous les systèmes informatiques qui ont obtenu les meilleurs scores étaient ceux construits par Nvidia plutôt que ceux de ses partenaires. Il s’agit également d’un changement par rapport aux précédentes éditions du test de référence. Habituellement, certains fournisseurs, comme Dell, obtiennent les meilleures notes pour des systèmes qu’ils ont construits avec des puces Nvidia. Cette fois-ci, aucun vendeur de systèmes n’a été en mesure de battre Nvidia dans l’utilisation de ses puces par Nvidia lui-même.
Les tests d’évaluation de la formation MLPerf indiquent le nombre de minutes nécessaires pour ajuster les « poids » ou paramètres neuronaux jusqu’à ce que le programme informatique atteigne une précision minimale requise pour une tâche donnée, un processus appelé « formation » d’un réseau neuronal, où un temps plus court est préférable.
Bien que les meilleurs scores fassent souvent la une des journaux – et soient mis en avant par les fournisseurs – en réalité, les résultats de MLPerf incluent une grande variété de systèmes et un large éventail de scores, et non pas un seul meilleur score.
Lors d’une conversation téléphonique, le directeur exécutif de MLCommons, David Kanter, a dit à ZDNET de ne pas se concentrer uniquement sur les meilleurs scores. Selon David Kanter, l’intérêt de la suite de tests pour les entreprises qui envisagent d’acheter du matériel d’IA est de disposer d’un large éventail de systèmes de différentes tailles et de différents types de performances.
Les candidatures, qui se comptent par centaines, vont de machines dotées de quelques microprocesseurs ordinaires à des machines équipées de milliers de processeurs hôtes AMD et de milliers de GPU Nvidia, le type de systèmes qui obtiennent les meilleurs résultats.
« Quand il s’agit de formation et d’inférence ML, il y a une grande variété de besoins pour tous les différents niveaux de performance », a déclaré David Kanter à ZDNET, « et une partie de l’objectif est de fournir des mesures de performance qui peuvent être utilisées à toutes ces différentes échelles. »
« Il y a autant de valeur dans les informations sur certains des plus petits systèmes que dans les systèmes à plus grande échelle », a déclaré David Kanter. « Tous ces systèmes sont tout aussi pertinents et importants, mais peut-être pour des personnes différentes. »
Des scores parfois qui régressent
Quant à l’absence de participation de Graphcore et de Google cette fois-ci, David Kanter a déclaré : « J’aimerais voir plus de candidatures », ajoutant : « Je comprends que pour de nombreuses entreprises, elles peuvent avoir à choisir comment investir leurs ressources d’ingénierie. »
« Je pense que vous verrez ces choses aller et venir au fil du temps dans les différents cycles » du benchmark, a déclaré David Kanter.
Un effet secondaire intéressant de la rareté de la concurrence pour Nvidia signifie que certains des meilleurs scores pour certaines tâches de formation n’ont pas seulement montré une amélioration par rapport à la fois précédente, mais plutôt une régression.
Par exemple, dans la vénérable tâche ImageNet, où un réseau neuronal est formé pour attribuer une étiquette de classification à des millions d’images, le meilleur résultat cette fois-ci était le même que celui qui était en troisième place en juin, un système construit par Nvidia qui a pris 19 secondes pour se former. Ce résultat avait été devancé par les résultats de la puce « TPU » de Google, qui n’avaient pris que 11,5 secondes et 14 secondes.
Interrogé sur la répétition d’une candidature antérieure, Nvidia a déclaré à ZDNET par e-mail que son attention se porte sur la puce H100 cette fois-ci, et non sur l’A100. Nvidia a également noté qu’il y a eu des progrès depuis les tout premiers résultats de l’A100 en 2018. Dans ce cycle de benchmarks d’entraînement, un système Nvidia à 8 voies a mis près de 40 minutes pour entraîner ResNet-50. Dans les résultats de cette semaine, ce temps avait été réduit à moins de trente minutes.
Mettre en place des standards
Interrogé sur le manque de d’offres concurrentielles et la viabilité de MLPerf, Dave Salvatore de Nvidia a répondu aux journalistes : » C’est une question juste « , ajoutant : « Nous faisons tout ce que nous pouvons pour encourager la participation ; les benchmarks de l’industrie prospèrent sur la participation. »
« Nous espérons, a ajouté Dave Salvatore, qu’au fur et à mesure que de nouvelles solutions continueront d’être commercialisées par d’autres, ils voudront montrer les avantages et la qualité de ces solutions dans un benchmark standard de l’industrie, plutôt que de proposer leurs propres revendications de performance ponctuelles, qui sont très difficiles à vérifier. »
Selon Dave Salvatore, l’un des éléments clés de MLPerf est la publication rigoureuse de la configuration et du code des tests, afin que les résultats soient clairs et cohérents parmi les centaines de candidatures provenant de dizaines d’entreprises.
Outre les résultats des tests d’entraînement de MLPerf, MLCommons a également publié mercredi des résultats de tests pour le calcul intensif, c’est-à-dire le calcul scientifique et les superordinateurs. Ces soumissions comprenaient un mélange de systèmes de Nvidia et de ses partenaires, ainsi que le superordinateur Fugaku de Fujitsu qui utilise ses propres puces.
TinyML : Le Grenoblois GreenWaves se distingue
Un troisième concours, appelé TinyML, mesure les performances des puces à faible consommation et des puces intégrées en matière d’inférence, la partie du machine learning où un réseau neuronal entraîné fait des prédictions.
Cette compétition, à laquelle Nvidia n’a pas participé jusqu’à présent, présente une diversité intéressante de puces et de candidatures de la part de fournisseurs tels que les fabricants de puces Silicon Labs et Qualcomm, le géant européen de la technologie STMicroelectronics et les start-ups OctoML, Syntiant et GreenWaves Technologies.
Dans l’un des tests de TinyML, un test de reconnaissance d’images utilisant l’ensemble de données CIFAR et le réseau neuronal ResNet, GreenWaves, dont le siège est à Grenoble a obtenu le meilleur score pour la latence la plus faible dans le traitement des données et la formulation d’une prédiction. La société a présenté son accélérateur d’intelligence artificielle Gap9 associé à un processeur RISC.
GreenWaves a déclaré que Gap9 « offre une consommation d’énergie extraordinairement faible sur des réseaux neuronaux de complexité moyenne tels que la série MobileNet dans les tâches de classification et de détection, mais aussi sur des réseaux neuronaux récurrents complexes à précision mixte ».
Source : ZDNet.com
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));
Cliquez ici pour lire l’article depuis sa source.