Romain Leclaire - Qwice

Nvidia annonce la sortie d'une nouvelle puce de pointe pour le travail en intelligence artificielle, la HGX H200

Romain Leclaire - Qwice 2024

Nvidia annonce la sortie d'une nouvelle puce de pointe pour le travail en intelligence artificielle, la HGX H200 <p style="text-align:left;">Cette nouvelle unité de traitement graphique (GPU) améliore considérablement les performances de la très demandée H100 en offrant 1,4 fois plus de bande passante mémoire et 1,8 fois plus de capacité mémoire, renforçant ainsi sa capacité à gérer des tâches intensives d'IA générative.</p><p style="text-align:left;">La grande question qui se pose est de savoir si les entreprises pourront mettre la main sur ces nouvelles puces ou si elles seront aussi soumises à des contraintes d'approvisionnement comme leurs précédentes versions. Les premières H200 seront disponibles au deuxième trimestre 2024, et Nvidia affirme travailler avec des <em>"fabricants de systèmes mondiaux et des fournisseurs de services cloud"</em> pour les rendre disponibles.</p><p style="text-align:left;"></p><p style="text-align:left;">Sur le plan des caractéristiques, la H200 semble être essentiellement identique à sa petite sœur en dehors de sa mémoire. Cependant, les modifications apportées à cette dernière représentent une mise à niveau significative. Le nouveau GPU est le premier à utiliser une nouvelle spécification mémoire plus rapide appelée HBM3e. Il porte sa bande passante à 4,8 téraoctets par seconde, contre 3,35 téraoctets pour la H100, et sa capacité mémoire totale à 141 Go, contre 80 Go auparavant.</p><p style="text-align:left;"></p><p style="text-align:left;">Ian Buck, vice-président des produits informatiques hautes performances de la marque, a déclaré dans une présentation vidéo: <em>"L'intégration d'une mémoire HBM plus rapide et plus étendue permet d'accélérer les performances dans les tâches exigeantes en calcul, notamment les modèles d'IA générative et les applications de calcul haute performance, tout en optimisant l'utilisation et l'efficacité du GPU."</em> La H200 est également conçu pour être compatible avec les systèmes qui l'étaient déjà avec la version précédente. Nvidia affirme que les fournisseurs de services cloud n'auront pas besoin de faire de modifications pour les intégrer. Les branches cloud d'Amazon, Google, Microsoft et Oracle seront parmi les premiers à proposer les nouveaux GPU l'année prochaine.</p><p style="text-align:left;"></p><p style="text-align:left;">Une fois lancées, ces nouvelles puces seront probablement coûteuses. Nvidia ne donne pas de prix précis, mais selon CNBC, les H100 de génération précédente sont estimées entre 25 000 et 40 000 dollars chacune, avec des milliers d'entre elles nécessaires pour fonctionner à des niveaux élevés. L'annonce intervient alors que les entreprises spécialisées en IA sont toujours désespérément à la recherche de puces H100. Elles sont considérées comme la meilleure option pour traiter efficacement les énormes quantités de données nécessaires à la formation et au fonctionnement d'outils d'image générative et de modèles de langage de grande envergure.</p>

Image
Animation Animation