Technologie

AMD lance le circuit AI MI325X pour rivaliser avec le Blackwell de Nvidia

AMD a lancé une nouvelle puce d’intelligence artificielle jeudi qui vise directement les processeurs graphiques des data centers de Nvidia, connus sous le nom de GPUs.

L’Instinct MI325X, comme la puce est appelée, entrera en production avant la fin de 2024, a annoncé AMD jeudi lors d’un événement annonçant le nouveau produit. Si les puces d’IA d’AMD sont considérées par les développeurs et les géants du cloud comme un substitut proche des produits de Nvidia, cela pourrait exercer une pression sur les prix de Nvidia, qui ont bénéficié de marges brutes d’environ 75% alors que ses GPUs étaient très demandés au cours de l’année écoulée.

L’IA générative avancée telle que le ChatGPT d’OpenAI nécessite d’énormes data centers pleins de GPUs pour effectuer le traitement nécessaire, ce qui a créé une demande pour plus d’entreprises fournissant des puces d’IA.

Au cours des dernières années, Nvidia a dominé la majorité du marché des GPUs de data centers, mais AMD est historiquement en deuxième place. Maintenant, AMD vise à prendre des parts de marché à son rival de la Silicon Valley ou du moins à capturer une grosse partie du marché, qui devrait valoir 500 milliards de dollars d’ici 2028.

« La demande en IA a en fait continué de décoller et de dépasser les attentes. Il est clair que le taux d’investissement continue de croître partout », a déclaré la PDG d’AMD, Lisa Su, lors de l’événement.

Avec le lancement du MI325X, AMD accélère son calendrier de produits pour sortir de nouvelles puces sur une base annuelle afin de mieux concurrencer Nvidia et de profiter du boom des puces d’IA. La nouvelle puce d’IA est le successeur du MI300X, qui a commencé à être expédié fin de l’année dernière. La puce d’AMD de 2025 s’appellera MI350, et sa puce de 2026 s’appellera MI400, a déclaré l’entreprise.

Le déploiement du MI325X le mettra en concurrence avec les prochaines puces Blackwell de Nvidia, qui, selon Nvidia, commenceront à être expédiées en quantités importantes début de l’année prochaine.

Un lancement réussi pour le GPU de data center le plus récent d’AMD pourrait attirer l’intérêt des investisseurs qui recherchent des entreprises supplémentaires susceptibles de bénéficier du boom de l’IA. AMD n’a augmenté que de 20% jusqu’à présent en 2024 alors que l’action de Nvidia a augmenté de plus de 175%. La plupart des estimations du secteur indiquent que Nvidia détient plus de 90% du marché des puces d’IA de data center.

Le plus grand obstacle d’AMD pour prendre des parts de marché est que les puces de son rival utilisent leur propre langage de programmation, CUDA, qui est devenu la norme parmi les développeurs d’IA. Cela enferme essentiellement les développeurs dans l’écosystème de Nvidia.

En réponse, AMD a déclaré cette semaine qu’elle améliorait son logiciel concurrent, appelé ROCm, afin que les développeurs d’IA puissent facilement basculer plus de leurs modèles d’IA sur les puces d’AMD, qu’elle appelle des accélérateurs.

AMD a présenté ses accélérateurs d’IA comme plus compétitifs pour les cas d’utilisation où les modèles d’IA créent du contenu ou font des prédictions plutôt que lorsque qu’un modèle d’IA traite des téraoctets de données pour s’améliorer. Cela est en partie dû à la mémoire avancée qu’AMD utilise sur sa puce, ce qui lui permet de servir plus rapidement le modèle d’IA de langage Llama de Meta que certains des puces de Nvidia.

« Ce que vous voyez, c’est que la plateforme MI325 offre jusqu’à 40 % de performances d’inférence en plus que l’H200 sur Llama 3.1 », a déclaré Su, faisant référence au grand modèle d’IA de langage de Meta.

Alors que les accélérateurs d’IA et les GPUs sont devenus la partie la plus intensément surveillée de l’industrie des semi-conducteurs, le cœur de métier d’AMD a été les processeurs centraux, ou CPUs, qui se trouvent au cœur de presque tous les serveurs dans le monde.

Les ventes de data centers d’AMD pendant le trimestre de juin ont plus que doublé au cours de l’année écoulée pour atteindre 2,8 milliards de dollars, les puces d’IA représentant seulement environ 1 milliard de dollars, a déclaré l’entreprise en juillet.

AMD capte environ 34 % des dollars totaux dépensés pour les CPUs de data center, a déclaré l’entreprise. C’est encore moins qu’Intel, qui reste le leader du marché avec sa ligne de puces Xeon. AMD vise à changer cela avec une nouvelle gamme de CPUs, appelée EPYC 5th Gen, qu’elle a également annoncée jeudi.