La séance boursière de vendredi a rappelé brutalement à quel point les actions des fabricants de puces restent sensibles aux changements, même subtils, de la dynamique des centres de données. Les actions de Nvidia ont chuté tandis que celles d'Advanced Micro Devices ont grimpé après que la PDG d'Arista Networks, Jayshree Ullal, a révélé que son entreprise constatait des changements de déploiement en faveur des processeurs AMD. Ces commentaires, faits lors d'un appel avec les investisseurs, ont provoqué des remous dans le secteur des semi-conducteurs et ont mis en évidence l'intensification de la concurrence sur le marché des accélérateurs d'IA.
Arista Networks, un fournisseur majeur de solutions de mise en réseau cloud ayant des liens étroits avec les opérateurs de centres de données à grande échelle (hyperscale), sert de baromètre pour les tendances plus larges de l'industrie. Lorsque sa direction discute des préférences des clients, les investisseurs sont attentifs. Les remarques d'Ullal suggèrent qu'au moins certains opérateurs de centres de données diversifient leurs stratégies d'approvisionnement en GPU, s'éloignant d'une dépendance exclusive à la plateforme dominante de Nvidia.
Arista Networks occupe une position unique dans la pile technologique. L'entreprise fournit des commutateurs haute performance et une infrastructure réseau qui connectent des milliers de GPU au sein des clusters d'entraînement d'IA modernes. Ces réseaux doivent gérer des besoins en bande passante énormes alors que les données circulent entre les processeurs pendant les phases d'entraînement des modèles et d'inférence.
Parce qu'Arista travaille en étroite collaboration avec les opérateurs de centres de données lors de la planification du déploiement, l'entreprise bénéficie d'une visibilité précoce sur les décisions d'achat de matériel. Lorsqu'Ullal évoque des changements vers AMD, elle ne spécule pas : elle rapporte ce que ses équipes d'ingénierie constatent sur le terrain lors de la conception et de l'installation de l'infrastructure réseau autour de choix spécifiques de GPU.
Cette perspective d'initié rend les observations d'Arista particulièrement précieuses pour comprendre la dynamique concurrentielle entre Nvidia et AMD dans l'espace des accélérateurs d'IA. La base de clients de l'entreprise comprend de grands fournisseurs de cloud et des entreprises construisant une infrastructure d'IA privée, précisément le segment où AMD tente de gagner du terrain.
Nvidia a maintenu une avance écrasante dans les accélérateurs d'IA, avec ses GPU H100 et les plus récents H200 alimentant la majorité des entraînements de grands modèles de langage. L'écosystème logiciel CUDA de l'entreprise, construit sur près de deux décennies, crée des coûts de changement substantiels pour les développeurs qui ont optimisé leur code pour l'architecture de Nvidia.
AMD, cependant, a investi massivement pour combler cet écart. La série MI300 de l'entreprise, en particulier l'accélérateur MI300X, représente sa tentative la plus sérieuse à ce jour pour capturer une part de marché significative de l'IA en centre de données. AMD a mis en avant plusieurs avantages : des performances compétitives sur des charges de travail spécifiques, une potentielle meilleure disponibilité face aux contraintes d'approvisionnement de Nvidia, et des stratégies de prix qui séduisent les acheteurs soucieux des coûts.
Le défi logiciel reste important. La plateforme ROCm d'AMD continue de mûrir, mais elle n'a pas encore la profondeur d'écosystème de CUDA. Pourtant, les grands fournisseurs de cloud ont de fortes incitations à soutenir plusieurs fournisseurs. Éviter la dépendance à un fournisseur unique offre un levier de négociation et réduit les risques liés à la chaîne d'approvisionnement — des facteurs qui comptent énormément lors de la planification d'investissements d'infrastructure de plusieurs milliards de dollars.
Il est crucial de garder une certaine perspective sur ce que la PDG d'Arista a réellement indiqué. Ullal a parlé de « certains changements de déploiement », et non d'une migration massive délaissant Nvidia. La formulation suggère des changements progressifs plutôt qu'un réalignement fondamental du marché.
Les opérateurs de centres de données adoptent généralement une approche de portefeuille pour leur infrastructure. Ils peuvent déployer des GPU Nvidia pour les charges de travail qui nécessitent absolument la compatibilité CUDA, tout en expérimentant des alternatives AMD pour les tâches où l'écosystème logiciel est moins critique. Cette stratégie de diversification leur permet de tester les capacités d'AMD sans abandonner la plateforme éprouvée de Nvidia.
La réaction du marché boursier a toutefois amplifié ces signaux incrémentaux. Les actions de Nvidia se sont échangées à des valorisations élevées reflétant des attentes de domination continue. Tout indice de pression concurrentielle attire une attention démesurée de la part des investisseurs à la recherche de points d'inflexion. Inversement, AMD a eu du mal à démontrer une traction significative contre Nvidia dans l'IA, ce qui rend tout point de données positif précieux pour son récit.
Le marché des accélérateurs d'IA entre dans une phase plus complexe. Au-delà du duopole Nvidia-AMD, plusieurs autres acteurs se positionnent :
Le silicium personnalisé provenant des fournisseurs de cloud eux-mêmes représente une menace à long terme. Les TPU de Google, les puces Trainium et Inferentia d'Amazon, ainsi que les accélérateurs Maia de Microsoft représentent tous des alternatives internes qui réduisent la dépendance aux fournisseurs de GPU externes pour certaines charges de travail.
Les startups émergentes comme Cerebras, Groq et SambaNova ciblent des niches spécifiques avec des architectures novatrices, bien que leur part de marché reste minime par rapport aux acteurs établis.
Intel continue de développer sa stratégie de GPU pour centres de données avec la gamme Gaudi, acquise via le rachat de Habana Labs, bien que ses progrès aient été plus lents qu'initialement prévu.
Cette diversification profite à l'industrie en réduisant le risque de concentration et en stimulant l'innovation. Cependant, la position solidement ancrée de Nvidia signifie que les challengers font face à une bataille difficile nécessitant non seulement du matériel compétitif mais aussi un investissement logiciel substantiel.
Pour les entreprises prévoyant des investissements dans l'infrastructure d'IA, les commentaires d'Arista renforcent plusieurs considérations pratiques :
Évaluez les stratégies multi-fournisseurs. Ne supposez pas que Nvidia est la seule option viable. Effectuez des tests de preuve de concept avec des accélérateurs AMD pour vos charges de travail spécifiques afin d'évaluer les performances réelles et la compatibilité logicielle.
Considérez le coût total de possession. Les coûts d'acquisition des GPU ne représentent qu'une partie de l'équation. Prenez en compte les exigences réseau, la consommation d'énergie, l'infrastructure de refroidissement et les ressources de développement logiciel nécessaires pour optimiser les différentes plateformes.
Prévoyez des délais de livraison plus longs. Les contraintes d'approvisionnement continuent d'affecter à la fois Nvidia et AMD, bien que la disponibilité varie selon la gamme de produits et la relation client. Établissez des calendriers d'approvisionnement qui tiennent compte des retards potentiels.
Surveillez le développement de l'écosystème logiciel. ROCm d'AMD et d'autres alternatives à CUDA s'améliorent rapidement. Ce qui est impossible aujourd'hui pourrait être réalisable dans six mois à mesure que les frameworks ajoutent un meilleur support pour les plateformes alternatives.
Pour les investisseurs, la réaction du marché illustre la sensibilité des valorisations des semi-conducteurs à la dynamique concurrentielle. La valorisation premium de Nvidia dépend du maintien de sa position de leader. Des preuves de pertes de parts de marché significatives — même minimes — pourraient déclencher un ajustement important des prix. Inversement, AMD doit démontrer qu'il peut convertir ses capacités techniques en une croissance réelle des revenus dans le segment des centres de données.
Les commentaires de la PDG d'Arista représentent un point de données dans une histoire en évolution. Le marché des accélérateurs d'IA mûrit, passant d'une phase de croissance explosive tirée par un seul acteur dominant vers un paysage plus concurrentiel avec plusieurs options viables.
Nvidia détient toujours des avantages écrasants en matière de logiciels, d'écosystème et de base installée. Cependant, l'économie du déploiement de l'IA à l'échelle des centres de données crée de fortes incitations à la diversification. À mesure que la pile logicielle d'AMD mûrit et que davantage de développeurs optimisent pour plusieurs plateformes, les barrières à l'adoption continueront de tomber.
La réaction du marché aux remarques d'Ullal — bien qu'excessive — reflète une vérité fondamentale : le marché des GPU pour centres de données est suffisamment important pour que même des changements progressifs méritent une attention étroite. Nvidia et AMD publieront tous deux des résultats financiers détaillés lors de leurs prochains appels de résultats, fournissant des données plus concrètes sur la question de savoir si ces changements de déploiement se traduisent par des changements mesurables de revenus.
Pour l'instant, la conclusion est claire : la concurrence dans l'infrastructure d'IA s'intensifie, et les clients sont de plus en plus disposés à envisager des alternatives au leader établi. Reste à voir s'il s'agit du début d'un changement significatif de part de marché ou simplement d'une diversification normale au sein d'un marché en croissance rapide.



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit