Piątkowa sesja giełdowa przyniosła dobitne przypomnienie o tym, jak wrażliwe pozostają akcje producentów chipów nawet na subtelne zmiany w dynamice centrów danych. Akcje Nvidia spadły, podczas gdy notowania Advanced Micro Devices wzrosły po tym, jak dyrektor generalna Arista Networks, Jayshree Ullal, ujawniła, że jej firma obserwuje przesunięcia wdrożeniowe w stronę procesorów AMD. Komentarze te, wygłoszone podczas rozmowy z inwestorami, wywołały poruszenie w sektorze półprzewodników i podkreśliły nasilającą się konkurencję na rynku akceleratorów AI.
Arista Networks, główny dostawca rozwiązań sieciowych w chmurze, posiadający głębokie powiązania z operatorami centrów danych typu hyperscale, służy jako wyznacznik szerszych trendów branżowych. Kiedy jej kierownictwo omawia preferencje klientów, inwestorzy zwracają na to uwagę. Uwagi Ullal sugerowały, że przynajmniej niektórzy operatorzy centrów danych dywersyfikują swoje strategie zakupowe w zakresie procesorów graficznych (GPU), odchodząc od wyłącznego polegania na dominującej platformie Nvidii.
Arista Networks zajmuje wyjątkową pozycję w stosie technologicznym. Firma dostarcza wysokowydajne przełączniki i infrastrukturę sieciową, które łączą tysiące procesorów graficznych w nowoczesnych klastrach szkoleniowych AI. Sieci te muszą obsługiwać ogromne wymagania dotyczące przepustowości, ponieważ dane przepływają między procesorami podczas szkolenia modeli i zadań wnioskowania.
Ponieważ Arista ściśle współpracuje z operatorami centrów danych podczas planowania wdrożeń, firma zyskuje wczesny wgląd w decyzje dotyczące zakupu sprzętu. Kiedy Ullal omawia przesunięcia w stronę AMD, nie spekuluje – raportuje to, co jej zespoły inżynieryjne widzą w terenie podczas projektowania i instalowania infrastruktury sieciowej wokół konkretnych wyborów GPU.
Ta perspektywa "od wewnątrz" sprawia, że obserwacje Aristy są szczególnie cenne dla zrozumienia dynamiki konkurencji między Nvidią a AMD w obszarze akceleratorów AI. Baza klientów firmy obejmuje głównych dostawców usług chmurowych i przedsiębiorstwa budujące prywatną infrastrukturę AI, czyli dokładnie ten segment, w którym AMD stara się zyskać popularność.
Nvidia utrzymała przytłaczającą przewagę w dziedzinie akceleratorów AI, a jej procesory graficzne H100 i nowsze H200 napędzają większość procesów szkoleniowych dużych modeli językowych. Ekosystem oprogramowania CUDA firmy, budowany przez niemal dwie dekady, tworzy znaczne koszty zmiany dla programistów, którzy zoptymalizowali swój kod pod kątem architektury Nvidii.
AMD jednak intensywnie inwestuje, aby zmniejszyć tę lukę. Seria MI300 firmy, w szczególności akcelerator MI300X, stanowi jej najpoważniejszą jak dotąd próbę zdobycia znaczącego udziału w rynku AI w centrach danych. AMD podkreśla kilka zalet: konkurencyjną wydajność w określonych obciążeniach, potencjalnie lepszą dostępność w obliczu ograniczeń podażowych Nvidii oraz strategie cenowe, które przemawiają do nabywców dbających o koszty.
Wyzwanie związane z oprogramowaniem pozostaje znaczące. Platforma ROCm od AMD stale dojrzewa, ale brakuje jej głębi ekosystemu CUDA. Mimo to, główni dostawcy chmury mają silne zachęty do wspierania wielu dostawców. Unikanie zależności od jednego dostawcy zapewnia przewagę negocjacyjną i zmniejsza ryzyko w łańcuchu dostaw – czynniki te mają ogromne znaczenie przy planowaniu wielomiliardowych inwestycji w infrastrukturę.
Kluczowe jest zachowanie perspektywy wobec tego, co faktycznie wskazała dyrektor generalna Aristy. Ullal mówiła o "pewnych przesunięciach wdrożeniowych", a nie o masowej migracji z dala od Nvidii. Sformułowanie to sugeruje stopniowe zmiany, a nie fundamentalne przegrupowanie rynku.
Operatorzy centrów danych zazwyczaj stosują podejście portfelowe do infrastruktury. Mogą wdrażać procesory graficzne Nvidia do zadań, które bezwzględnie wymagają kompatybilności z CUDA, eksperymentując jednocześnie z alternatywami AMD w zadaniach, w których ekosystem oprogramowania jest mniej krytyczny. Ta strategia dywersyfikacji pozwala im testować możliwości AMD bez rezygnacji ze sprawdzonej platformy Nvidia.
Reakcja giełdy wzmocniła jednak te sygnały. Akcje Nvidii były notowane przy wysokich wycenach odzwierciedlających oczekiwania co do dalszej dominacji. Każda oznaka presji konkurencyjnej przyciąga nadmierną uwagę inwestorów szukających punktów zwrotnych. Z kolei AMD miało trudności z wykazaniem znaczącego postępu w starciu z Nvidią w dziedzinie AI, co sprawia, że każdy pozytywny punkt danych jest cenny dla ich narracji.
Rynek akceleratorów AI wchodzi w bardziej złożoną fazę. Poza duopolem Nvidia-AMD, pozycjonuje się kilku innych graczy:
Własne układy krzemowe od samych dostawców chmury stanowią długoterminowe zagrożenie. Jednostki TPU Google, układy Trainium i Inferentia od Amazon oraz akceleratory Maia od Microsoftu stanowią wewnętrzne alternatywy, które zmniejszają zależność od zewnętrznych dostawców GPU w przypadku określonych zadań.
Wschodzące startupy, takie jak Cerebras, Groq i SambaNova, celują w konkretne nisze z nowatorskimi architekturami, choć ich udział w rynku pozostaje minimalny w porównaniu z uznanymi graczami.
Intel kontynuuje rozwój swojej strategii procesorów graficznych dla centrów danych z linią Gaudi, nabytą poprzez zakup Habana Labs, choć jego postępy są wolniejsze niż początkowo przewidywano.
Ta dywersyfikacja przynosi korzyści branży, zmniejszając ryzyko koncentracji i pobudzając innowacje. Jednak ugruntowana pozycja Nvidii oznacza, że pretendenci stoją przed trudną walką wymagającą nie tylko konkurencyjnego sprzętu, ale także znacznych inwestycji w oprogramowanie.
Dla przedsiębiorstw planujących inwestycje w infrastrukturę AI, komentarze Aristy wzmacniają kilka praktycznych rozważań:
Ocena strategii wielu dostawców. Nie zakładaj, że Nvidia jest jedyną opłacalną opcją. Przeprowadź testy proof-of-concept z akceleratorami AMD dla konkretnych obciążeń, aby ocenić rzeczywistą wydajność i kompatybilność oprogramowania.
Rozważenie całkowitego kosztu posiadania (TCO). Koszty zakupu GPU to tylko część równania. Należy wziąć pod uwagę wymagania sieciowe, zużycie energii, infrastrukturę chłodzenia i zasoby programistyczne potrzebne do optymalizacji pod kątem różnych platform.
Planowanie dłuższych terminów realizacji. Ograniczenia podaży nadal dotykają zarówno Nvidię, jak i AMD, choć dostępność różni się w zależności od linii produktów i relacji z klientem. Należy budować harmonogramy zakupów uwzględniające potencjalne opóźnienia.
Monitorowanie rozwoju ekosystemu oprogramowania. ROCm od AMD i inne alternatywy dla CUDA szybko się poprawiają. To, co jest niemożliwe dzisiaj, może być wykonalne za sześć miesięcy, gdy frameworki dodadzą lepsze wsparcie dla alternatywnych platform.
Dla inwestorów reakcja rynku ilustruje, jak wrażliwe pozostają wyceny spółek półprzewodnikowych na dynamikę konkurencji. Wysoka wycena Nvidii zależy od utrzymania pozycji lidera. Dowody na znaczące straty w udziale w rynku – nawet niewielkie – mogą wywołać znaczną przecenę. Z kolei AMD musi udowodnić, że potrafi przekuć możliwości techniczne na rzeczywisty wzrost przychodów w segmencie centrów danych.
Komentarze dyrektor generalnej Aristy stanowią jeden z punktów danych w ewoluującej historii. Rynek akceleratorów AI dojrzewa z fazy gwałtownego wzrostu napędzanego przez jednego dominującego gracza w stronę bardziej konkurencyjnego krajobrazu z wieloma opłacalnymi opcjami.
Nvidia wciąż posiada przytłaczającą przewagę w oprogramowaniu, ekosystemie i zainstalowanej bazie. Jednak ekonomia wdrażania AI na skalę centrów danych tworzy silne zachęty do dywersyfikacji. W miarę jak stos oprogramowania AMD dojrzewa, a coraz więcej programistów optymalizuje kod pod kątem wielu platform, bariery adopcji będą nadal spadać.
Reakcja rynku na uwagi Ullal – jakkolwiek gwałtowna – odzwierciedla fundamentalną prawdę: rynek procesorów graficznych dla centrów danych jest na tyle istotny, że nawet stopniowe zmiany zasługują na ścisłą uwagę. Zarówno Nvidia, jak i AMD przedstawią szczegółowe wyniki finansowe podczas nadchodzących konferencji wynikowych, dostarczając bardziej konkretnych danych o tym, czy te przesunięcia wdrożeniowe przekładają się na mierzalne zmiany przychodów.
Na razie wniosek jest jasny: konkurencja w infrastrukturze AI nasila się, a klienci coraz chętniej rozważają alternatywy dla dotychczasowego lidera. Czy stanowi to początek znaczącej zmiany udziałów w rynku, czy jedynie normalną dywersyfikację w ramach szybko rosnącego rynku, okaże się w przyszłości.



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto