IA7 min de lecturaTechCrunch AI

Nvidia po cichu buduje wielomiliardowy gigant, by konkurować z biznesem chipów

P
Redakcja Pixelift22 views
Compartir
Nvidia po cichu buduje wielomiliardowy gigant, by konkurować z biznesem chipów

Akio Kon / Bloomberg / Getty Images

Nvidia buduje w cieniu imperium warte miliardy dolarów, które może wkrótce dorównać przychodom z samych chipów. Biznes sieciowy firmy, dedykowany do łączenia centrów danych, w zaledwie kilka lat stał się drugim co do wielkości źródłem przychodów koncernu — zaraz za segmentem obliczeniowym. W ostatnim kwartale przyniósł 11 miliardów dolarów przychodu, co stanowi wzrost rok do roku o 267 procent, a w całym roku przekroczył 31 miliardów. Strategiczny krok z 2020 roku — zdecydowana inwestycja w infrastrukturę sieciową poprzez akwizycję — okazał się genialnym posunięciem, choć otrzymał znacznie mniej uwagi mediów niż GPU-owe sukcesy Nvidii. Jensen Huang, prezes firmy, już wcześniej wykazał zdolność do przewidywania trendów — w 2010 roku zaczął eksperymentować z chipami dedykowanymi do AI, na dekadę przed wybuchem obecnego hype'u. Dynamiczny wzrost segmentu sieciowego pokazuje, że przychody Nvidii mogą być bardziej zdywersyfikowane niż powszechnie uważa się, a sama infrastruktura połączeń między serwerami staje się kluczowym wąskim gardłem w erze sztucznej inteligencji.

Gdy wszyscy patrzą na procesory graficzne Nvidia, które zasilają rewolucję sztucznej inteligencji, gdzieś w cieniu rozwija się biznes, który zarabia niemal tyle samo pieniędzy. Networking division firmy wygenerowała w ostatnim kwartale 11 miliardów dolarów przychodu — wzrost o 267 procent rok do roku — i wciąż pozostaje w dużej mierze poza reflektorem mediów. To jest historia o tym, jak Nvidia buduje drugą nogę swojego imperium, a większość branży nawet nie zauważa, że to się dzieje.

Historia zaczyna się od decyzji, którą Jensen Huang podjął wiele lat temu. W 2010 roku, gdy świat jeszcze nie myślał o AI, CEO Nvidia dostrzegł przyszłość i zaczął inwestować w procesory specjalizowane dla uczenia maszynowego. Teraz, w 2020 roku, powtórzył ten manewr — tym razem nie w chipach, ale w infrastrukturze, która je łączy. Strategiczna akwizycja skierowana na networking datacenters otworzyła drzwi do biznesu, który rośnie szybciej niż sama gra w karty graficzne.

Jak Nvidia przejęła sieć datacenters

Przełomowym momentem był zakup firmy Mellanox Technologies w 2020 roku za 6,9 miliarda dolarów. Dla większości obserwatorów branży była to ciekawa, ale nie spektakularna transakcja — kolejne przejęcie w portfolio giganta technologicznego. Jednak dla Huang i jego zespołu to była gra zmieniająca reguły. Mellanox specjalizował się w wysokowydajnych technologiach sieciowych, szczególnie w rozwiązaniach InfiniBand, które są kluczowe dla łączenia serwerów w masywnych datacenters.

To nie była przypadkowa inwestycja. Huang dostrzegł, że wraz ze wzrostem mocy obliczeniowej chipów AI pojawia się nowy problem — jak połączyć tysiące tych procesorów w taki sposób, aby mogły ze sobą efektywnie komunikować. Tradycyjne sieci ethernet, które dominowały w datacenters, nie były wystarczające. Potrzebna była infrastruktura zdolna do przesyłania ogromnych ilości danych z minimalnym opóźnieniem i maksymalną przepustowością.

Mellanox przyniósł do Nvidia dokładnie to, czego brakowało. Technologia InfiniBand, którą firma opracowywała przez lata, okazała się idealna dla ekosystemu AI. Gdy inne firmy budowały datacenters pełne chipów Nvidia, potrzebowały też sposobu, aby je połączyć. Nvidia miała rozwiązanie — i było ono praktycznie bez konkurencji.

Sieć jako nowa granica wzrostu

11 miliardów dolarów w jednym kwartale to liczba, która zasługuje na chwilę refleksji. Dla porównania, to mniej niż przychody z chipów (które wciąż dominują), ale to już nie jest marginalny biznes — to jest biznes światowej klasy. I rośnie z oszałamiającą prędkością. Wzrost 267 procent rok do roku to nie jest anomalia — to jest trend, który będzie się utrzymywać.

Dlaczego sieć rośnie tak szybko? Odpowiedź jest prosta: każdy, kto kupuje procesory AI od Nvidia, musi też kupić infrastrukturę sieciową, aby je połączyć. To nie jest opcjonalne. Jeśli Amazon Web Services buduje nowy datacenter z tysiącami GPU Nvidia, musi jednocześnie zainwestować w sieć, która je powiąże. To samo dotyczy Google, Meta, OpenAI i każdej innej organizacji, która buduje infrastrukturę dla AI.

Nvidia doskonale zdaje sobie sprawę z tej dynamiki. Networking division nie jest samodzielnym biznesem — to jest część ekosystemu. Gdy sprzedajesz chip, musiałeś wcześniej sprzedać sieć. Gdy sprzedajesz sieć, otwierasz drzwi dla sprzedaży większej ilości chipów. To jest klasyczny play lock-in, gdzie każdy element systemu zmusza do zakupu kolejnych elementów.

Czemu media o tym nie mówią?

Brak zainteresowania mediów biznesem sieciowym Nvidia jest zaskakujący, ale ma logiczne wyjaśnienie. Chipsy GPU są seksowne — każdy może zrozumieć, że szybszy procesor to lepiej. Networking jest abstrakcyjny. Jak sprzedajesz historię o infrastrukturze, która łączy rzeczy, które się łączą? To nie ma tej samej dramaturgii co historia o rewolucji AI napędzanej przez procesory graficzne.

Dodatkowo, nazwa marki Nvidia jest nierozłącznie związana z GPU. Gdy ludzie myślą o Nvidia, myślą o kartach graficznych, o CUDA, o dominacji w grach i AI. Networking division operuje pod marką Nvidia Networking (poprzednio Mellanox), co nie ma tego samego rozpoznania. To jest nieznana gałąź drzewa, które wszyscy znają z owoców — chipów.

Jest też aspekt techniczny. Networking to dziedzina, którą rozumieją głównie inżynierowie i architekci infrastruktury. Nie ma tu historii dla masowego odbiorcy. Nie możesz łatwo wyjaśnić, dlaczego przepustowość 400 gigabitów na sekundę jest lepsza niż 200 gigabitów, jeśli nie pracujesz w datacenters. Chipsy GPU? To proste — szybciej, więcej CUDA cores, lepsza wydajność. Networking? To jest dla specjalistów.

Technologia, która zmienia infrastrukturę

Aby zrozumieć, dlaczego networking division Nvidia rośnie tak szybko, trzeba zagłębić się w technologię. Kluczowym produktem jest Nvidia Quantum — rodzina przełączników i kart sieciowych zaprojektowanych specjalnie dla datacenters AI. To nie są zwykłe urządzenia sieciowe — to są maszyny zaprojektowane do przesyłania ogromnych ilości danych z minimalnym opóźnieniem.

Quantum wykorzystuje technologię InfiniBand, którą Nvidia odziedziczyła po Mellanox, ale znacznie ją ulepszył. Najnowsza generacja, Quantum 2, oferuje przepustowość do 400 gigabitów na sekundę — to jest 10 razy więcej niż tradycyjne sieci ethernet. Dla datacenters trenujących modele AI o miliardach parametrów, ta różnica oznacza godziny oszczędzane na każdym treningu.

Ale to nie tylko przepustowość. Nvidia Quantum oferuje też niskie opóźnienia — to znaczy, że dane przesyłane między procesorami podróżują szybciej. Dla aplikacji AI, gdzie komunikacja między GPU jest krytyczna, każda milisekunda się liczy. Gdy trenujesz model rozproszonymi na tysiącach chipów, opóźnienie w komunikacji może zredukować wydajność całego systemu o dziesiątki procent.

Gra lock-in w całej okazałości

Tutaj pojawia się coś, co powinno zainteresować regulatorów i konkurentów Nvidia. Firma nie tylko sprzedaje procesory — buduje ekosystem, w którym każdy element zmusza do kupienia kolejnego elementu. Jeśli jesteś Google i chcesz budować datacenter z GPU Nvidia, musisz też kupić sieć Nvidia. Jeśli chcesz, aby ta sieć działała optymalnie, musisz kupić oprogramowanie Nvidia — CUDA, cuDNN i inne narzędzia.

To jest strategia, którą Nvidia stosuje od lat, ale networking division czyni ją jeszcze bardziej potężną. Wcześniej, gdy konkurenci chcieli rzucić wyzwanie Nvidia w chipach, mogliby potencjalnie użyć tradycyjnych sieci ethernet. Teraz? Jeśli chcesz kupić procesory od kogoś innego, ale nadal chcesz optymalną wydajność, powinieneś kupić sieć Nvidia. To jest geniusz tego ruchu.

AMD, Intel i inne firmy zajmujące się procesorami próbują konkurować z Nvidia w chipach, ale żaden z nich nie ma porównywalnego networkingu. To daje Nvidia przewagę, która jest trudna do podważenia. Nawet jeśli AMD stworzył chip równie dobry jak GPU Nvidia, datacenter, które go kupią, będą musiały inwestować w infrastrukturę sieciową — i najlepszą opcją jest Nvidia.

Polskie firmy i globalny trend

Dla polskich firm technologicznych i startupów pracujących z AI, trend ten ma konkretne implikacje. Jeśli budujesz usługę chmurową lub datacenter, nie możesz już myśleć o infrastrukturze sieciowej jako o drugorzędnym zagadnieniu. Networking stał się krytycznym komponentem, a Nvidia ma praktycznie monopol na najwyższą wydajność.

To oznacza, że polskie przedsiębiorstwa, które chcą konkurować globalnie w przestrzeni AI, muszą zainwestować w infrastrukturę sieciową na poziomie Nvidia. Alternatywnie, mogą szukać rozwiązań od innych dostawców, ale będą musiały zaakceptować niższą wydajność lub wyższe koszty. To jest rzeczywistość współczesnego biznesu AI.

Przychody, marża i przyszłość

Liczby mówią same za siebie. 31 miliardów dolarów przychodu w pełnym roku z networking division to więcej niż roczny przychód większości firm technologicznych. A marża? Networking ma znacznie wyższą marżę niż chipsy — Nvidia może sprzedawać przełączniki sieciowe z marżą 60-70 procent, podczas gdy chipsy mają marżę 40-50 procent.

To oznacza, że networking division nie tylko rośnie szybciej, ale też jest bardziej rentowna. Dla inwestorów, którzy patrzą na przychody, jest to mniej widoczne — chipsy wciąż dominują. Ale dla tych, którzy patrzą na zyski, networking jest gwiazdą. Jeśli trend się utrzyma, za kilka lat networking może generować więcej zysku niż chipsy, nawet jeśli przychody będą niższe.

Przyszłość? Nvidia będzie dalej inwestować w networking. Firma już zapowiedziała Quantum 3, który będzie oferować przepustowość do 800 gigabitów na sekundę. To będzie jeszcze bardziej umacniać pozycję Nvidia w infrastrukturze datacenters. Gdy wszyscy będą mówić o GPU, Nvidia będzie już zarabiać miliardy na sieciach, które je łączą.

Fuente: TechCrunch AI
Compartir

Comentarios

Loading...