Startupy5 min czytaniaTechCrunch Startups

Startup Gimlet Labs rozwiązuje problem wąskiego gardła inferencji AI w zaskakująco elegancki sposób

P
Redakcja Pixelift0 views
Udostępnij
Startup Gimlet Labs rozwiązuje problem wąskiego gardła inferencji AI w zaskakująco elegancki sposób

Foto: TechCrunch Startups

80 milionów dolarów w rundzie finansowania Series A – taką kwotę pozyskał startup Gimlet Labs, założony przez Zaina Asgara, profesora ze Stanfordu, by raz na zawsze wyeliminować wąskie gardło w procesie AI inference. Rozwiązaniem problemu niedoboru mocy obliczeniowej ma być pierwsza na świecie chmura typu multi-silicon inference cloud. To innowacyjne oprogramowanie pozwala na jednoczesne uruchamianie obciążeń sztucznej inteligencji na zróżnicowanym sprzęcie, przełamując dotychczasowe bariery technologiczne. System Gimlet Labs potrafi inteligentnie rozdzielać zadania aplikacji AI pomiędzy tradycyjne jednostki CPU, wyspecjalizowane układy GPU oraz systemy o dużej pojemności pamięci (high-memory systems). Dla globalnego rynku oznacza to drastyczne obniżenie kosztów operacyjnych i uniezależnienie się od deficytowych, najdroższych chipów na rynku. Zamiast czekać w kolejkach na dostęp do najnowszej infrastruktury, twórcy modeli i deweloperzy będą mogli efektywnie wykorzystywać istniejące, rozproszone zasoby sprzętowe. Inwestycja prowadzona przez Menlo Ventures potwierdza, że kluczem do skalowania AI nie jest wyłącznie produkcja nowej elektroniki, ale przede wszystkim inteligentna orkiestracja dostępnej mocy obliczeniowej. Taka demokratyzacja dostępu do infrastruktury może znacząco przyspieszyć wdrażanie zaawansowanych modeli językowych w codziennych usługach cyfrowych.

W świecie zdominowanym przez wyścig zbrojeń w obszarze krzemu, gdzie dostępność układów NVIDIA H100 stała się nową walutą globalnej gospodarki, startup Gimlet Labs proponuje rozwiązanie, które może wywrócić stolik. Zamiast czekać w kolejce po deficytowe jednostki GPU, firma kierowana przez Zaina Asgara — profesora z Stanford i seryjnego przedsiębiorcę — zebrała 80 milionów dolarów w rundzie finansowania Series A na rozwój technologii, która czyni rodzaj procesora drugorzędnym. To nie jest kolejna próba zbudowania "lepszego chipu", lecz radykalna zmiana w sposobie, w jaki oprogramowanie komunikuje się z infrastrukturą.

Runda finansowania, której przewodził fundusz Menlo Ventures, potwierdza, że branża desperacko poszukuje wyjścia z impasu związanego z wąskim gardłem inferencji AI. Obecnie giganci technologiczni i mniejsze firmy borykają się z ogromnymi kosztami i ograniczeniami logistycznymi, próbując skalować swoje modele. Gimlet Labs wchodzi na rynek z obietnicą "pierwszej i jedynej chmury inferencyjnej typu multi-silicon", która pozwala na jednoczesne uruchamianie obciążeń sztucznej inteligencji na skrajnie różnych architekturach sprzętowych.

Architektura bez granic, czyli jak pogodzić ogień z wodą

Kluczem do innowacji Gimlet Labs jest warstwa programowa, która potrafi inteligentnie dzielić zadania obliczeniowe modelu AI pomiędzy jednostki, które dotychczas ze sobą nie współpracowały w czasie rzeczywistym. System pozwala na rozproszenie pracy aplikacji AI nie tylko na tradycyjne procesory CPU i wyspecjalizowane układy GPU, ale także na systemy o wysokiej pamięci oraz niszowe akceleratory. Co najbardziej imponujące, technologia ta umożliwia płynną pracę na chipach od NVIDIA, AMD, Intel, ARM, a nawet na egzotycznych rozwiązaniach od Cerebras czy d-Matrix.

W praktyce oznacza to, że deweloperzy nie muszą już optymalizować swoich modeli pod konkretną architekturę (np. CUDA dla Nvidii). Gimlet Labs zdejmuje ten ciężar z barków inżynierów, oferując abstrakcję warstwy sprzętowej. To podejście rozwiązuje problem fragmentacji rynku — zamiast polegać na jednym dostawcy, firmy mogą budować klastry obliczeniowe z tego, co jest aktualnie dostępne na rynku lub co zalega w ich centrach danych. Możliwość wykorzystania mocy ARM obok potężnych jednostek Cerebras w ramach jednego zadania to technologiczny majstersztyk, który znacząco obniża barierę wejścia dla zaawansowanych wdrożeń AI.

  • Pełna interoperacyjność: Wsparcie dla gigantów (NVIDIA, AMD) oraz innowatorów (Cerebras, d-Matrix).
  • Efektywność kosztowa: Wykorzystanie tańszych jednostek CPU do mniej wymagających części procesu inferencji.
  • Skalowalność: Możliwość budowania hybrydowych chmur obliczeniowych bez ryzyka vendor lock-in.
  • Optymalizacja pamięci: Inteligentne zarządzanie zasobami w systemach o wysokiej przepustowości.

Koniec ery dyktatury jednego dostawcy

Inwestycja Menlo Ventures w Gimlet Labs to jasny sygnał dla rynku: era monokultury sprzętowej w AI dobiega końca. Choć NVIDIA nadal posiada najlepszy ekosystem oprogramowania, propozycja Zaina Asgara uderza w najsłabszy punkt lidera — ograniczoną podaż i wysoką cenę. Jeśli oprogramowanie Gimlet Labs rzeczywiście pozwoli na uzyskanie wysokiej wydajności inferencji przy użyciu mixu chipów Intel i AMD, dynamika sił w sektorze centrów danych ulegnie gwałtownej zmianie. To szansa dla mniejszych graczy, jak d-Matrix, aby ich wyspecjalizowane układy trafiły do głównego nurtu bez konieczności walki o każdego dewelopera z osobna.

Warto zwrócić uwagę na postać samego założyciela. Zain Asgar, jako "successfully exited founder", posiada rzadką kombinację głębokiej wiedzy akademickiej ze Stanfordu oraz instynktu biznesowego. Jego wizja "multi-silicon inference cloud" nie jest teoretycznym konceptem, lecz gotowym narzędziem do rozwiązywania realnego problemu biznesowego: jak taniej i szybciej serwować odpowiedzi z modeli językowych (LLM). W świecie, gdzie koszt pojedynczego zapytania do modelu determinuje rentowność całych produktów, technologia Gimlet Labs staje się kluczowym elementem stosu technologicznego (tech stack) nowoczesnej firmy AI.

To nie jest tylko kwestia wygody. To kwestia przetrwania w świecie, w którym dostęp do mocy obliczeniowej decyduje o sukcesie lub porażce startupu. Możliwość uruchomienia modelu na dowolnym dostępnym krzemie to ostateczne wyzwolenie z łańcucha dostaw.

Demokratyzacja inferencji poprzez inteligentny software

Największym wyzwaniem dla Gimlet Labs będzie utrzymanie niskich opóźnień (latency) przy tak zróżnicowanej infrastrukturze. Przesyłanie danych między jednostkami różnych producentów zazwyczaj wiąże się z ogromnymi narzutami czasowymi. Jeśli jednak startupowi udało się zminimalizować te straty, mamy do czynienia z przełomem na miarę wirtualizacji serwerów z początku lat 2000. Tak jak VMware pozwoliło zapomnieć o fizycznych ograniczeniach serwerów, tak Gimlet Labs może pozwolić zapomnieć o tym, jaki chip aktualnie mieli nasze dane.

Perspektywa wykorzystania systemów high-memory w połączeniu z tradycyjnymi procesorami do obsługi olbrzymich kontekstów w modelach AI otwiera zupełnie nowe możliwości dla branży medycznej, prawnej czy naukowej. Tam, gdzie liczy się nie tylko szybkość, ale i zdolność do przetwarzania gigantycznych zbiorów danych "w locie", elastyczność oferowana przez Gimlet Labs okaże się bezcenna. Kwota 80 milionów dolarów pozwoli firmie na agresywne skalowanie zespołu inżynierskiego i prawdopodobnie na szybkie wdrożenia pilotażowe u największych dostawców usług chmurowych, którzy chcą zdywersyfikować swoją ofertę sprzętową.

Można z dużą dozą pewności założyć, że technologia multi-silicon stanie się standardem w ciągu najbliższych kilku lat. Rynek nie zaakceptuje na dłuższą metę uzależnienia od jednego producenta, a sukces Gimlet Labs pokaże, że inteligencja systemu drzemie w oprogramowaniu zarządzającym, a nie tylko w samym krzemie. Jeśli model biznesowy oparty na uniwersalnej chmurze inferencyjnej się sprawdzi, będziemy świadkami narodzin nowego giganta infrastrukturalnego, który połączy rozdrobniony rynek akceleratorów AI w jeden, spójny organizm obliczeniowy.

Źródło: TechCrunch Startups
Udostępnij

Komentarze

Loading...