„Problemem jest Sam Altman”: Pracownicy OpenAI nie ufają swojemu CEO

Bloomberg / Contributor | Bloomberg
Ponad 100 osób powiązanych z OpenAI, w tym kluczowi byli liderzy jak Ilya Sutskever i Dario Amodei, wskazuje na jeden fundamentalny problem trapiący giganta AI: brak zaufania do Sama Altmana. Śledztwo opublikowane przez „The New Yorker” rzuca cień na wizerunek CEO, którego współpracownicy opisują jako osobę o niemal socjopatycznej skłonności do manipulacji i przedkładania własnej władzy nad bezpieczeństwo technologii. Choć OpenAI oficjalnie promuje politykę „stawiania ludzi na pierwszym miejscu” i ostrzega przed ryzykiem utraty kontroli nad superinteligencją, wewnętrzne głosy sugerują, że deklaracje te mogą być jedynie zasłoną dymną dla agresywnej ekspansji. Dla globalnych użytkowników i twórców korzystających z narzędzi OpenAI, te doniesienia mają wymiar praktyczny. Podważają one wiarygodność mechanizmów bezpieczeństwa wdrażanych w modelach GPT, sugerując, że optymistyczna narracja o „dobrobycie dla wszystkich” służy głównie uspokojeniu regulatorów i opinii publicznej. W obliczu rosnącej liczby pozwów i rządowych kontroli, rozdźwięk między etycznymi manifestami a rzeczywistymi metodami zarządzania Altmana staje się kluczowym ryzykiem biznesowym. Użytkownicy muszą liczyć się z tym, że kierunek rozwoju AI zależy dziś nie tylko od przełomów technicznych, ale przede wszystkim od osobistych ambicji lidera, którego wiarygodność została publicznie podważona przez najbliższych współpracowników.
W świecie technologii rzadko zdarza się, aby oficjalna linia programowa firmy i jej wewnętrzna kultura liderowania stały w tak jaskrawej sprzeczności. OpenAI, organizacja stojąca za rewolucją generatywnej sztucznej inteligencji, opublikowała właśnie ambitny manifest polityczny, mający na celu przekonanie opinii publicznej, że dąży do stworzenia „superinteligencji służącej ludzkości”. Jednak w tym samym czasie na jaw wychodzą szczegóły obszernego śledztwa „The New Yorker”, które rzuca cień na postać człowieka stojącego za tymi obietnicami. Według informatorów z wnętrza firmy, Sam Altman może być największą przeszkodą w realizacji bezpiecznej wizji AI.
Rozdźwięk między tym, co OpenAI deklaruje publicznie, a tym, jak postrzegany jest jej dyrektor generalny, staje się coraz trudniejszy do zignorowania. Podczas gdy firma promuje idee takie jak fundusze bogactwa publicznego czy 32-godzinny tydzień pracy, byli współpracownicy i członkowie zarządu kreślą obraz lidera, którego głównym celem jest kumulacja władzy. Jeden z członków zarządu podsumował Altmana jako osobę łączącą dwie rzadkie cechy: obsesyjną potrzebę bycia lubianym oraz niemal socjopatyczny brak troski o konsekwencje wprowadzania innych w błąd.
Architektura obietnic kontra rzeczywistość dezinformacji
Śledztwo „The New Yorker”, oparte na rozmowach z ponad 100 osobami oraz analizie wewnętrznych notatek, sugeruje, że Sam Altman operuje w oparciu o „akumulację domniemanych oszustw i manipulacji”. Dokumentacja zebrana przez byłego głównego naukowca Ilyę Sutskevera oraz byłego szefa badań Dario Amodei wskazuje, że zachowania te nie były jednostkowymi incydentami, lecz systematycznym wzorcem działania. To właśnie te obserwacje doprowadziły Amodeia do konkluzji, że „problemem w OpenAI jest sam Sam”.
Czytaj też

Altman broni się przed tymi zarzutami, twierdząc, że niektóre wydarzenia po prostu zapomniał, a zmiany w jego narracji wynikają z dynamicznie ewoluującego krajobrazu technologicznego. Przyznaje się jedynie do unikania konfliktów w przeszłości. Niemniej jednak, dla obserwatorów branżowych, ta „elastyczność” w przekazywaniu faktów staje się problematyczna w momencie, gdy rządy i kluczowe instytucje zaczynają polegać na modelach OpenAI w krytycznych obszarach funkcjonowania państw.
Warto zauważyć, że Sam Altman zmienił ostatnio ton swojej komunikacji. Z pozycji „zbawcy” chroniącego świat przed apokalipsą AI, przeszedł w stronę „żywiołowego optymizmu”. Ta zmiana wizerunkowa zbiega się w czasie z rosnącym oporem społecznym wobec technologii AI, napędzanym obawami o bezpieczeństwo dzieci, utratę miejsc pracy oraz gigantyczne zużycie energii przez centra danych. Nowe propozycje programowe OpenAI mogą być zatem postrzegane nie jako realny plan naprawczy, lecz jako PR-owa zasłona dymna.
Industrialna polityka dla ery inteligencji
W odpowiedzi na pogarszające się nastroje społeczne, OpenAI przedstawiło zestaw rekomendacji politycznych, które nazywa „polityką przemysłową dla ery inteligencji”. Firma proponuje szereg rozwiązań, które mają złagodzić skutki transformacji technologicznej:
- Programy pilotażowe 32-godzinnego tygodnia pracy bez obniżki wynagrodzenia, aby zrekompensować wzrost produktywności wynikający z AI.
- Publiczny fundusz majątkowy, który zapewniałby każdemu obywatelowi udział w zyskach generowanych przez rozwój sztucznej inteligencji.
- Opodatkowanie zautomatyzowanej pracy, z którego środki miałyby finansować programy socjalne, takie jak Social Security czy pomoc mieszkaniowa.
- Inwestycje w sektor opiekuńczy, zachęcające osoby wypchnięte z rynku pracy przez AI do przekwalifikowania się na zawody związane z opieką zdrowotną i społeczną.
Z perspektywy redakcyjnej Pixelift, te propozycje brzmią nadzwyczaj progresywnie, wręcz utopijnie. Jednak krytycy, w tym cytowany przez „The New Yorker” badacz z OpenAI, ostrzegają: Altman ma tendencję do tworzenia struktur, które na papierze ograniczają jego władzę w przyszłości, by następnie — gdy ta przyszłość nadejdzie — po prostu je demontować. To stawia pod znakiem zapytania wiarygodność jakichkolwiek deklaracji o „samoregulacji” czy „współpracy publiczno-prywatnej”.

Gra o dominację pod płaszczem bezpieczeństwa
Analizując postulaty OpenAI dotyczące regulacji, można dostrzec próbę zabetonowania rynku. Firma sugeruje, że „tylko firmy z najbardziej zaawansowanymi modelami” powinny podlegać rygorystycznym audytom bezpieczeństwa. Choć oficjalnie ma to chronić mniejszą konkurencję, w praktyce może oznaczać, że giganci tacy jak OpenAI będą współtworzyć bariery wejścia, które utrudnią życie nowym graczom, jednocześnie legitymizując własną dominację pod hasłem „odpowiedzialności za superinteligencję”.
Szczególnie interesujący jest kontekst polityczny. Sam Altman prywatnie lobbuje przeciwko surowym przepisom dotyczącym bezpieczeństwa AI, o co oskarża go raport „The New Yorker”, podczas gdy publicznie wzywa do „zdroworozsądkowych regulacji”. Ten dualizm jest kluczowy w obliczu nadchodzących zmian politycznych w USA. Jeśli kontrolę nad legislacją przejmą siły dążące do silniejszego nadzoru nad technologią, dotychczasowa strategia Altmana polegająca na „perswadowaniu sceptycznej publiczności, że ich priorytety są jego priorytetami”, może przestać działać.
„Problem polega na tym, że Altman potrafi przekonać ludzi, iż dąży do wzajemnie wykluczających się celów, byle tylko utrzymać tempo rozwoju i finansowanie” — zauważają informatorzy.
Obecnie OpenAI intensyfikuje swoje działania lobbingowe, oferując granty badawcze i kredyty API o wartości do 1 miliona dolarów na projekty wspierające ich wizję polityczną. To klasyczna ucieczka do przodu. W branży, gdzie superinteligencja jest zapowiadana przez niektórych ekspertów już za dwa lata, czas gra na korzyść tych, którzy najszybciej narzucą swoją narrację. Jednak bez fundamentalnego zaufania do osoby lidera, nawet najbardziej szczodre obietnice dotyczące 32-godzinnego tygodnia pracy czy dywidendy z AI mogą zostać odebrane jedynie jako kosztowna kampania marketingowa „największego akwizytora swojego pokolenia”.
Moja teza jest następująca: OpenAI weszło w fazę, w której technologia przestała być ich jedynym produktem — teraz produktem jest zaufanie. Jeśli Sam Altman nie zdoła oczyścić się z zarzutów o manipulację i przedkładanie własnej władzy nad bezpieczeństwo ludzkości, żadne policyjne rekomendacje nie uratują firmy przed narastającym sceptycyzmem regulatorów. Branża AI stoi u progu momentu, w którym transparentność operacyjna stanie się ważniejsza niż parametry modelu GPT, a historia Altmana pokazuje, że to właśnie transparentność może być najtrudniejszym wyzwaniem dla obecnego kierownictwa OpenAI.
Więcej z kategorii Sztuczna inteligencja
Podobne artykuły

Jak korzystać z nowych integracji ChatGPT z DoorDash, Spotify, Uber i innymi aplikacjami
10h
Hiszpański Xoople pozyskuje 130 mln dolarów w serii B na mapowanie Ziemi dla AI
12h
Copilot służy wyłącznie do celów rozrywkowych według regulaminu Microsoft
5 kwi





