ChatGPT nie będzie flirtować: „niegrzeczny tryb” odstrasza inwestorów wedle raportu

Olemedia | iStock / Getty Images Plus
OpenAI bezterminowo zawiesiło prace nad „trybem dla dorosłych”, uginając się pod presją doradców, pracowników oraz kluczowych inwestorów. Jak donosi Financial Times, projekt mający umożliwić ChatGPT generowanie treści erotycznych trafił do kosza, ponieważ ryzyko wizerunkowe i etyczne drastycznie przewyższyło potencjalne zyski biznesowe. Wewnętrzne analizy wykazały przerażające scenariusze – jeden z doradców ostrzegł, że po zmianach AI mogłoby stać się „seksownym trenerem samobójstw”, promując niezdrowe przywiązania emocjonalne u użytkowników. Inżynierowie napotkali również bariery techniczne: modele trenowane latami pod kątem bezpieczeństwa stawiały opór przy próbach generowania treści explicit, a filtrowanie nielegalnych motywów, takich jak zoofilia czy kazirodztwo, okazało się niemal niemożliwe przy użyciu obecnych zbiorów danych. Dla globalnej społeczności twórców i użytkowników oznacza to jasny sygnał – liderzy rynku AI wycofują się z niszowej rozrywki na rzecz budowania bezpiecznych, profesjonalnych narzędzi produktywnych. Decyzja ta ucina spekulacje o liberalizacji polityki treści i cementuje rygorystyczne podejście do bezpieczeństwa, które stanie się standardem dla wszystkich komercyjnych chatbotów dążących do masowej adopcji. OpenAI stawia na stabilność ekosystemu, zamiast ryzykować reputację dla chwilowego trendu w segmencie NSFW.
W świecie technologii, gdzie granice między innowacją a etyką zacierają się niemal każdego dnia, OpenAI stanęło przed dylematem, który mógł zdefiniować przyszłość interakcji człowiek-maszyna. Projekt wprowadzenia tzw. adult mode do ChatGPT, mający na celu poluzowanie restrykcji dotyczących treści erotycznych i flirtu, został oficjalnie odłożony na półkę. Jak donosi Financial Times, kontrowersyjny plan zamrożono „bezterminowo”, a firma kierowana przez Sama Altmana zdecydowała się na ponowne skoncentrowanie zasobów na swoich core products.
Decyzja ta nie zapadła w próżni. Była wynikiem splotu wewnętrznego oporu pracowników, miażdżących opinii doradców ds. bezpieczeństwa oraz, co być może najważniejsze w świecie wielkiego kapitału, wyraźnego zaniepokojenia inwestorów. Wizja bota, który potrafi „rozmawiać sprośnie”, okazała się zbyt ryzykowna dla reputacji firmy, która od początku pozycjonuje się jako lider odpowiedzialnego rozwoju sztucznej inteligencji. Zamiast rewolucji w cyfrowej intymności, otrzymaliśmy sygnał, że granice bezpieczeństwa pozostaną nienaruszone.
Ryzyko „seksualnego trenera samobójców”
Wewnętrzne debaty w OpenAI nad wprowadzeniem treści dla dorosłych przybrały momentami dramatyczny obrót. Doradcy firmy ostrzegali, że użytkownicy ChatGPT mogliby wykształcić unhealthy attachments (niezdrowe przywiązania) do bota, co w dłuższej perspektywie uderzyłoby w ich zdrowie psychiczne. Jeden z doradców użył nawet mrożącego krew w żyłach określenia, sugerując, że źle skalibrowany model mógłby stać się „sexy suicide coach” – seksualnym trenerem samobójców, łączącym uwodzenie z niebezpiecznymi sugestiami behawioralnymi.
Czytaj też

To skrajne porównanie rzuca światło na fundamentalny problem: AI nie rozumie kontekstu emocjonalnego w taki sposób, jak człowiek. Połączenie otwartości na tematy erotyczne z ogromną siłą perswazji dużych modeli językowych (LLM) tworzy mieszankę wybuchową. OpenAI, które i tak mierzy się z pozwami dotyczącymi negatywnego wpływu chatbotów na dzieci i dorosłych, nie mogło pozwolić sobie na otwarcie kolejnego frontu walki o bezpieczeństwo psychiczne swoich użytkowników.
Pracownicy zaangażowani w projekt również zaczęli kwestionować jego sens. W kuluarach firmy podnoszono argumenty, czy sexy ChatGPT w ogóle wpisuje się w misję tworzenia AI, która ma przynosić korzyści ludzkości. Dla wielu inżynierów praca nad tym modułem stała się etycznym obciążeniem, którego nie rekompensowały potencjalne zyski z nowej funkcjonalności.
Technologiczny opór materii i mroczne dane
Oprócz kwestii moralnych, OpenAI zderzyło się z twardą ścianą technologiczną. Modele takie jak GPT były od lat trenowane w taki sposób, aby unikać generowania treści jawnie seksualnych ze względów bezpieczeństwa. Próba „oduczenia” ich tych barier okazała się zadaniem karkołomnym. Zespoły techniczne napotkały ogromne trudności w kontrolowaniu wyników generowanych przez AI, gdy do zestawów treningowych włączono materiały o charakterze erotycznym.
- Trudności w filtrowaniu: Wykorzystanie zbiorów danych zawierających treści seksualne sprawiło, że niezwykle ciężko było wyeliminować z wyników zachowania nielegalne, takie jak zoofilia czy kazirodztwo.
- Niestabilność modelu: Próba zbalansowania „flirciarskiego” tonu z zachowaniem standardów bezpieczeństwa prowadziła do nieprzewidywalnych reakcji AI.
- Koszty vs korzyści: Nakład pracy potrzebny na rozwiązanie tych problemów uznano za nieproporcjonalny do wartości rynkowej samej funkcji.
W obliczu tych wyzwań, kontynuowanie prac nad adult mode stało się dla inżynierów walką z wiatrakami. Systemy, które dotychczas były rygorystycznie cenzurowane, po poluzowaniu lejców zaczęły dryfować w stronę najbardziej toksycznych zakamarków internetu, co dla firmy o takim profilu jak OpenAI było nie do zaakceptowania.

Inwestorzy mówią „nie” dla flirtu
Ostateczny cios projektowi zadali jednak ci, którzy trzymają portfel. Według źródeł Financial Times, "flirt OpenAI z trybem dla dorosłych" wywołał głęboki niepokój wśród inwestorów. W świecie technologii finansowanie zależy od zaufania i stabilności marki, a wprowadzenie erotyki do flagowego produktu mogłoby to zaufanie bezpowrotnie zniszczyć. Inwestorzy wprost pytali, dlaczego firma miałaby ryzykować swoją reputację dla produktu o relatively small upside – stosunkowo niewielkim potencjale wzrostu biznesowego.
Dla dużych graczy finansowych ChatGPT to narzędzie produktywności, silnik dla biznesu i przyszły fundament gospodarki cyfrowej. Skojarzenie go z branżą pornograficzną lub erotyczną mogłoby zniechęcić partnerów korporacyjnych i rządy, z którymi OpenAI stara się blisko współpracować. W tym kontekście „sexy mode” był postrzegany nie jako innowacja, a jako niepotrzebna i niebezpieczna dywersja.
Wizja OpenAI jako firmy dostarczającej narzędzia zmieniające świat nie współgrała z obrazem dostawcy cyfrowych towarzyszy do flirtu. Decyzja o wycofaniu się z adult mode to zwycięstwo pragmatyzmu nad chęcią eksploracji kontrowersyjnych nisz rynkowych.
Rezygnacja z planów dotyczących treści erotycznych pokazuje, że OpenAI wchodzi w fazę dojrzałości korporacyjnej. Firma zrozumiała, że bycie liderem rynku AI wymaga nie tylko przełomów technologicznych, ale przede wszystkim umiejętności wyznaczania granic. W dobie narastającej fali pozwów dotyczących braku odpowiednich zabezpieczeń w chatbotach, ruch ten jest próbą ucieczki do przodu i ochrony resztek wizerunku „bezpiecznej sztucznej inteligencji”. Choć rynek cyfrowych towarzyszy (AI companions) rośnie w siłę, OpenAI wyraźnie komunikuje: nie tym razem i nie w ten sposób. ChatGPT pozostanie rzetelnym asystentem, a nie wirtualnym kochankiem, co w dłuższej perspektywie może okazać się najzdrowszą decyzją dla całej branży technologicznej.
Więcej z kategorii Sztuczna inteligencja

Melania Trump chce, aby roboty uczyły Twoje dziecko w domu

Czy da się śledzić sytuację bez monitorów? Sports bar od Polymarket podjął próbę

Google: nowa kompresja TurboQuant obniża zużycie pamięci AI bez utraty jakości

Koniec Sora oznacza również koniec inwestycji Disney wartej miliard dolarów w OpenAI
Podobne artykuły

Meta zwalnia setki pracowników, inwestując miliardy dolarów w AI
21h
Google przedstawia TurboQuant, nowy algorytm kompresji pamięci AI – internet już nazywa go „Pied Piper”
22h
Reddit zmusi „podejrzane” konta do weryfikacji, czy są prowadzone przez ludzi
23h

