OpenAI porzuca kolejny projekt poboczny: tryb erotyczny ChatGPT

Kevin Dietsch / Getty Images
OpenAI bezterminowo zawiesza prace nad „erotycznym trybem” ChatGPT, kładąc kres spekulacjom o wprowadzeniu oficjalnego dostępu do treści dla dorosłych. Decyzja ta zapadła po miesiącach wewnętrznych sporów i fali krytyki ze strony grup nadzorczych, mimo że sam CEO Sam Altman jeszcze w październiku sugerował poluzowanie restrykcji dotyczących generowania kontrowersyjnych materiałów. Kluczowym momentem okazało się styczniowe spotkanie zarządu z doradcami, podczas którego padły mocne ostrzeżenia przed ryzykiem stworzenia „seksualnego trenera samobójców”, co obnażyło brak kontroli nad bezpieczeństwem tak specyficznego modelu. Dla globalnej społeczności twórców i użytkowników oznacza to utrzymanie rygorystycznych filtrów bezpieczeństwa oraz dalszą walkę z tzw. jailbreakami, czyli próbami obejścia blokad systemowych. OpenAI stawia na wizerunek bezpiecznej, korporacyjnej platformy, rezygnując z ogromnego rynku chatbotów romantycznych na rzecz stabilności etycznej. Użytkownicy poszukujący niefiltrowanej ekspresji kreatywnej lub interakcji typu NSFW zostają tym samym zmuszeni do korzystania z alternatywnych modeli open-source, które coraz wyraźniej zagospodarowują niszę porzuconą przez giganta z San Francisco. Rezygnacja z Adult Mode to jasny sygnał, że granice AI będą wyznaczane przez bezpieczeństwo publiczne, a nie tylko potencjalne zyski z kontrowersyjnych funkcji.
Strategia OpenAI przypomina ostatnio gwałtowny zwrot okrętu, który porzuca zbędny balast, by utrzymać tempo w wyścigu zbrojeń AI. Najnowszym projektem, który trafił do kosza – a przynajmniej został zawieszony na czas nieokreślony – jest budzący ogromne emocje „erotic mode” dla ChatGPT. Decyzja ta, o której jako pierwszy poinformował Financial Times, kończy miesiące spekulacji na temat tego, czy twórcy najpopularniejszego bota na świecie odważą się przekroczyć barierę treści dla dorosłych.
Pomysł na wprowadzenie „trybu dla dorosłych” nie był jedynie plotką krążącą na Reddicie. Sam Sam Altman, CEO OpenAI, zaczął otwarcie mówić o takiej możliwości już w październiku ubiegłego roku. Argumentacja była prosta: użytkownicy chcą większej wolności w kreowaniu tekstów, a sztywne filtry bezpieczeństwa często blokują twórczość literacką, która niekoniecznie jest szkodliwa, a jedynie zahacza o tematykę erotyczną. Jednak to, co na papierze wyglądało jak „demokratyzacja treści”, wewnątrz firmy wywołało prawdziwe trzęsienie ziemi.
Wewnętrzny opór i wizja „seksownego trenera samobójstw”
Opór wobec planów Altmana nie przyszedł tylko z zewnątrz, od organizacji nadzorujących rynek technologiczny, ale przede wszystkim z samego serca OpenAI. Jak donosi The Wall Street Journal, styczniowe spotkanie kadry zarządzającej z radą doradczą firmy przerodziło się w burzliwą kłótnię. Jeden z doradców użył wówczas drastycznego, ale dającego do myślenia porównania, ostrzegając, że firma może niechcący stworzyć „sexy suicide coach” – hybrydę bota zachęcającego do zachowań autodestrukcyjnych pod płaszczykiem uwodzenia.
Czytaj też
Ten argument uderzył w najczulszy punkt OpenAI: bezpieczeństwo. Model językowy, który ma być jednocześnie „niegrzeczny” i pomocny, stąpa po niezwykle cienkim lodzie. Granica między nieszkodliwym flirtem a promowaniem toksycznych relacji czy niebezpiecznych zachowań jest dla algorytmu niemal niemożliwa do precyzyjnego wyznaczenia. W obliczu rosnącej presji regulacyjnej na całym świecie, ryzyko wizerunkowe związane z potencjalnym skandalem obyczajowym przeważyło nad potencjalnymi zyskami z subskrypcji.

Koniec z projektami pobocznymi
Rezygnacja z trybu erotycznego to nie jest odosobniony przypadek, a raczej element szerszego trendu „sprzątania” w portfolio OpenAI. W ciągu zaledwie ostatniego tygodnia startup porzucił kilka innych projektów pobocznych, które odciągały zasoby od głównego celu: budowy Artificial General Intelligence (AGI). Firma ewidentnie przechodzi z fazy radosnej eksploracji każdego możliwego zastosowania AI do fazy rygorystycznej optymalizacji.
- Koncentracja na modelach bazowych: OpenAI przesuwa inżynierów do prac nad następcami GPT-4, zamiast tracić czas na niszowe „skórki” i tryby działania.
- Bezpieczeństwo przede wszystkim: Po fali krytyki dotyczącej odejścia kluczowych badaczy od bezpieczeństwa (tzw. Superalignment team), firma próbuje odzyskać zaufanie opinii publicznej.
- Unikanie kontrowersji prawnych: Treści dla dorosłych to pole minowe pod kątem praw autorskich i ochrony nieletnich, na co OpenAI nie może sobie teraz pozwolić.
Decyzja o „bezterminowym” wstrzymaniu prac nad erotic mode pokazuje, że granice tego, co AI powinna robić, są obecnie redefiniowane. Podczas gdy mniejsi gracze na rynku, tacy jak Character.ai czy platformy open-source, budują swoją popularność właśnie na braku cenzury, giganci pokoju OpenAI muszą grać według innych zasad. Ich modele są fundamentem dla tysięcy aplikacji biznesowych, a obecność „trybu dla dorosłych” mogłaby podważyć profesjonalny wizerunek narzędzia.
Rynek nie znosi próżni, ale OpenAI wybiera spokój
Z perspektywy branżowej, ruch OpenAI jest sygnałem dla całego sektora Generative AI. Firma, która wyznacza standardy, mówi jasno: nie będziemy „cyfrowym domem publicznym”. To otwiera ogromną przestrzeń dla konkurencji, która nie boi się kontrowersji, ale jednocześnie zabezpiecza ChatGPT jako narzędzie pierwszego wyboru dla sektora edukacyjnego i korporacyjnego. Ryzyko, że model zacząłby generować nieodpowiednie treści w środowisku pracy, było zbyt duże, by je ignorować.
Warto zauważyć, że debata nad „adult mode” obnażyła również napięcia wewnątrz struktury dowodzenia OpenAI. Konflikt między wizją Altmana – który często prze do przodu, testując granice – a radą doradczą stawiającą na etykę, jest kluczowy dla zrozumienia, jak będą wyglądać kolejne wersje GPT. Na ten moment wygrała ostrożność, co w dłuższej perspektywie może okazać się jedyną drogą do przetrwania w świecie coraz ostrzejszych regulacji prawnych dotyczących sztucznej inteligencji.
Można przypuszczać, że OpenAI zamiast tworzyć dedykowany tryb, skupi się na bardziej subtelnym poluzowaniu filtrów dla pisarzy i twórców kreatywnych, ale bez nadawania temu oficjalnej, „erotycznej” etykiety. To pozwoli zachować twarz i uniknąć oskarżeń o purytanizm, jednocześnie nie narażając się na ataki ze strony strażników moralności i regulatorów. W świecie wielkiej technologii, gdzie każda funkcja jest analizowana pod kątem ESG i bezpieczeństwa, „side questy” takie jak tryb erotyczny stają się zbyt kosztowne, by je kontynuować.
Więcej z kategorii Sztuczna inteligencja

Debiut Gemini 3.1 Flash Live sprawi, że trudniej będzie odróżnić bota od człowieka

ChatGPT nie będzie flirtować: „niegrzeczny tryb” odstrasza inwestorów wedle raportu

Luka w umiejętnościach AI staje się faktem – power userzy zyskują przewagę






