Sztuczna inteligencja6 min czytaniaThe Verge AI

Nastolatkowie pozywają xAI Elona Muska za pedofilskie treści z Groka

P
Redakcja Pixelift0 views
Udostępnij
Nastolatkowie pozywają xAI Elona Muska za pedofilskie treści z Groka

Foto: The Verge AI

Osiemnaście nieletnich osób padło ofiarą procederu, w którym ich prywatne zdjęcia zostały przekształcone w materiały o charakterze seksualnym (CSAM) przy użyciu bota Grok. Trzy nastolatki z Tennessee złożyły pozew zbiorowy przeciwko należącej do Elona Muska firmie xAI, oskarżając giganta o świadome dopuszczenie do generowania nielegalnych treści. Według dokumentów sądowych złożonych w marcu 2026 roku, sprawca wykorzystywał tryb „spicy mode” do tworzenia fotorealistycznych deepfake'ów, które następnie służyły jako „waluta” w grupach na platformach Discord i Telegram. Sprawa rzuca światło na krytyczne luki w zabezpieczeniach Groka, który mimo licznych ostrzeżeń ze strony zespołów ds. bezpieczeństwa, pozwalał na manipulację wizerunkiem osób trzecich. Pozew argumentuje, że xAI wypuściło na rynek produkt wadliwy konstrukcyjnie, pomijając rzetelne testy bezpieczeństwa. Dla globalnej społeczności użytkowników i twórców AI sprawa ta stanowi precedens w walce o odpowiedzialność prawną producentów modeli generatywnych. Implikacje są jasne: era bezkarnego wdrażania narzędzi bez filtrów dobiega końca, a nowe regulacje, takie jak amerykański Take It Down Act, zaczynają realnie kryminalizować dystrybucję niekonsensualnych treści. Branża kreatywna musi przygotować się na znacznie surowsze restrykcje w zakresie generowania wizerunków ludzi, gdyż granica między innowacją a naruszeniem dóbr osobistych została drastycznie przekroczona.

Przemysł sztucznej inteligencji dotarł do punktu, w którym techniczna brawura zderza się z najmroczniejszymi aspektami ludzkiej natury. Pozew zbiorowy wytoczony przeciwko należącej do Elona Muska firmie xAI przez troje nastolatków z Tennessee, to nie tylko kolejna batalia prawna w Dolinie Krzemowej. To moment krytyczny, który obnaża systemową niewydolność mechanizmów bezpieczeństwa w modelu Grok. Zarzuty są porażające: chatbot miał posłużyć do generowania materiałów o charakterze seksualnym z udziałem nieletnich (CSAM), które następnie trafiły do obiegu w zamkniętych grupach na platformach Discord i Telegram.

Sprawa, nagłośniona pierwotnie przez The Washington Post, rzuca światło na tak zwany „spicy mode” – funkcję, która od początku budziła kontrowersje swoją skłonnością do omijania standardowych filtrów moralnych. Powodowie twierdzą, że kierownictwo xAI, z Elonem Muskiem na czele, miało pełną świadomość, iż ich narzędzie może generować nielegalne treści, a mimo to zdecydowało się na agresywne wdrożenie produktu na rynek. Dla branży AI to sygnał, że era „testowania na żywym organizmie społecznym” bez ponoszenia odpowiedzialności właśnie dobiega końca.

Architektura błędu i mechanizm nadużycia

Fundamentem oskarżenia jest teza o „wadliwej konstrukcji” modelu Grok. Według dokumentów sądowych, jeden ze sprawców, który został już aresztowany, wykorzystał AI od Muska do stworzenia fotorealistycznych, upokarzających obrazów i filmów. Jedna z ofiar, zidentyfikowana jako Jane Doe 1, odkryła w grudniu ubiegłego roku, że jej wizerunek – oparty na prawdziwych zdjęciach szkolnych i rodzinnych – został zmanipulowany i udostępniony w sieci. Co najbardziej wstrząsające, materiały te służyły jako „waluta” w grupach pedofilskich, gdzie wymieniano je na inne nielegalne treści.

Problem nie ogranicza się do pojedynczego incydentu. Pozew sugeruje, że xAI zignorowało fundamentalne zasady bezpieczeństwa, takie jak adversarial testing (testy red-teamingowe), które powinny wyłapać podatność modelu na generowanie treści krzywdzących dzieci. Grok, pozycjonowany jako „anty-woke” i bardziej swobodna alternatywa dla ChatGPT czy Claude, w rzeczywistości stał się narzędziem w rękach drapieżników seksualnych. Lista uchybień technicznych, o które oskarżana jest firma, obejmuje między innymi:

  • Brak skutecznych filtrów blokujących generowanie wizerunków osób nieletnich w kontekstach seksualnych.
  • Niewystarczający nadzór nad funkcją edycji zdjęć przesłanych przez użytkowników.
  • Umożliwienie modelowi omijania restrykcji poprzez specyficzne zapytania (prompt injection) w trybie „spicy”.
  • Brak mechanizmów wodnych (watermarking) pozwalających na szybką identyfikację i blokowanie treści wygenerowanych przez Grok.

Globalna presja regulacyjna i koniec immunitetu

Incydent z Grokiem wywołał lawinę reakcji na najwyższych szczeblach władzy, wykraczającą daleko poza granice jednego kontynentu. Unia Europejska już wszczęła dochodzenie w sprawie zgodności działań platformy X i xAI z aktem o usługach cyfrowych (DSA). Z kolei w USA, prezydent Donald Trump podpisał w 2025 roku Take It Down Act, który ma na celu kryminalizację dystrybucji niekonsensualnych deepfake’ów. Ustawa ta, wchodząca w życie w maju, stworzy nowy krajobraz prawny, w którym giganci technologiczni nie będą mogli zasłaniać się statusem „pośrednika”.

Dziennikarskie śledztwa, w tym testy przeprowadzone przez redakcję The Verge, potwierdzają, że mimo zapewnień xAI o wprowadzaniu poprawek, Grok wciąż wykazuje niepokojącą elastyczność w manipulowaniu obrazami. Stanowisko firmy, twierdzącej, że odpowiedzialność ponosi wyłącznie użytkownik łamiący regulamin, staje się coraz trudniejsze do utrzymania. W świecie, gdzie generative AI potrafi stworzyć przekonujący materiał wideo w kilka sekund, odpowiedzialność producenta za „bezpieczeństwo u podstaw” (safety by design) staje się standardem, a nie opcją.

Erozja zaufania w erze syntetycznych mediów

Sprawa przeciwko xAI to tylko wierzchołek góry lodowej w szerszym kryzysie zaufania do technologii wizualnych. Jeśli narzędzia warte miliardy dolarów mogą zostać tak łatwo zaprzęgnięte do niszczenia życia prywatnego jednostek, to cały ekosystem kreatywny stoi przed egzystencjalnym wyzwaniem. Prawnicy reprezentujący ofiary, w tym Annika K. Martin z kancelarii Lieff Cabraser, podkreślają, że nie chodzi tylko o odszkodowania, ale o wymuszenie na firmach AI zmiany paradygmatu produkcji oprogramowania.

Warto zwrócić uwagę na reakcję rynku finansowego i procesorów płatniczych. Historycznie, branża finansowa była niezwykle restrykcyjna wobec wszelkich form CSAM, co często uderzało w legalnych twórców treści dla dorosłych. Jednak w przypadku AI, gdzie granica między twórczością a przestępstwem zaciera się w kodzie, mechanizmy te okazały się dziurawe. Obecna sytuacja pokazuje, że bez rygorystycznych, ujednoliconych standardów technicznych dla wszystkich twórców modeli LLM i Diffusion, internet stanie się miejscem skrajnie niebezpiecznym dla najmłodszych użytkowników.

„To dzieci, których zdjęcia szkolne zostały zamienione w materiały pedofilskie przez narzędzie AI miliardowej firmy, a następnie stały się przedmiotem handlu wśród drapieżników. Zamierzamy pociągnąć xAI do odpowiedzialności za każde skrzywdzone w ten sposób dziecko” – Annika K. Martin, prawniczka ofiar.

Koniec ery „wolnej amerykanki” w AI

Analizując trajektorię rozwoju xAI, można odnieść wrażenie, że firma padła ofiarą własnej filozofii „szybkiego działania i łamania zasad”. O ile w przypadku rakiet czy samochodów elektrycznych takie podejście przynosiło przełomy, o tyle w sferze generowania treści wizualnych i społecznych interakcji, brak empatii w algorytmach prowadzi do tragedii. Grok, zamiast być „najzabawniejszym AI na świecie”, stał się symbolem braku odpowiedzialności korporacyjnej.

W mojej ocenie, ten proces będzie punktem zwrotnym dla całej branży. Możemy spodziewać się wprowadzenia obowiązkowych audytów bezpieczeństwa przed premierą każdego dużego modelu AI, podobnych do tych, jakie przechodzą leki przed wprowadzeniem do aptek. Firmy takie jak OpenAI, Anthropic czy Google będą teraz pod jeszcze większą lupą, a argument o „nieprzewidywalności modeli czarnej skrzynki” przestanie być akceptowalną linią obrony w sądzie. Jeśli xAI przegra tę sprawę, stworzy to precedens, który może kosztować branżę miliardy dolarów w ubezpieczeniach i karach, ale przede wszystkim – może wreszcie wymusić priorytetyzację bezpieczeństwa nad tempem innowacji.

Przyszłość technologii generatywnych nie zależy już od tego, jak piękne obrazy potrafią tworzyć, ale od tego, jak skutecznie potrafią powstrzymać się przed tworzeniem tych, które nigdy nie powinny powstać. xAI stoi teraz przed wyborem: albo radykalnie przebuduje swój model i systemy kontroli, albo pogrąży się w niekończących się procesach, które ostatecznie mogą doprowadzić do zablokowania Groka na kluczowych rynkach światowych.

Źródło: The Verge AI
Udostępnij

Komentarze

Loading...