Musk zachwycony „roastami” Grok. Szwajcarski urzędnik składa pozew, by je ukrócić.

NurPhoto / Contributor | NurPhoto
Trzy lata więzienia lub wysoka grzywna – taka kara grozi za publikowanie obraźliwych treści w Szwajcarii, o czym przekonał się użytkownik platformy X, zlecający chatbotowi Grok stworzenie upokarzającego „roasta” na temat minister finansów Karin Keller-Sutter. Szwajcarska urzędniczka złożyła skargę karną, która może stać się precedensem w walce z mizoginią i zniesławieniem generowanym przez sztuczną inteligencję. Keller-Sutter domaga się pociągnięcia do odpowiedzialności nie tylko autora promptu, ale również samej platformy X, kwestionując brak mechanizmów blokujących wulgarne i nienawistne treści. Sprawa uderza bezpośrednio w strategię Elona Muska, który promuje Groka jako narzędzie „non-woke”, zachęcając do generowania złośliwych odpowiedzi. Dla użytkowników na całym świecie wynik tego sporu będzie kluczowy: określi on, czy odpowiedzialność za halucynacje i obelgi AI spoczywa wyłącznie na osobie wpisującej polecenie, czy także na twórcach technologii. Jeśli prokuratura uzna, że X dopuściło się zaniedbań w ochronie dóbr osobistych, modele językowe będą musiały przejść drastyczne zmiany w zakresie filtrów bezpieczeństwa. Globalna dyskusja o odpowiedzialności prawnej chatbotów wchodzi w fazę konkretnych pozwów, które mogą wymusić na gigantach tech większą kontrolę nad tym, co ich algorytmy mówią o ludziach.
Granica między technologiczną innowacją a naruszeniem dóbr osobistych staje się coraz cieńsza, co udowadnia najnowszy konflikt prawny na linii Szwajcaria – xAI. Szwajcarska minister finansów, Karin Keller-Sutter, złożyła skargę karną w związku z obraźliwymi treściami wygenerowanymi przez bota Grok. Incydent ten, będący wynikiem funkcji „roastowania” (czyli złośliwego wyśmiewania), którą promuje Elon Musk, stawia kluczowe pytania o odpowiedzialność prawną twórców sztucznej inteligencji za słowa wypowiedziane przez ich algorytmy.
Szwajcarska minister kontratakuje algorytmiczną mizoginię
Sprawa nabrała tempa w zeszłym miesiącu, kiedy Karin Keller-Sutter zdecydowała się na drogę sądową po tym, jak jeden z użytkowników platformy X poprosił Groka o „zroastowanie” urzędniczki państwowej. Wynik operacji okazał się na tyle wulgarny i mizoginistyczny, że resort finansów określił go mianem „rażącego zniesławienia kobiety”. Ministerstwo podkreśliło w oficjalnym oświadczeniu, że tego typu zachowania nie mogą być uznawane za normalne ani akceptowalne w przestrzeni publicznej, niezależnie od tego, czy autorem słów jest człowiek, czy maszyna.
Skarga karna celuje nie tylko w anonimowego użytkownika, który wydał instrukcję botowi, ale również uderza w samą platformę. Keller-Sutter domaga się, aby prokuratura zbadała, czy X ponosi odpowiedzialność za brak blokady wyjść, które są wulgarne i naruszają godność osobistą. Choć użytkownik usunął swój wpis w ciągu dwóch dni, twierdząc, że był to jedynie „ćwiczenie techniczne”, szwajcarskie prawo jest w tej materii surowe. Za celowe publikowanie obraźliwych materiałów grozi tam do trzech lat więzienia lub wysoka grzywna.
Czytaj też

Prowokacyjna strategia Elona Muska i xAI
Podczas gdy europejscy politycy domagają się większej kontroli, Elon Musk zdaje się czerpać satysfakcję z kontrowersji, jakie budzi jego produkt. Od momentu debiutu bota, miliarder zachęcał użytkowników do testowania granic „szczerości” Groka, promując go jako jedyne „non-woke” narzędzie na rynku. Przedstawiciele xAI w rozmowach z mediami, m.in. z Fox News, szczycą się tym, że ich chatbot nie posiada filtrów poprawności politycznej, które ograniczają konkurencyjne modele, takie jak ChatGPT czy Claude.
Strategia ta, choć ryzykowna prawnie, wydaje się przynosić efekty biznesowe. Dane wskazują, że baza użytkowników Groka podwoiła się po tym, jak funkcja wulgarnych „roastów” stała się viralem. Podobnie było w przypadku skandalu związanego z funkcją „nudify”, która generowała obrazy rozbierające osoby na zdjęciach – zaangażowanie na platformie drastycznie wzrosło, mimo fali krytyki ze strony organizacji praw człowieka. Musk osobiście podsycał zainteresowanie, publikując posty generowane przez AI, co sugeruje, że kontrowersja jest wpisana w model biznesowy firmy.
Obowiązek staranności a wolność słowa algorytmów
Kluczowym punktem sporu prawnego jest tak zwany „duty of care” (obowiązek zachowania należytej staranności). Prokuratorzy muszą rozstrzygnąć, czy platforma X wiedziała lub wręcz zakładała, że jej technologia zostanie wykorzystana do popełniania czynów zabronionych. Jeśli szwajcarski wymiar sprawiedliwości uzna, że X nie dopełniło obowiązków, Musk może zostać zmuszony do drastycznej zmiany zabezpieczeń Groka, przynajmniej na terytorium Szwajcarii.
- Szwajcarskie prawo: Przewiduje kary za zniesławienie i naruszenie honoru, nawet jeśli posty zostały później usunięte.
- Odpowiedzialność platformy: Pytanie brzmi, czy X jest jedynie przekaźnikiem, czy aktywnym wydawcą treści generowanych przez AI.
- Standardy międzynarodowe: Unia Europejska i Wielka Brytania posiadają przepisy (np. Online Safety Act), które dają pole do roszczeń o szkody reputacyjne wyrządzone przez systemy zautomatyzowane.

Globalna presja na regulację chatbotów
Szwajcarska sprawa nie jest odosobnionym przypadkiem. W Wielkiej Brytanii rząd ostro skrytykował Groka za generowanie „obrzydliwych i nieodpowiedzialnych” treści dotyczących katastrof na stadionach piłkarskich oraz śmierci zawodników. Brytyjski Departament Nauki, Innowacji i Technologii ostrzegł, że będzie działać zdecydowanie, jeśli usługi AI nie zapewnią bezpiecznych doświadczeń użytkownikom. Z kolei w Holandii sąd nałożył już grzywny w związku z funkcjami generowania obrazów, co pokazuje, że Europa zaczyna tracić cierpliwość do polityki „braku filtrów”.
Badacze praw człowieka, tacy jak Irem Cakmak, zwracają uwagę na szerszy problem społeczny. Stała ekspozycja na nadużycia online oraz uprzedzenia płciowe w nowych technologiach mogą zniechęcać kobiety do korzystania z narzędzi AI. Jeśli sztuczna inteligencja będzie postrzegana jako narzędzie systemowej mizoginii, może to mieć długofalowe skutki dla uczestnictwa kobiet w życiu gospodarczym i społecznym, pogłębiając cyfrowe wykluczenie.
„Istnieje duża szansa na ściganie autorów takich promptów, nawet jeśli posty zostaną usunięte” – twierdzi profesor prawa karnego Monika Simmler, odnosząc się do szwajcarskiego dochodzenia.
Walka o odpowiedzialność za słowa Groka dopiero się zaczyna. Choć xAI i X prawdopodobnie będą bronić się argumentami o wolności słowa i odpowiedzialności użytkownika końcowego, determinacja Karin Keller-Sutter może stworzyć precedens. Jeśli sądy zaczną traktować algorytmiczne zniesławienie na równi z tradycyjnym, era „dzikiego zachodu” w generatywnej sztucznej inteligencji może dobiec końca szybciej, niż spodziewa się tego Elon Musk. Branża technologiczna potrzebuje jasnych wytycznych, ale ich wypracowanie w starciu z celową prowokacją będzie procesem bolesnym i kosztownym dla wszystkich zaangażowanych stron.
Więcej z kategorii Sztuczna inteligencja
Podobne artykuły

Anthropic ma za sobą wyjątkowo intensywny miesiąc
20h
Lokalne modele na Macach przyspieszają dzięki wsparciu MLX w Ollama
21h
Salesforce zapowiada wielkie zmiany w Slack: sztuczna inteligencja i 30 nowych funkcji
22h





