Sztuczna inteligencja9 min czytaniaArs Technica AI

Pisarz zaprzecza, ale wydawca wycofuje horror po licznych oskarżeniach o użycie AI

P
Redakcja Pixelift1 views
Udostępnij
Pisarz zaprzecza, ale wydawca wycofuje horror po licznych oskarżeniach o użycie AI

Foto: Getty Images

Wydawnictwo Hachette wycofało z brytyjskiego rynku horror „Shy Girl" autorki Mii Ballard po śledztwie New York Timesa sugerującym wykorzystanie AI w znacznych fragmentach powieści. Decyzja oznacza również anulowanie planów wydania książki w USA. Powieść, która w 2025 roku jako samowydanie zyskała popularność w mediach społecznościowych, opowiada o depresyjnej kobiecie z OCD, która trafia do „sugar daddy'ego" — musi żyć jak jego zwierzę domowe. Recenzje były podzielone: jedni chwalili styl pisania, inni określali pracę jako „absolutne bzdury" pełne powtórzeń i słabej wykonania. Podejrzenia dotyczące AI nasiliły się w styczniu 2026 roku, gdy redaktor na Reddicie opublikował długi post wskazujący na cechy charakterystyczne dla tekstu generowanego przez LLM. Krytyka rozprzestrzeniła się szybko — YouTube'owy film o długości 2,5 godziny zdobył 1,2 miliona wyświetleń, a firmy zajmujące się detekcją AI, jak Pangram, potwierdziły oznaki masowego użycia generatorów. Ballard zaprzecza oskarżeniom, jednak szybka reakcja wydawcy pokazuje, jak poważnie branża wydawnicza podchodzi do kwestii autentyczności dzieł w erze zaawansowanych modeli językowych.

Kiedy Shy Girl autorstwa Mii Ballard pojawiła się na półkach księgarń Hachette'a, wydawało się, że to historia sukcesu godna współczesnego internetu — samoopublikowana powieść, która zdobyła masową popularność w mediach społecznościowych, a następnie zainteresowała jedną z największych wydawnictw na świecie. Mniej niż rok później wydawnictwo wycofało książkę z rynku brytyjskiego i anulowało plany jej wydania w Stanach Zjednoczonych. Przyczyna? Śledztwo New York Timesa sugerujące, że znaczne części dzieła powstały przy użyciu sztucznej inteligencji. To jeden z pierwszych przypadków, kiedy poważny wydawca musiał zmierzyć się z takim oskarżeniem — i to w czasach, gdy branża wydawnicza dopiero zaczyna rozumieć zagrożenia, jakie niosą ze sobą modele generatywne.

Historia ta stała się punktem zwrotnym w debacie dotyczącej autentyczności twórczości literackiej w erze AI. Nie chodzi tu jedynie o kwestię etyki czy uczciwości — to bardziej fundamentalny problem dotyczący tego, czym jest literatura, kto może być uznawany za autora, i jak branża wydawnicza powinna reagować na coraz bardziej zaawansowane narzędzia generujące tekst. Ballard zaprzecza wszelkim oskarżeniom, ale fakt, że Hachette zdecydował się wycofać książkę, mówi wiele o tym, jak poważnie wydawcy traktują te zarzuty — i jak niepewni są wobec swojej zdolności do weryfikacji autentyczności pracy.

Od феномена mediów społecznościowych do skandalu

Shy Girl to historia o Gii, kobiecie zmagającej się z depresją i zaburzeniami obsesyjno-kompulsyjnymi, która trafia na mężczyznę oferującego jej radykalny rozwiązanie jej problemów finansowych. Warunek? Musi żyć dosłownie jak zwierzę — jego zwierzę. Fabuła szybko przechodzi w coś znacznie bardziej niepokojącego, gdy bohaterka literalnie przekształca się w bestię. To właśnie ten rodzaj surrealistycznego, groteskowego horroru, który doskonale pasuje do algorytmów TikToka i BookToka — platformy, gdzie rekomendacje użytkowników mogą przesunąć nieznaną powieść do pozycji bestsellera w ciągu tygodni.

Początkowo recenzenci byli zachwyceni. Czytelnicy na Goodreadsie pisali o tym, że są "obsesyjnie zafascynowani" sposobem, w jaki Ballard pisze. Książka szybko zyskała kult obserwatorów, którzy dzielili się pasażami z powieści w mediach społecznościowych, dyskutowali o jej znaczeniu i spekulowali na temat intencji autorki. Dla wydawnictwa był to idealny scenariusz — organiczny buzz, który każdy wydawca marzy o tym, aby osiągnąć. Naturalnie, Hachette postanowił skapitalizować na tym zainteresowaniu, podpisując umowę wydawniczą i planując międzynarodową ekspansję.

Jednak nie wszyscy czytelnicy byli przekonani. Obok pochwał pojawiały się też głosy krytyczne — i to nie tylko dotyczące jakości narracji. Niektórzy recenzenci opisywali tekst jako "absolutnie okropny, przeładowany, powtarzalny, kiepsko wykonany" z "ohydnym formatowaniem". Ale krytyka wkrótce przekroczyła sferę tradycyjnych recenzji literackich.

Kiedy czytelnicy zaczynają podejrzewać sztuczną inteligencję

W przełomowym momencie w styczniu 2026 roku osoba twierdząca się, że jest doświadczonym redaktorem książek, opublikowała na Reddicie długi wątek zawierający szczegółową analizę tekstu. Post zwracał uwagę na to, co autor uważał za charakterystyczne cechy tekstu generowanego przez LLM (Large Language Model) — powtarzające się struktury zdań, nienatural­ne przejścia między akapitami, zbyt doskonałe sformułowania, które jednocześnie wydawały się pozbawione autentycznego głosu autorskiego. "Jeśli to nie jest AI, to ona jest okropnym pisarzem," napisał redaktor. "Jej pisanie jest naprawdę nie do odróżnienia od modelu językowego."

To było zaledwie początek. Niedługo potem pojawił się filmik na YouTube'cie o długości prawie dwóch i pół godziny, w którym autor szczegółowo analizował tekst Ballard, porównując go z próbkami tekstu wygenerowanego przez ChatGPT, GPT-4 i inne popularne modele AI. Wideo szybko zdobyło 1,2 miliona wyświetleń, a jego komentarze zapełniły się dyskusjami na temat tego, czy literatura może być autentyczna, jeśli została wygenerowana przez algorytm.

Nawet firmy zajmujące się detekcją AI wkroczyły do debaty. Pangram, jedna z wiodących platform do wykrywania tekstu generowanego przez sztuczną inteligencję, przeanalizowała Shy Girl i stwierdziła, że duże części tekstu wykazują cechy charakterystyczne dla tekstu generowanego przez AI. Chociaż narzędzia do detekcji AI są znane z tego, że mogą być niestabilne i czasami błędnie klasyfikują tekst napisany przez ludzi jako AI-generowany, fakt, że wiele z nich wskazywało na to samo — był to sygnał, który wydawcy nie mogli zignorować.

Odpowiedź wydawcy i stanowisko autorki

Kiedy oskarżenia zaczęły się rozprzestrzeniać, Mia Ballard zdecydowała się zaatakować je bezpośrednio. Zaprzeczała wszelkim sugestiom, że użyła AI do napisania Shy Girl, twierdząc, że tekst jest całkowicie jej własną pracą. Jej obrona była stanowcza, ale w obliczu rosnącej liczby analiz i opinii ekspertów, wydawało się, że słowa autorki straciły moc perswazji. W świecie, gdzie każdy może przesłać tekst do kilku narzędzi do detekcji AI i uzyskać wynik w ciągu minut, tradycyjne zaprzeczenie przestało być wystarczające.

Hachette, z drugiej strony, stanął przed dilemat. Wydawnictwo mogło albo stanąć po stronie Ballard i bronić książki — ryzykując swoją reputację, jeśli oskarżenia okazałyby się prawdziwe — albo mogło wycofać się z projektu i uniknąć negatywnych skutków wizerunkowych. Wydawnictwo wybrało drugą opcję. Wycofało Shy Girl z rynku brytyjskiego i anulowało plany wydania w Stanach Zjednoczonych. To była decyzja, która praktycznie potwierdza, że Hachette wierzy oskarżeniom — nawet jeśli nie powiedział tego wprost.

Ironia sytuacji nie umyka uwadze obserwatorów branży. Hachette, jedno z "Wielkich Piątki" wydawnictw tradycyjnych, które aktywnie walczył z AI w kontekście praw autorskich i szkolenia modeli, sam został złapany w pułapkę — wydając książkę, która może być produktem tej samej technologii, którą ostro krytykuje.

Narzędzia do detekcji AI — czy są godne zaufania?

Cała ta historia rzuca światło na jedno z kluczowych wyzwań współczesności: jak w ogóle możemy wiedzieć, czy tekst został napisany przez człowieka czy przez maszynę? Narzędzia do detekcji AI takie jak Pangram, Turnitin AI Detector, czy GPTZero obiecują odpowiedź, ale rzeczywistość jest znacznie bardziej skomplikowana. Te systemy działają poprzez analizę statystycznych wzorców w tekście — szukają cech, które są charakterystyczne dla tekstu generowanego przez modele językowe, takich jak zbyt doskonała gramatyka, brak błędów typowych dla ludzi, czy przewidywalne struktury zdań.

Jednak badania wykazały, że te narzędzia są daleko od doskonałości. Mogą błędnie klasyfikować tekst napisany przez osoby, dla których angielski nie jest językiem ojczystym, jako AI-generowany. Z drugiej strony, sprytnie sformatowany tekst AI — zwłaszcza tekst, który został następnie zredagowany przez człowieka — może przejść przez detektor bez zauważenia. To jest gra w kota i myszkę, w której każda strona stale się ulepszająca.

W przypadku Shy Girl, fakt, że wiele narzędzi wskazywało na AI, w połączeniu z analizami redaktorów i opinią społeczności, stworzył wystarczającą ilość dowodów pośrednich, aby Hachette zdecydował się działać. Ale to również pokazuje, jak niestabilny jest ten teren — wydawnictwo praktycznie przyznało, że nie ma pewności, ale wolało być bezpieczny niż przepraszać później.

Precedens dla branży wydawniczej

Historia Shy Girl będzie miała długofalowe konsekwencje dla całej branży wydawniczej. Po raz pierwszy znany wydawca musiał wycofać książkę z powodu podejrzeń związanych z AI — i to bez ostatecznego, naukowego dowodu. To ustanawia precedens, który inni wydawcy będą musieli rozważyć. Czy powinni być bardziej ostrożni w procesie weryfikacji autorów? Czy powinni wymagać zaświadczeń lub gwarancji, że tekst został napisany przez człowieka? Czy powinni inwestować w lepsze narzędzia do detekcji AI?

Dla autorów, zwłaszcza tych, którzy zaczynają karierę na platformach takich jak Amazon KDP czy Smashwords, to również jest ostrzeżenie. Jeśli chcesz, aby Twoja praca została opublikowana przez tradycyjne wydawnictwo, będziesz musiał być gotów na bardziej intensywny proces weryfikacji. Niektóre wydawnictwa już zaczęły wymagać od autorów oświadczeń, że ich prace nie zostały wygenerowane przez AI — ale jak to sprawdzić, pozostaje otwartą kwestią.

Czego nauczyliśmy się o społeczności czytelników

Jedno z najciekawszych aspektów całej sprawy to rola społeczności czytelników w ujawnieniu potencjalnego oszustwa. To nie byli naukowcy, nie było to formalne śledztwo — to byli czytelnicy, którzy zauważyli coś dziwnego w tekście i zdecydowali się podzielić się swoimi obserwacjami. Ich zbiorowa inteligencja i wytrwałość w analizie tekstu doprowadziła do tego, że sprawa trafiła do mediów głównego nurtu i ostatecznie do wiadomości New York Timesa.

To pokazuje, jak potężna może być społeczność online, gdy ma wspólny cel. Ale pokazuje to również ryzyko — co jeśli oskarżenia byłyby błędne? Czytelnicy mogliby zniszczyć karierę niewinnego autora na podstawie statystycznych anomalii, które mogą być po prostu wynikiem osobistego stylu pisania. Historia Shy Girl jest przypomnieniem, że nawet gdy mamy dostęp do narzędzi analitycznych i możliwości dzielenia się informacjami na całym świecie, musimy być ostrożni w wydawaniu sądów.

Przyszłość autentyczności w literaturze

Podczas gdy Mia Ballard twierdzi, że jest niewinny, a fakt wycofania książki przez Hachette'a nie jest formalnyn dowodem winy, sprawa ta podkreśla coraz bardziej naglący problem: jak będziemy weryfikować autentyczność literatury w erze, gdy modele AI mogą generować tekst, który jest prawie nie do odróżnienia od tekstu napisanego przez człowieka?

Niektórzy sugerują, że odpowiedź leży w blockchain i technologiach rozproszonego rejestru, które mogłyby utworzyć niezmienną historię procesu twórczego. Inni proponują, aby wydawnictwa wymagały bardziej zaangażowanego procesu edycji, który byłby trudniejszy do sfałszowania za pomocą AI. Jeszcze inni argumentują, że w końcu nie ma to znaczenia — jeśli tekst jest dobry, czy został napisany przez człowieka czy przez AI?

Ale ta ostatnia perspektywa ignoruje coś fundamentalnego: czytelnicy i wydawcy wyraźnie uważają, że to ma znaczenie. Historia Shy Girl pokazuje, że autentyczność — lub przynajmniej przekonanie, że czytamy pracę napisaną przez człowieka — jest dla branży wydawniczej ważna. Kiedy ta autentyczność zostaje podważona, nawet sukcesy komercyjne mogą szybko się zmienić w PR-owy koszmar. To lekcja, którą każde wydawnictwo powinno zapamiętać, gdy będzie się zastanawiać, jak poradzić sobie z falą AI-generowanej zawartości.

Źródło: Ars Technica AI
Udostępnij

Komentarze

Loading...