Sztuczna inteligencja5 min czytaniaThe Verge AI

Saga z sobowtórem Grammarly – o co chodzi w tej kontrowersji?

P
Redakcja Pixelift0 views
Udostępnij
Saga z sobowtórem Grammarly – o co chodzi w tej kontrowersji?

Cath Virginia /The Verge, Getty Images

Aż 10 marca 2026 roku Grammarly (obecnie rebrandowane na Superhuman) zostało zmuszone do kapitulacji w kwestii kontrowersyjnej funkcji „Expert Review”. Narzędzie to, zamiast obiecywanych profesjonalnych konsultacji, serwowało użytkownikom porady generowane przez AI, bezprawnie podpisane nazwiskami znanych autorów, naukowców, a nawet nieżyjących profesorów. Wśród „ekspertów” znaleźli się m.in. Stephen King czy Neil deGrasse Tyson, a testy redakcyjne wykazały, że system bez zgody klonował tożsamość aktywnych zawodowo dziennikarzy, oferując generyczne i mało użyteczne wskazówki edytorskie. Skandal wybuchł, gdy na jaw wyszło, że firma nie tylko nie posiadała zgód od wykorzystywanych osób, ale też stosowała wprowadzające w błąd ikony weryfikacji. Choć Superhuman początkowo broniło się argumentem o dostępie do publicznych tekstów źródłowych, fala krytyki dotycząca etyki i naruszania dóbr osobistych doprowadziła do całkowitego wyłączenia funkcji. Dla globalnych użytkowników to jasny sygnał, że granica między inspiracją a kradzieżą cyfrowej tożsamości w narzędziach AI staje się nowym polem bitwy o prywatność. Incydent ten wymusza na twórcach oprogramowania przejście od modelu „opt-out” (wycofania zgody po fakcie) do pełnej transparentności i kontroli ekspertów nad ich wizerunkiem. Wyścig o miano najbardziej inteligentnego asystenta pisania nie może odbywać się kosztem wiarygodności osób, których autorytet AI próbuje zawłaszczyć.

Rynek asystentów pisania przeszedł w ostatnich latach drastyczną metamorfozę, ale przypadek firmy znanej niegdyś jako Grammarly przejdzie do historii jako podręcznikowy przykład tego, jak nie wdrażać generatywnej sztucznej inteligencji. To, co zaczęło się jako ambitny rebranding w stronę Superhuman, szybko przerodziło się w wizerunkowy i prawny koszmar, gdy na jaw wyszły kulisy funkcji Expert Review. Wykorzystanie nazwisk znanych dziennikarzy, naukowców, a nawet nieżyjących profesorów bez ich zgody, stało się punktem zapalnym w debacie o etyce AI.

Od poprawiania przecinków do cyfrowych sobowtórów

Ewolucja Grammarly nabrała tempa w czerwcu 2025 roku, kiedy to firma przejęła platformę e-mailową Superhuman Mail. Zaledwie kilka miesięcy później, w październiku, ogłoszono oficjalny rebranding całego przedsiębiorstwa na Superhuman. CPO firmy, Noam Lovinsky, zapewniał wówczas, że marka Grammarly nie zniknie, ale przejdzie transformację – z prostego narzędzia do sprawdzania pisowni w hub dla inteligentnych agentów AI. Centralnym punktem tej strategii miała być funkcja Expert Review, wprowadzona po cichu jeszcze w sierpniu 2025 roku.

Obietnica była kusząca: użytkownicy mieli otrzymywać porady od „czołowych profesjonalistów, autorów i ekspertów dziedzinowych”. W praktyce panel boczny aplikacji zaczął wyświetlać sugestie opatrzone nazwiskami takimi jak Stephen King, Neil deGrasse Tyson czy Carl Sagan, uzupełnione o ikonę weryfikacji przypominającą znane z mediów społecznościowych „checki”. Choć firma dodała drobnym drukiem zastrzeżenie, że eksperci ci nie promują produktu, sposób prezentacji sugerował coś zgoła innego.

Ilustracja przedstawiająca technologię AI i dane
Agresywne wdrażanie funkcji AI przez Superhuman doprowadziło do poważnych kontrowersji etycznych.

Mechanizm „inspiracji” pod lupą redakcji

Skandal wybuchł z pełną siłą na początku marca 2026 roku, gdy raporty Wired oraz testy redakcji The Verge ujawniły skalę procederu. Okazało się, że algorytmy Superhuman generowały opinie przypisywane żyjącym dziennikarzom technologicznym bez ich wiedzy. Wśród „ekspertów” znaleźli się m.in. Nilay Patel, David Pierce czy Tom Warren. Sugestie generowane pod ich nazwiskami były często określane jako irytujące lub wręcz bezużyteczne – przykładowo, AI podszywająca się pod Patela sugerowała dodawanie „intrygi” do nagłówków za pomocą generycznych fraz.

Kiedy Alex Gay, wiceprezes ds. marketingu produktu w Superhuman, został zapytany o powód braku powiadomienia zainteresowanych osób, odpowiedział wymijająco, że eksperci pojawiają się w systemie, ponieważ ich prace są „publicznie dostępne i szeroko cytowane”. Analiza techniczna wykazała jednak głębsze problemy:

  • Linki źródłowe prowadzące do rzekomych prac ekspertów były często uszkodzone lub kierowały do zupełnie niepowiązanych treści.
  • System omijał paywalle, korzystając z kopii artykułów w serwisach archiwizujących treści.
  • Sugestie AI nie miały oparcia w rzeczywistych metodach pracy osób, których nazwiska wykorzystano.

Szybki odwrót i konsekwencje prawne

Reakcja firmy na kryzys była chaotyczna. 10 marca 2026 roku uruchomiono specjalną skrzynkę e-mail, przez którą eksperci mogli prosić o usunięcie ich nazwisk z bazy (model opt-out). Jednak już dzień później, pod wpływem fali krytyki, Superhuman całkowicie wyłączyło funkcję Expert Review. Ailian Gan, dyrektor ds. zarządzania produktem, przyznała, że funkcja wymaga „przemyślenia na nowo”, aby dać ekspertom realną kontrolę nad ich wizerunkiem.

Przeprosiny wystosował również CEO firmy, Shishir Mehrotra, przyznając na LinkedIn, że głosy o błędnym reprezentowaniu opinii ekspertów były zasadne. Nie zatrzymało to jednak machiny prawnej. Tego samego dnia dziennikarka śledcza Julia Angwin złożyła pozew zbiorowy przeciwko Superhuman. Zarzuca w nim firmie naruszenie prywatności, praw do wizerunku oraz złamanie przepisów dotyczących ochrony dóbr osobistych w stanach Nowy Jork i Kalifornia.

Grafika symbolizująca dystrybucję treści cyfrowych
Wykorzystanie publicznie dostępnych prac do trenowania modeli AI bez zgody autorów budzi sprzeciw twórców.

Ekstrakcyjna natura nowoczesnego AI

Konfrontacja Shishira Mehrotra z Nilayem Patelem w podcaście Decoder rzuciła światło na fundamentalną różnicę w postrzeganiu autorstwa. Mehrotra twierdził, że system jedynie „atrybuował” wiedzę do źródeł, podczas gdy Patel punktował, że przypisywanie komuś zmyślonych przez AI porad nie jest cytowaniem, lecz fabrykacją. CEO Superhuman, mimo porażki Expert Review, nadal wierzy w wizję „ekonomii twórców”, w której autorzy szkolą własne agentów AI do interakcji z odbiorcami – tyle że tym razem za ich zgodą.

Przypadek Expert Review to coś więcej niż nieudany eksperyment produktowy. To jaskrawy przykład ekstrakcyjnego modelu rozwoju AI, gdzie dane i reputacja budowana latami przez ekspertów są traktowane jako darmowe paliwo dla algorytmów. Choć Superhuman zapowiada powrót funkcji w nowej odsłonie, zaufanie branży kreatywnej zostało poważnie nadszarpnięte. Branża technologiczna otrzymała jasny sygnał: „publicznie dostępne” nie oznacza „dostępne do dowolnej manipulacji przez AI”.

W dobie walki o prawa autorskie w erze generatywnej, sprawa Superhuman wyznacza nową granicę. Jeśli firmy technologiczne chcą budować narzędzia oparte na autorytecie prawdziwych ludzi, muszą porzucić model „przeproś później” na rzecz transparentnego partnerstwa. W przeciwnym razie, zamiast rewolucji w produktywności, czeka nas fala pozwów, które mogą skutecznie zahamować rozwój asystentów AI nowej generacji.

Źródło: The Verge AI
Udostępnij

Komentarze

Loading...