Konfrontacja z CEO firmy AI, która podszyła się pode mnie

Foto: A photo illustration of Superhuman CEO Shishir Mehrotra.
Aż 12 milionów aktywnych użytkowników dziennie korzysta z narzędzi Grammarly, ale mało kto spodziewał się, że w ramach funkcji Expert Review ich teksty będą oceniane przez cyfrowe klony realnych dziennikarzy bez ich zgody. Shishir Mehrotra, CEO firmy (rebrandingującej się obecnie jako Superhuman) i były szef produktu w YouTube, musiał zmierzyć się z zarzutami o kradzież tożsamości po tym, jak redaktorzy serwisu The Verge odkryli w systemie AI swoje własne nazwiska. Incydent ten rzuca nowe światło na etykę trenowania modeli językowych i wykorzystywania autorytetu konkretnych osób do uwiarygadniania wyników generatywnej sztucznej inteligencji. Dla globalnej społeczności twórców i specjalistów to jasny sygnał, że granica między inspiracją a impersonacją w świecie AI stała się niebezpiecznie cienka. Mehrotra, zasiadający również w zarządzie Spotify, argumentuje, że technologia ma wspierać kreatywność, jednak praktyki Grammarly pokazują, że wielkie korporacje technologiczne wciąż mają problem z definicją własności intelektualnej i wizerunkowej. W praktyce oznacza to, że użytkownicy muszą liczyć się z coraz częstszymi przypadkami „halucynowania” autorytetów przez algorytmy, co wymusza rygorystyczną weryfikację źródeł, nawet w narzędziach uznawanych za standard rynkowy. Branża stoi obecnie przed koniecznością wypracowania twardych standardów opt-in, które uniemożliwią markom monetyzację cudzej reputacji pod płaszczykiem innowacji.
W świecie technologii granica między inspiracją a kradzieżą tożsamości staje się coraz cieńsza, a najnowszy konflikt na linii media-dostawcy AI jest tego dobitnym przykładem. Shishir Mehrotra, obecny CEO firmy Superhuman (wcześniej znanej pod nazwą Grammarly), stanął w obliczu poważnych oskarżeń po tym, jak jego platforma zaczęła oferować usługę "klonowania" osobowości znanych dziennikarzy bez ich wiedzy i zgody. To nie jest kolejny teoretyczny spór o prawa autorskie do tekstów w bazach treningowych; to bezpośrednie uderzenie w markę osobistą twórców, którzy budowali swoją wiarygodność przez dekady.
Mehrotra nie jest nowicjuszem w Dolinie Krzemowej. Jako były Chief Product Officer w YouTube oraz obecny członek rady nadzorczej Spotify, doskonale rozumie mechanizmy rządzące platformami i ekonomią twórców. Jednak jego najnowsze przedsięwzięcie, flagowy produkt Grammarly, przekroczyło barierę, której wielu w branży nie spodziewało się tak szybko sforsować. W sierpniu ubiegłego roku firma wprowadziła funkcję Expert Review, która obiecywała użytkownikom korektę i sugestie stylistyczne od wirtualnych "ekspertów". Problem polegał na tym, że owymi ekspertami stali się żywi ludzie, w tym redaktorzy serwisu The Verge, których cyfrowe awatary zaczęły udzielać porad bez żadnych konsultacji prawnych czy finansowych.

Mechanizm przywłaszczenia tożsamości w Expert Review
Funkcja Expert Review w zamyśle twórców miała być rewolucją w edycji tekstu. Zamiast generycznych poprawek gramatycznych, użytkownik dostawał wgląd w to, jak dany fragment napisałby konkretny, uznany profesjonalista. W praktyce okazało się, że Grammarly wykorzystało nazwiska i style pisania konkretnych dziennikarzy, tworząc ich cyfrowe kopie. To podejście rzuca nowe światło na problem AI-cloning. O ile trenowanie modeli na publicznie dostępnych danych jest przedmiotem licznych pozwów, o tyle oferowanie konkretnego nazwiska jako "produktu" jest bezpośrednim naruszeniem dóbr osobistych.
Czytaj też
Dla dziennikarzy, których nazwiska pojawiły się w menu wyboru Expert Review, sytuacja była szokująca. Superhuman (jako firma matka) argumentuje, że modele te są optymalizowane pod kątem specyficznych stylów narracyjnych, jednak brak transparentności w procesie selekcji tych "ekspertów" wywołał falę oburzenia. W branży kreatywnej styl to podpis. Jeśli algorytm potrafi go wiarygodnie naśladować i robi to pod nazwiskiem autora, dochodzi do erozji zaufania między czytelnikiem a twórcą. Kto właściwie odpowiada za słowa, które padają w sugestiach AI?
- Expert Review: Funkcja oferująca sugestie od sklonowanych cyfrowo ekspertów.
- Brak zgody: Nazwiska dziennikarzy zostały użyte bez ich wiedzy i autoryzacji.
- Skala zjawiska: Mechanizm objął wielu reporterów z czołowych redakcji technologicznych.
- Kontekst prawny: Wykorzystanie wizerunku i nazwiska w komercyjnym narzędziu AI bez umowy licencyjnej.

Etyka produktu kontra agresywny wzrost
Postawa Shishira Mehrotra odzwierciedla szerszy trend w sektorze generatywnej sztucznej inteligencji: "najpierw wdrażaj, potem przepraszaj". Jako człowiek, który współtworzył potęgę YouTube, Mehrotra wie, że platformy buduje się na treściach generowanych przez użytkowników, ale Grammarly poszło o krok dalej. Zamiast być tylko narzędziem do poprawy błędów, software zaczął aktywnie pasożytować na reputacji zewnętrznych ekspertów, aby uwiarygodnić własne wyniki AI. To strategiczne przesunięcie z "pomocy w pisaniu" na "symulację autorytetu" jest punktem zwrotnym dla całej kategorii oprogramowania SaaS.
W rozmowach o przyszłości oprogramowania Mehrotra często podkreśla, jak AI zmieni sposób, w jaki wchodzimy w interakcję z interfejsami. Jednak przypadek Expert Review pokazuje ciemną stronę tej wizji. Jeśli każda aplikacja do pisania będzie mogła przywołać styl dowolnego pisarza, wartość unikalnego głosu w mediach drastycznie spadnie. Superhuman, mimo zmiany nazwy i prób pozycjonowania się jako narzędzie premium dla profesjonalistów, musi teraz odpowiedzieć na fundamentalne pytanie: czy ich produkt wspiera kreatywność, czy ją kanibalizuje?
"Nikt nigdy nie prosił o zgodę na użycie naszych nazwisk w ten sposób. Wielu reporterów było oburzonych faktem, że ich tożsamość zawodowa została sprowadzona do funkcji w menu rozwijanym."
Nowy paradygmat własności intelektualnej
Spór wokół Grammarly i działań podejmowanych pod egidą Superhuman to zaledwie wierzchołek góry lodowej. Jesteśmy świadkami redefinicji pojęcia intellectual property w erze modeli językowych. Dotychczasowe prawo autorskie chroniło konkretne dzieło, ale niekoniecznie chroniło "styl" lub "osobowość zawodową" przed byciem skopiowanym przez maszynę. Mehrotra, zasiadając w zarządzie Spotify, widzi podobne procesy w branży muzycznej, gdzie AI generuje utwory brzmiące jak Drake czy The Weeknd. Przeniesienie tego modelu do świata dziennikarstwa i copywritingu przez Grammarly jest logicznym, choć etycznie wątpliwym krokiem w ewolucji platform.
Zastosowanie AI-cloned experts w komercyjnym produkcie bez modelu revenue share dla oryginalnych twórców jest sygnałem dla całej branży kreatywnej. Jeśli giganci tacy jak Superhuman nie wypracują standardów licencjonowania tożsamości, czeka nas fala procesów, które mogą zablokować rozwój najbardziej obiecujących funkcji AI. Kluczowe ograniczenia, z jakimi mierzy się obecnie firma, to nie technologia, lecz bariery społeczne i prawne, które sami wznieśli, ignorując podmiotowość autorów.
Agresywne podejście do wdrażania funkcji takich jak Expert Review bez fundamentu etycznego zwiastuje głęboki kryzys w relacjach między big-techami a sektorem kreatywnym. Shishir Mehrotra i Superhuman będą musieli zrewidować swoją strategię, ponieważ w świecie, w którym AI może być każdym, autentyczność staje się najdroższą walutą. Jeśli narzędzia AI będą postrzegane jako pasożyty żerujące na ludzkim dorobku, ich adopcja w profesjonalnych środowiskach napotka na opór, którego nie przełamie żadna aktualizacja algorytmu. Branża potrzebuje jasnych reguł gry, a obecny konflikt wokół Grammarly jest bolesnym, ale koniecznym krokiem w stronę ich wypracowania.









