
Foto: Wired AI
The feature, which Grammarly shut down Wednesday, presented editing suggestions as if they came from established authors and academics—without their consent.
Grammarly, popularny narzędzie do korekty tekstu, znalazł się w centrum skandalu związanego z wprowadzającą w błąd funkcją AI. Firma została pozwana w ramach pozwu zbiorowego za wprowadzenie tak zwanej funkcji „Expert Review", która prezentowała sugestie edycyjne rzekomo pochodzące od uznanych autorów i akademików.
Najnowsze doniesienia wskazują, że Grammarly wykorzystywał nazwiska i dorobek profesjonalistów bez ich wiedzy i zgody. Funkcja „Expert Review" sugerowała użytkownikom, że proponowane poprawki tekstu są autoryzowane przez ekspertów z różnych dziedzin, podczas gdy w rzeczywistości były generowane przez algorytmy sztucznej inteligencji.
Firma natychmiast wycofała sporną funkcję w środę, próbując złagodzić rosnące napięcie wokół tego incydentu. Jednak dla wielu użytkowników i ekspertów prawnych jest to już poważne naruszenie zasad etycznych w świecie technologii.
Pozew zbiorowy rzuca ostre światło na kluczowe problemy związane z wykorzystaniem AI w narzędziach edukacyjnych i wydawniczych. Kluczowe zarzuty obejmują:
Dla polskich twórców, dziennikarzy i akademików ta sprawa jest szczególnie istotna. Pokazuje ona, jak ważne jest zachowanie przejrzystości i uczciwości podczas korzystania z narzędzi AI.
Incydent z Grammarly może mieć daleko idące konsekwencje dla całego sektora technologii AI. Firmy będą zmuszone do bardziej rygorystycznego przestrzegania zasad etycznych i transparentności w swoich produktach.
Dla Polski, która dynamicznie rozwija sektor technologiczny, jest to kolejny sygnał, że rozwój AI musi iść w parze z poszanowaniem praw intelektualnych i etycznych standardów.
Pomimo tej kontrowersji, eksperci są zgodni, że narzędzia AI do korekty tekstu mają ogromny potencjał. Kluczem jest jednak uczciwe komunikowanie źródeł sugestii i zachowanie całkowitej przejrzystości wobec użytkowników.
Można spodziewać się, że w nadchodzących miesiącach zarówno Grammarly, jak i inne firmy technologiczne wprowadzą bardziej rygorystyczne protokoły weryfikacji i oznaczania źródeł swoich narzędzi AI.