
Foto: Wired AI
Czy sztuczna inteligencja może być źródłem prawnych kontrowersji? Grammarly, popularny narzędzie do korekty tekstu, stanął w obliczu pozwu zbiorowego dotyczącego swojej funkcji AI 'Expert Review'. Użytkownicy zarzucają firmie wprowadzanie w błąd co do rzeczywistych możliwości automatycznej korekty oraz potencjalnego naruszenia prywatności danych. Pozew, złożony w sądzie federalnym, kwestionuje marketing Grammarly, który sugeruje, że AI może zapewnić profesjonalną weryfikację tekstu na poziomie eksperckim.Argumenty prawne koncentrują się na tym, że narzędzie może generować nieścisłości lub nieodpowiednie sugestie, które mogą mieć negatywny wpływ na jakość pisanych dokumentów. Sprawa rzuca światło na rosnące wyzwania prawne związane z rozwojem technologii AI, szczególnie w kontekście narzędzi edukacyjnych i biznesowych. Dla użytkowników i twórców oprogramowania oznacza to konieczność bardziej przejrzystej komunikacji dotyczącej możliwości i ograniczeń sztucznej inteligencji. Można oczekiwać, że wynik tego postępowania może istotnie wpłynąć na przyszłe standardy prezentacji możliwości narzędzi AI przez producentów oprogramowania.
Grammarly, popularny narzędzie do korekty tekstu, znalazł się w centrum skandalu związanego z wprowadzającą w błąd funkcją AI. Firma została pozwana w ramach pozwu zbiorowego za wprowadzenie tak zwanej funkcji „Expert Review", która prezentowała sugestie edycyjne rzekomo pochodzące od uznanych autorów i akademików.
Najnowsze doniesienia wskazują, że Grammarly wykorzystywał nazwiska i dorobek profesjonalistów bez ich wiedzy i zgody. Funkcja „Expert Review" sugerowała użytkownikom, że proponowane poprawki tekstu są autoryzowane przez ekspertów z różnych dziedzin, podczas gdy w rzeczywistości były generowane przez algorytmy sztucznej inteligencji.
Firma natychmiast wycofała sporną funkcję w środę, próbując złagodzić rosnące napięcie wokół tego incydentu. Jednak dla wielu użytkowników i ekspertów prawnych jest to już poważne naruszenie zasad etycznych w świecie technologii.
Pozew zbiorowy rzuca ostre światło na kluczowe problemy związane z wykorzystaniem AI w narzędziach edukacyjnych i wydawniczych. Kluczowe zarzuty obejmują:
Dla polskich twórców, dziennikarzy i akademików ta sprawa jest szczególnie istotna. Pokazuje ona, jak ważne jest zachowanie przejrzystości i uczciwości podczas korzystania z narzędzi AI.
Incydent z Grammarly może mieć daleko idące konsekwencje dla całego sektora technologii AI. Firmy będą zmuszone do bardziej rygorystycznego przestrzegania zasad etycznych i transparentności w swoich produktach.
Dla Polski, która dynamicznie rozwija sektor technologiczny, jest to kolejny sygnał, że rozwój AI musi iść w parze z poszanowaniem praw intelektualnych i etycznych standardów.
Pomimo tej kontrowersji, eksperci są zgodni, że narzędzia AI do korekty tekstu mają ogromny potencjał. Kluczem jest jednak uczciwe komunikowanie źródeł sugestii i zachowanie całkowitej przejrzystości wobec użytkowników.
Można spodziewać się, że w nadchodzących miesiącach zarówno Grammarly, jak i inne firmy technologiczne wprowadzą bardziej rygorystyczne protokoły weryfikacji i oznaczania źródeł swoich narzędzi AI.