
Foto: The Verge AI
Znany dziennikarz Julia Angwin wniosła pozew zbiorowy przeciwko Grammarly za wykorzystanie jej wizerunku w funkcji AI "Expert Review" bez uzyskania zgody. Sprawa dotyczy naruszenia praw prywatności i wizerunku poprzez automatyczne włączenie nazwisk ekspertów do generowanych przez sztuczną inteligencję sugestii redakcyjnych. Grammarly początkowo proponowało opcję rezygnacji dla zainteresowanych, jednak po krytyce zdecydowało się całkowicie wyłączyć sporną funkcję. CEO firmy Shishir Mehrotra przeprosił, przyznając, że ich podejście nie spełniło oczekiwań użytkowników i ekspertów. Sprawa ujawnia kluczowe etyczne wyzwania związane z wykorzystywaniem tożsamości profesjonalistów przez narzędzia AI bez ich wyraźnej zgody. Dla użytkowników i twórców technologii oznacza to konieczność bardziej rygorystycznego podejścia do praw wizerunkowych i prywatności w kontekście rozwijających się narzędzi sztucznej inteligencji. Można spodziewać się, że ta sprawa będzie miała znaczący wpływ na przyszłe regulacje dotyczące używania danych osobowych w produktach AI.
Popularny serwis do korekty tekstu Grammarly znalazł się w centrum kontrowersji po tym, jak znana dziennikarka Julia Angwin złożyła pozew zbiorowy przeciwko firmie za nieuprawnione wykorzystanie wizerunku ekspertów w funkcji AI.
Sprawa dotyczy funkcji "Recenzji Eksperta" w Grammarly, gdzie wizerunki rzeczywistych dziennikarzy i ekspertów były wykorzystywane do generowania sugestii AI bez ich wiedzy i zgody. Julia Angwin, znana dziennikarka zajmująca się technologiami, odkryła, że jej tożsamość została bezprawnie użyta w tej funkcji.
Pozew zarzuca firmie naruszenie praw prywatności i wizerunku poprzez komercyjne wykorzystanie tożsamości osób bez ich zgody. Wśród poszkodowanych znaleźli się również inni dziennikarze, w tym Casey Newton oraz redaktor naczelny portalu The Verge, Nilay Patel.
Dyrektor generalny Grammarly, Shishir Mehrotra, przeprosił za zaistniałą sytuację i zapowiedział wycofanie spornej funkcji. Firma początkowo próbowała wprowadzić opcję rezygnacji dla ekspertów, ale ostatecznie zdecydowała się całkowicie wyłączyć kontrowersyjną funkcję AI.
Sprawa Grammarly rzuca nowe światło na etyczne wyzwania związane z wykorzystaniem sztucznej inteligencji. Dla polskich użytkowników i twórców oznacza to konieczność większej czujności wobec narzędzi AI, które mogą bezprawnie wykorzystywać cudzą tożsamość.
Sprawa Grammarly stanowi kolejny sygnał, że branża technologiczna musi pilnie wypracować kompleksowe standardy etyczne dotyczące wykorzystania sztucznej inteligencji. Polscy prawnicy i eksperci z dziedziny technologii coraz częściej zwracają uwagę na potrzebę jasnych regulacji chroniących prawa twórców i użytkowników.
Można spodziewać się, że tego typu incydenty przyczynią się do większej transparentności i odpowiedzialności firm technologicznych w zakresie stosowania rozwiązań opartych na sztucznej inteligencji. Kluczowe będzie wypracowanie mechanizmów, które zapewnią poszanowanie praw i wizerunku osób, których dane są wykorzystywane przez systemy AI.