
Foto: The Verge AI
Journalist Julia Angwin is one of the writers whose likeness was used in Grammarly’s “expert review” feature. | Photo: Eóin Noonan / Sportsfile via Getty Images For months, Grammarly has been using the identities of real people (including us) for its "Expert Review" AI suggestions without getting their permission, and now it's facing a lawsuit from one of the journalists included, as previously reported by Wired. The class-action complaint filed by journalist Julia Angwin on Wednesday alleges that Superhuman violated the "experts'" privacy and publicity rights by breaking laws against using someone's identity for commercial purposes without their consent. Angwin says she found out her identity was used by way of Casey Newton, who is also one of the experts that The Verge uncovered being used by Gra … Read the full story at The Verge.
Popularny serwis do korekty tekstu Grammarly znalazł się w centrum kontrowersji po tym, jak znana dziennikarka Julia Angwin złożyła pozew zbiorowy przeciwko firmie za nieuprawnione wykorzystanie wizerunku ekspertów w funkcji AI.
Sprawa dotyczy funkcji "Recenzji Eksperta" w Grammarly, gdzie wizerunki rzeczywistych dziennikarzy i ekspertów były wykorzystywane do generowania sugestii AI bez ich wiedzy i zgody. Julia Angwin, znana dziennikarka zajmująca się technologiami, odkryła, że jej tożsamość została bezprawnie użyta w tej funkcji.
Pozew zarzuca firmie naruszenie praw prywatności i wizerunku poprzez komercyjne wykorzystanie tożsamości osób bez ich zgody. Wśród poszkodowanych znaleźli się również inni dziennikarze, w tym Casey Newton oraz redaktor naczelny portalu The Verge, Nilay Patel.
Dyrektor generalny Grammarly, Shishir Mehrotra, przeprosił za zaistniałą sytuację i zapowiedział wycofanie spornej funkcji. Firma początkowo próbowała wprowadzić opcję rezygnacji dla ekspertów, ale ostatecznie zdecydowała się całkowicie wyłączyć kontrowersyjną funkcję AI.
Sprawa Grammarly rzuca nowe światło na etyczne wyzwania związane z wykorzystaniem sztucznej inteligencji. Dla polskich użytkowników i twórców oznacza to konieczność większej czujności wobec narzędzi AI, które mogą bezprawnie wykorzystywać cudzą tożsamość.
Sprawa Grammarly stanowi kolejny sygnał, że branża technologiczna musi pilnie wypracować kompleksowe standardy etyczne dotyczące wykorzystania sztucznej inteligencji. Polscy prawnicy i eksperci z dziedziny technologii coraz częściej zwracają uwagę na potrzebę jasnych regulacji chroniących prawa twórców i użytkowników.
Można spodziewać się, że tego typu incydenty przyczynią się do większej transparentności i odpowiedzialności firm technologicznych w zakresie stosowania rozwiązań opartych na sztucznej inteligencji. Kluczowe będzie wypracowanie mechanizmów, które zapewnią poszanowanie praw i wizerunku osób, których dane są wykorzystywane przez systemy AI.