AI2 min read

Grammarly says it will stop using AI to clone experts without permission

P
Redakcja Pixelift26 views
Share
Grammarly says it will stop using AI to clone experts without permission

Foto: The Verge AI

Superhuman says it has disabled Grammarly's "expert review" AI feature that said its edit suggestions were "inspired by" real writers, including our editor-in-chief and other Verge staff members. "After careful consideration, we have decided to disable Expert Review as we reimagine the feature to make it more useful for users, while giving experts real control over how they want to be represented - or not represented at all," Ailian Gan, Superhuman's director of product management, said in a statement to The Verge. "Based on the feedback we've received, we clearly missed the mark. We are sorry and will do things differently going forward." … Read the full story at The Verge.

Grammarly, znana platforma do korekty tekstu, postanowiła wycofać się z kontrowersyjnej funkcji Expert Review, która bez zgody wykorzystywała profile ekspertów do generowania sugestii edycyjnych. Decyzja ta następuje po serii krytycznych głosów ze strony dziennikarzy i specjalistów, którzy zarzucali firmie nieetyczne praktyki związane ze sztuczną inteligencją.

Naruszenie prywatności ekspertów

Funkcja Expert Review została wprowadzona przez Grammarly w sierpniu ubiegłego roku jako innowacyjne narzędzie AI, które miało oferować sugestie edycyjne rzekomo inspirowane publikacjami wpływowych autorów. Jednak w praktyce okazało się, że platforma wykorzystywała profile zawodowe bez ich wyraźnej zgody, co spotkało się z ostrą krytyką środowiska dziennikarskiego i akademickiego.

Shishir Mehrotra, CEO Superhuman, przyznał otwarcie, że firma "nie sprostała oczekiwaniom" i że otrzymane informacje zwrotne wskazują na poważne naruszenie zasad etycznych w dziedzinie AI.

Przełomowa decyzja o wycofaniu funkcji

W oficjalnym oświadczeniu Grammarly zobowiązała się do:

  • Całkowitego wyłączenia funkcji Expert Review
  • Przeprojektowania mechanizmu z naciskiem na kontrolę ze strony ekspertów
  • Zapewnienia możliwości rezygnacji z udziału w systemie AI

Konsekwencje dla polskiego rynku technologicznego

Dla polskich użytkowników i twórców technologii ta sytuacja stanowi ważną lekcję dotyczącą etycznych granic stosowania sztucznej inteligencji. Pokazuje, że nawet renomowane firmy technologiczne muszą zachowywać najwyższe standardy ochrony prywatności i praw intelektualnych.

Przyszłość narzędzi AI

Decyzja Grammarly może stanowić precedens dla innych firm z branży AI. Kluczowe będzie teraz opracowanie mechanizmów, które zapewnią:

  • Świadomą zgodę ekspertów na wykorzystanie ich wiedzy
  • Transparentne zasady korzystania z danych
  • Możliwość kontroli własnego wizerunku cyfrowego

Mimo że ta sytuacja może chwilowo spowolnić rozwój niektórych narzędzi AI, z pewnością przyczyni się do wypracowania bardziej etycznych i odpowiedzialnych standardów w branży technologicznej. Polscy twórcy i użytkownicy AI powinni uważnie obserwować te zmiany, które mogą mieć kluczowe znaczenie dla przyszłości technologii.

Source
Share