Sztuczna inteligencja2 min czytania

Grammarly mówi, że zaprzestanie klonowania ekspertów bez ich zgody

P
Redakcja Pixelift27 views
Udostępnij
Grammarly mówi, że zaprzestanie klonowania ekspertów bez ich zgody

Foto: The Verge AI

Czy eksperci mogą kontrolować swój wizerunek w świecie AI? Grammarly właśnie stanęła przed trudnym wyzwaniem po tym, jak została skrytykowana za używanie bez zgody głosów ekspertów w swojej funkcji Expert Review. Firma zdecydowała o całkowitym wyłączeniu tej funkcji i przeprojektowaniu jej od podstaw, gwarantując ekspertom pełną kontrolę nad sposobem reprezentacji ich wiedzy. Ailian Gan, dyrektor zarządzający ds. produktu, oficjalnie przeprosił za zaistniałą sytuację, przyznając, że firma "nie trafiła w oczekiwania" użytkowników i ekspertów. Nowe podejście Grammarly ma umożliwić specjalistom decydowanie o tym, czy chcą uczestniczyć w procesie AI, oraz jak ich wiedza będzie wykorzystywana. To kolejny przykład rosnącej świadomości etycznej w dziedzinie sztucznej inteligencji, gdzie prawa twórców i ekspertów stają się kluczowym zagadnieniem. CEO Shishir Mehrotra zapowiedział, że firma chce stworzyć model, w którym eksperci sami decydują o współpracy i sposobie prezentacji swojej wiedzy. W nadchodzących miesiącach możemy spodziewać się dalszych zmian w podejściu platform AI do wykorzystywania cudzej wiedzy i doświadczeń.

Grammarly, znana platforma do korekty tekstu, postanowiła wycofać się z kontrowersyjnej funkcji Expert Review, która bez zgody wykorzystywała profile ekspertów do generowania sugestii edycyjnych. Decyzja ta następuje po serii krytycznych głosów ze strony dziennikarzy i specjalistów, którzy zarzucali firmie nieetyczne praktyki związane ze sztuczną inteligencją.

Naruszenie prywatności ekspertów

Funkcja Expert Review została wprowadzona przez Grammarly w sierpniu ubiegłego roku jako innowacyjne narzędzie AI, które miało oferować sugestie edycyjne rzekomo inspirowane publikacjami wpływowych autorów. Jednak w praktyce okazało się, że platforma wykorzystywała profile zawodowe bez ich wyraźnej zgody, co spotkało się z ostrą krytyką środowiska dziennikarskiego i akademickiego.

Shishir Mehrotra, CEO Superhuman, przyznał otwarcie, że firma "nie sprostała oczekiwaniom" i że otrzymane informacje zwrotne wskazują na poważne naruszenie zasad etycznych w dziedzinie AI.

Przełomowa decyzja o wycofaniu funkcji

W oficjalnym oświadczeniu Grammarly zobowiązała się do:

  • Całkowitego wyłączenia funkcji Expert Review
  • Przeprojektowania mechanizmu z naciskiem na kontrolę ze strony ekspertów
  • Zapewnienia możliwości rezygnacji z udziału w systemie AI

Konsekwencje dla polskiego rynku technologicznego

Dla polskich użytkowników i twórców technologii ta sytuacja stanowi ważną lekcję dotyczącą etycznych granic stosowania sztucznej inteligencji. Pokazuje, że nawet renomowane firmy technologiczne muszą zachowywać najwyższe standardy ochrony prywatności i praw intelektualnych.

Przyszłość narzędzi AI

Decyzja Grammarly może stanowić precedens dla innych firm z branży AI. Kluczowe będzie teraz opracowanie mechanizmów, które zapewnią:

  • Świadomą zgodę ekspertów na wykorzystanie ich wiedzy
  • Transparentne zasady korzystania z danych
  • Możliwość kontroli własnego wizerunku cyfrowego

Mimo że ta sytuacja może chwilowo spowolnić rozwój niektórych narzędzi AI, z pewnością przyczyni się do wypracowania bardziej etycznych i odpowiedzialnych standardów w branży technologicznej. Polscy twórcy i użytkownicy AI powinni uważnie obserwować te zmiany, które mogą mieć kluczowe znaczenie dla przyszłości technologii.

Źródło
Udostępnij