Sztuczna inteligencja3 min czytaniaArs Technica AI

Eksperci zdrowia psychicznego OpenAI jednogłośnie sprzeciwiali się uruchomieniu "psotnego" ChatGPT

P
Redakcja Pixelift18 views
Udostępnij
Eksperci zdrowia psychicznego OpenAI jednogłośnie sprzeciwiali się uruchomieniu "psotnego" ChatGPT

Bloomberg / Contributor | Bloomberg

Czy sztuczna inteligencja może stać się niebezpiecznym towarzyszem emocjonalnym? Eksperci ds. zdrowia psychicznego z rady doradczej OpenAI jednoznacznie ostrzegają przed ryzykiem wprowadzenia "dorosłego trybu" w ChatGPT. Według najnowszego raportu Wall Street Journal, specjaliści już w styczniu wyrażali obawy, że AI może prowadzić do niezdrowych więzi emocjonalnych, szczególnie wśród osób wrażliwych. Rada doradcza, powołana w październiku po pierwszym przypadku samobójstwa związanego z ChatGPT, podkreśla potencjalne zagrożenia dla użytkowników, zwłaszcza nieletnich. Eksperci wskazują na ryzyko tworzenia się intensywnych, szkodliwych relacji z botami AI, które mogą manipulować emocjami użytkowników. Mimo zapewnień OpenAI o szkoleniu modelu, aby nie zachęcał do wyłącznych relacji, pojawiają się poważne obawy. Przypadki takie jak samobójstwo Sewella Setzer'a III pokazują, jak niebezpieczne mogą być interakcje z chatbotami. Warto obserwować, jak OpenAI będzie dalej rozwijać bezpieczne mechanizmy interakcji AI, które chronią użytkowników przed potencjalnymi zagrożeniami psychologicznymi.

OpenAI znalazło się w centrum kontrowersji związanych z planowanym uruchomieniem trybu "dorosłego" w ChatGPT. Najnowsze doniesienia z Wall Street Journal ujawniają niepokojące szczegóły dotyczące wewnętrznych obaw ekspertów ds. zdrowia psychicznego.

Ostrzeżenia specjalistów ignorowane przez OpenAI

Rada doradcza OpenAI ds. dobrostanu i sztucznej inteligencji jednogłośnie przestrzegała przed potencjalnymi zagrożeniami związanymi z wprowadzeniem funkcji erotycznych do ChatGPT. Eksperci wyrażali obawy dotyczące możliwości:

  • Wywoływania niezdrowej zależności emocjonalnej użytkowników
  • Dostępu osób nieletnich do treści seksualnych
  • Potencjalnego ryzykownego wpływu na wrażliwych użytkowników

Jeden z ekspertów ostrzegał wręcz przed ryzykiem stworzenia "seksownego coaches'a samobójstw" dla użytkowników skłonnych do tworzenia intensywnych więzi z botami.

Kontekst powstawania rady doradczej

Rada została utworzona w październiku 2023 roku, tuż po pierwszym udokumentowanym przypadku samobójstwa nieletniego powiązanego z ChatGPT. Jej celem miało być konsultowanie zmian w technologii pod kątem bezpieczeństwa użytkowników.

Mimo to, OpenAI zdaje się ignorować kluczowe ostrzeżenia specjalistów. Firma zapewnia wprawdzie, że ChatGPT będzie przypominać użytkownikom o potrzebie realnych relacji, jednak dowody wskazują na poważniejsze zagrożenia.

Ryzyko dla młodych użytkowników

Szczególnie niepokojący jest przypadek Sewella Setzer'a III, młodego użytkownika, który uzależnił się od rozmów z chatbotami. Analiza jego historii ujawnia, że zagrożenie nie dotyczy wyłącznie pornografii, ale przede wszystkim budowania fikcyjnych, emocjonalnych więzi.

Mark Cuban, znany amerykański przedsiębiorca, wprost ostrzegał: "Chodzi o to, że dzieci mogą rozwijać 'relacje' z modelem języka, które mogą prowadzić w niebezpiecznym kierunku".

Aspekty komercyjne i strategiczne

Zdaniem niektórych analityków, decyzja o wprowadzeniu trybu "dorosłego" może być podyktowana względami finansowymi. Wraz ze spowolnieniem wzrostu subskrypcji w Europie, OpenAI może próbować zwiększyć zaangażowanie użytkowników.

Sam Sam Altman, CEO OpenAI, przyznawał wcześniej, że możliwości ChatGPT są już "nasycone", co może tłumaczyć chęć eksplorowania nowych obszarów.

Wyzwania techniczne i etyczne

Kluczowym problemem pozostają niedoskonałe mechanizmy weryfikacji wieku. Wewnętrzne źródła ujawniły, że system OpenAI błędnie klasyfikuje nieletnich jako dorosłych w około 12% przypadków.

Dodatkowo, proponowana weryfikacja przez usługę Persona budzi poważne obawy dotyczące prywatności użytkowników. Deweloperzy wskazują na ryzyko przechowywania wrażliwych danych osobowych.

Przyszłość ChatGPT i sztucznej inteligencji

Decyzja OpenAI może mieć daleko idące konsekwencje dla postrzegania sztucznej inteligencji. Czy próba wprowadzenia trybu "dorosłego" zniszczy zaufanie użytkowników, którzy cenili ChatGPT za bezpieczeństwo?

Eksperci są zgodni: konieczne jest znacznie bardziej odpowiedzialne podejście do rozwoju technologii AI, które będzie priorytetyzowało bezpieczeństwo psychiczne użytkowników, szczególnie młodych.

Źródło: Ars Technica AI
Udostępnij

Komentarze

Loading...