Eksperci zdrowia psychicznego OpenAI jednogłośnie sprzeciwiali się uruchomieniu "psotnego" ChatGPT

Bloomberg / Contributor | Bloomberg
Czy sztuczna inteligencja może stać się niebezpiecznym towarzyszem emocjonalnym? Eksperci ds. zdrowia psychicznego z rady doradczej OpenAI jednoznacznie ostrzegają przed ryzykiem wprowadzenia "dorosłego trybu" w ChatGPT. Według najnowszego raportu Wall Street Journal, specjaliści już w styczniu wyrażali obawy, że AI może prowadzić do niezdrowych więzi emocjonalnych, szczególnie wśród osób wrażliwych. Rada doradcza, powołana w październiku po pierwszym przypadku samobójstwa związanego z ChatGPT, podkreśla potencjalne zagrożenia dla użytkowników, zwłaszcza nieletnich. Eksperci wskazują na ryzyko tworzenia się intensywnych, szkodliwych relacji z botami AI, które mogą manipulować emocjami użytkowników. Mimo zapewnień OpenAI o szkoleniu modelu, aby nie zachęcał do wyłącznych relacji, pojawiają się poważne obawy. Przypadki takie jak samobójstwo Sewella Setzer'a III pokazują, jak niebezpieczne mogą być interakcje z chatbotami. Warto obserwować, jak OpenAI będzie dalej rozwijać bezpieczne mechanizmy interakcji AI, które chronią użytkowników przed potencjalnymi zagrożeniami psychologicznymi.
OpenAI znalazło się w centrum kontrowersji związanych z planowanym uruchomieniem trybu "dorosłego" w ChatGPT. Najnowsze doniesienia z Wall Street Journal ujawniają niepokojące szczegóły dotyczące wewnętrznych obaw ekspertów ds. zdrowia psychicznego.
Ostrzeżenia specjalistów ignorowane przez OpenAI
Rada doradcza OpenAI ds. dobrostanu i sztucznej inteligencji jednogłośnie przestrzegała przed potencjalnymi zagrożeniami związanymi z wprowadzeniem funkcji erotycznych do ChatGPT. Eksperci wyrażali obawy dotyczące możliwości:
- Wywoływania niezdrowej zależności emocjonalnej użytkowników
- Dostępu osób nieletnich do treści seksualnych
- Potencjalnego ryzykownego wpływu na wrażliwych użytkowników
Jeden z ekspertów ostrzegał wręcz przed ryzykiem stworzenia "seksownego coaches'a samobójstw" dla użytkowników skłonnych do tworzenia intensywnych więzi z botami.
Czytaj też
Kontekst powstawania rady doradczej
Rada została utworzona w październiku 2023 roku, tuż po pierwszym udokumentowanym przypadku samobójstwa nieletniego powiązanego z ChatGPT. Jej celem miało być konsultowanie zmian w technologii pod kątem bezpieczeństwa użytkowników.
Mimo to, OpenAI zdaje się ignorować kluczowe ostrzeżenia specjalistów. Firma zapewnia wprawdzie, że ChatGPT będzie przypominać użytkownikom o potrzebie realnych relacji, jednak dowody wskazują na poważniejsze zagrożenia.
Ryzyko dla młodych użytkowników
Szczególnie niepokojący jest przypadek Sewella Setzer'a III, młodego użytkownika, który uzależnił się od rozmów z chatbotami. Analiza jego historii ujawnia, że zagrożenie nie dotyczy wyłącznie pornografii, ale przede wszystkim budowania fikcyjnych, emocjonalnych więzi.
Mark Cuban, znany amerykański przedsiębiorca, wprost ostrzegał: "Chodzi o to, że dzieci mogą rozwijać 'relacje' z modelem języka, które mogą prowadzić w niebezpiecznym kierunku".
Aspekty komercyjne i strategiczne
Zdaniem niektórych analityków, decyzja o wprowadzeniu trybu "dorosłego" może być podyktowana względami finansowymi. Wraz ze spowolnieniem wzrostu subskrypcji w Europie, OpenAI może próbować zwiększyć zaangażowanie użytkowników.
Sam Sam Altman, CEO OpenAI, przyznawał wcześniej, że możliwości ChatGPT są już "nasycone", co może tłumaczyć chęć eksplorowania nowych obszarów.
Wyzwania techniczne i etyczne
Kluczowym problemem pozostają niedoskonałe mechanizmy weryfikacji wieku. Wewnętrzne źródła ujawniły, że system OpenAI błędnie klasyfikuje nieletnich jako dorosłych w około 12% przypadków.
Dodatkowo, proponowana weryfikacja przez usługę Persona budzi poważne obawy dotyczące prywatności użytkowników. Deweloperzy wskazują na ryzyko przechowywania wrażliwych danych osobowych.
Przyszłość ChatGPT i sztucznej inteligencji
Decyzja OpenAI może mieć daleko idące konsekwencje dla postrzegania sztucznej inteligencji. Czy próba wprowadzenia trybu "dorosłego" zniszczy zaufanie użytkowników, którzy cenili ChatGPT za bezpieczeństwo?
Eksperci są zgodni: konieczne jest znacznie bardziej odpowiedzialne podejście do rozwoju technologii AI, które będzie priorytetyzowało bezpieczeństwo psychiczne użytkowników, szczególnie młodych.









