ChatGPT nie wyleczył raka u psa

Foto: The Verge AI
Opowieść o australijskim przedsiębiorcy, który rzekomo za pomocą ChatGPT uratował swojego psa przed rakiem, obiegła światowe media jako dowód rewolucji AI w medycynie. Rzeczywistość jest zdecydowanie bardziej skomplikowana. Paul Conyngham, bez doświadczenia medycznego, użył ChatGPT do znalezienia opcji leczenia nowotworu swojej suki Rosie. Chatbot wskazał immunoterapię, a następnie Conyngham współpracował z naukowcami z University of New South Wales nad opracowaniem spersonalizowanej szczepionki mRNA. Kilka tygodni po pierwszym wstrzyknięciu guzy zmniejszyły się, choć nie zniknęły całkowicie, a jeden nie zareagował wcale. Problem w tym, że media dramatyzowały historię. Newsweek pisał o "wynalezieniu leku na raka", podczas gdy rzeczywistość jest mniej spektakularna. ChatGPT nie zaprojektował szczepionki — służył jedynie jako asystent badawczy do przeglądania literatury. Szczepionkę opracowali naukowcy. Dodatkowo Rosie otrzymywała równocześnie inną immunoterapię, więc niemożliwe jest ustalenie, czy szczepionka mRNA faktycznie miała wpływ na poprawę. Rola AlphaFold i Groka pozostaje niejasna. Historia pokazuje, jak AI otrzymuje zbyt wiele zasług za pracę naukowców.
Kiedy australijski przedsiębiorca technologiczny bez żadnego doświadczenia w biologii czy medycynie ogłosił, że ChatGPT pomógł uratować jego psa przed rakiem, historia rozprzestrzeniła się z zawrotną prędkością. To dokładnie taki rodzaj walidacji, o którą od lat zabiegają giganci technologiczni — dowód, że sztuczna inteligencja zrewolucjonizuje medycynę i zmierzy się z jedną z jej najgroźniejszych chorób. Rzeczywistość, jak zwykle, okazała się znacznie bardziej skomplikowana.
Historia Paula Conynghama z Sydney i jego psa Rosie szybko stała się jednym z tych opowieści, które wydają się zbyt idealne, by mogły być prawdziwe. Przedsiębiorca bez medycznego wykształcenia, desperacki właściciel zwierzęcia, kilka chatbotów — wszystkie elementy składały się na scenariusz prosto z artykułu promującego rewolucję sztucznej inteligencji w ochronie zdrowia. Tyle że gdy się wkopie głębiej, okazuje się, że rzeczywistość jest znacznie bardziej chaotyczna, a sama rola AI w tym przypadku została drastycznie przeinaczana.
Warto przyjrzeć się temu przypadkowi nie dlatego, że jest on banalny, ale właśnie dlatego, że jest pouczający. Pokazuje on, jak łatwo narracja technologiczna może przysłonić faktyczne osiągnięcia ludzi, jak media mogą zniekształcić historię w poszukiwaniu klikniętych artykułów, oraz jak przemysł AI wykorzystuje takie przypadki do budowania swojego wizerunku jako zbawcy ludzkości.
Lee también
Historia, która zalewała internet — i jak ją przekłamano
Wszystko zaczęło się w 2024 roku, kiedy Rosie, mieszanka stafforda i szar-peja, zdiagnozowano raka. To zwykła, smutna historia, którą przeżywają tysiące właścicieli zwierząt domowych. Chemioterapia początkowo spowolniła chorobę, ale nie zmniejszyła guzów. Kiedy weterynarze powiedzieli, że "nic więcej nie można zrobić", Conyngham podjął decyzję, która ostatecznie zamieniła jego osobisty dramat w medialną sensację.
Wersja historii, którą rozpowszechniły media — najpierw australijski dziennik The Australian — brzmiała stosunkowo prosto. Conyngham rzekomo użył ChatGPT do burzy mózgów na temat opcji leczenia. Chatbot miał zasugerować immunoterapię i skierować go do naukowców z University of New South Wales. Następnie Conyngham wykorzystał zarówno ChatGPT, jak i model sztucznej inteligencji Google'a do przewidywania struktury białek — AlphaFold — aby zrozumieć wyniki genetycznego profilowania guza Rosie. Współpracując z profesorem Pallem Thordarsonem z UNSW, miał opracować spersonalizowaną szczepionkę mRNA dostosowaną do mutacji guza psa.
Kilka tygodni po pierwszym wstrzyknięciu szczepionki w grudniu, guzy Rosie miały się zmniejszyć, a pies miał czuć się lepiej — nawet gonić króliki w parku. To brzmiało jak triumf. Tyle że Conyngham sam był ostrożny w swoich słowach: "Nie mam złudzeń, że to jest leczenie, ale uważam, że to leczenie dało Rosie znacznie więcej czasu i jakości życia".
Ta ostrożność jednak nie przetrwała pierwszego kontaktu z mediami. Newsweek ogłosił: "Właściciel bez doświadczenia medycznego wymyślił lekarstwo na terminalnego raka psa". New York Post krzyknął, że "Tech pro ratuje swojego umierającego psa, używając ChatGPT do kodowania niestandardowej szczepionki na raka". W mediach społecznościowych konta rozpowszechniały Rosie jako "uzdrowioną" oraz jako dowód na nadejście nowej ery spersonalizowanej medycyny. Greg Brockman, prezes i współzałożyciel OpenAI, nie tylko podzielił się tą historią, ale dodał do niej swój entuzjazm. Elon Musk nie mógł się powstrzymać i wskazał, że AI jego firmy xAI — Grok — również odegrała rolę, szczegół, który zaskakująco pominęły pierwsze doniesienia.
Gdzie AI kończy się, a rzeczywista nauka się zaczyna
Problem z tą historią zaczyna się od fundamentalnego nieporozumienia dotyczącego tego, co ChatGPT i inne narzędzia AI faktycznie zrobiły. Historia, którą rozpowszechniały media, sugeruje, że sztuczna inteligencja zaprojektowała i stworzyła leczenie. To jest po prostu nieprawda. ChatGPT nie zaprojektował ani nie stworzył leczenia Rosie — zrobili to naukowcy.
W najlepszym przypadku chatbot służył jako asystent badawczy, pomagając Conynghamowi przeanalizować literaturę medyczną. To rzeczywiście imponujące — zdolność sztucznej inteligencji do przeszukiwania, streszczania i wyjaśniania złożonych tekstów naukowych to rzeczywisty postęp. Ale to jest coś zupełnie innego niż to, co sugeruje narracja "AI uratowała psa".
Sama szczepionka mRNA nie została wygenerowana przez chatbota. Naukowcy z UNSW przeprowadzili genetyczne profilowanie guza, zidentyfikowali mutacje, a następnie opracowali szczepionkę opartą na tych mutacjach. To była praca laboratoryjnych ekspertów, fizyczna praca w laboratorium, testowanie i walidacja. AI nie robiła tego — mogła jedynie pomóc w myśleniu przez problemy i przeglądaniu literatury.
David Ascher, profesor i dyrektor programów biotechnologicznych na University of Queensland, wyjaśnił to doskonale dla The Verge: AlphaFold "mógł przyczynić się do strukturalnych hipotez dotyczących białek, ale nie jest gotowym do użytku systemem do projektowania szczepionek na raka". Ponadto oficjalne wytyczne ostrzegają, że AlphaFold nie jest walidowany do przewidywania skutków niektórych mutacji i nie modeluje "kilku biologicznie ważnych kontekstów".
Rola Groka — AI xAI — jest jeszcze bardziej niejasna. Conyngham napisał na X, że "ostateczna konstrukcja szczepionki dla Rosie została zaprojektowana przez Groka", ale nie jest jasne, co to konkretnie oznacza lub jakie dane wejściowe model otrzymał. Ascher sugeruje, że Grok realnie przypada do tej samej kategorii co ChatGPT: narzędzie, które "mogło pomóc w wyszukiwaniu literatury, streszczaniu artykułów, tłumaczeniu żargonu, sugerowaniu przepływów pracy, redagowaniu kodu lub dokumentów i pomaganiu użytkownikowi w przemyśleniu opcji". Użyteczna rola, ale daleko od tego, co sugeruje sformułowanie "projektowanie szczepionki na raka".
Ludzka praca, którą media całkowicie zignorowały
To, co naprawdę boli w tej historii, to całkowite zignorowaniu ogromnego wysiłku ludzi, bez którego wszystko to byłoby tylko tekstem na ekranie. Alvin Chan, asystent profesora na Nanyang Technological University w Singapurze, który pracuje nad AI dla odkryć biomedycznych i farmaceutycznych, wyraził to doskonale: rama "AI zrobiła to" ignoruje ten masywny wysiłek człowieka, bez którego "wyjście AI pozostałoby tylko tekstem na ekranie".
Rozpatrz to przez chwilę. Aby przejść od "ChatGPT zasugerował immunoterapię" do "szczepionka mRNA dostosowana do konkretnych mutacji guza psa" wymagało:
- Dostępu do specjalistycznych naukowców z elitarnego uniwersytetu australijskiego
- Zdolności do przeprowadzenia zaawansowanego genetycznego profilowania guza
- Głęboką wiedzę na temat immunoterapii i szczepionek mRNA
- Dostępu do laboratorium zdolnego do syntezy mRNA
- Zdolności do produkcji i testowania szczepionki
- Znacznych funduszy — szacuje się dziesiątki tysięcy dolarów
- Umiejętności weterynaryjne do bezpiecznego podania leczenia
ChatGPT nie zapewniła żadnego z tych elementów. Mogła jedynie pomóc w sformułowaniu pytań i analizie odpowiedzi. To jak powiedzenie, że GPS zaprojektował dom — może ci pokazać mapę terenu, ale nie buduje struktury.
Professor Ascher trafnie podsumował to: Rosie's case "jest lepiej postrzegane jako niezwykły, bardzo specyficzny dowód możliwości niż jako szablon, który zwykli ludzie mogą łatwo odtworzyć". Wymagało to "znacznego" wysiłku ekspertów, a nie tylko "chatbota i kilku podpowiedzi".
Czy Rosie została faktycznie wyleczona? Odpowiedź jest skomplikowana
Czytając pierwsze nagłówki, można by pomyśleć, że Rosie została całkowicie wyleczona z raka. To byłoby oszałamiające odkrycie, rewolucyjne w świecie weterynarii i medycyny. Ale rzeczywistość jest znacznie bardziej nuansowana — i znacznie mniej triumfalna.
Najpierw: guzy Rosie się nie zniknęły. Zmniejszyły się, ale pozostały. Jeden guz w ogóle nie odpowiedział na leczenie. To nie jest wyleczenie — to jest opóźnienie choroby, co, choć ważne dla jakości życia psa, nie jest tym samym co "uratowanie" czy "lekarstwo".
Drugi problem jest jeszcze bardziej fundamentalny: nie wiadomo, czy szczepionka mRNA w ogóle miała jakikolwiek wpływ. Szczepionka została podana równocześnie z inną formą immunoterapii zwaną checkpoint inhibitorem — lekiem zaprojektowanym do wspierania systemu immunologicznego w atakach na guzy. Oznacza to, że praktycznie niemożliwe jest stwierdzenie, czy szczepionka cokolwiek zrobiła. Jeden z naukowców zaangażowanych w projekt, Martin Smith, powiedział, że zespół przeprowadza testy, aby sprawdzić odpowiedź immunologiczną. Ale te wyniki nie zostały jeszcze opublikowane ani nie przejdą recenzji naukowej.
To jest kluczowe rozróżnienie. W medycynie — zarówno ludzkiej, jak i weterynaryjnej — nie możesz po prostu powiedzieć "pacjent się czuje lepiej, więc moje leczenie zadziałało". Możesz mieć wiele zmiennych. Może to był checkpoint inhibitor. Może to był efekt placebo dla właściciela, co wpłynęło na opiekę nad psem. Może Rosie miała szczęście i jej naturalny system immunologiczny po prostu zaatakował guzy. Bez kontrolowanych badań, bez powtarzalności, bez przejrzystości, wszystko to są spekulacje.
Czemu historia brzmi jak PR stunt — bo może nim być
Cała ta historia ma pewien niepokojący zapach, który trudno jest się pozbyć. Niezwykła kombinacja elementów — desperacki właściciel zwierzęcia, beznadziejna sytuacja medyczna, geniusz technologiczny, który "wymyśla" rozwiązanie, i szczęśliwe zakończenie — jest zbyt idealna. Zbyt czysta. Zbyt wygodna dla narracji, którą chcą rozpowszechniać firmy technologiczne.
W świecie finansowania technologicznego, gdzie śmiałe twierdzenia zbudowane na wątpliwych fundamentach używając niejasnych metod są normą, ta historia idealnie się wpisuje. Szczepionki mRNA — podobnie jak szersze obiecanie spersonalizowanej medycyny — pozostają w dużej mierze niepotwierdzone jako leczenie raka u ludzi, nie mówiąc już o psach. Podczas gdy przypadek może być rzeczywisty, wydaje się zbyt starannie skomponowany i wygodnie pomija dziesiątki tysięcy dolarów oraz znaczną ekspertyzę wymaganą do zamiany pomysłu w żywotne leczenie.
Conyngham, gdy skontaktował się z nim The Verge, nie odpowiedział. Ale jego profil na X mówi wiele: "Ending Cancer for Dogs" — kończenie raka dla psów. Linki do formularza Google'a opisującego jego "marzenie, aby uczynić ten proces czymś, do czego każdy mógłby mieć dostęp". Formularz pyta, czy twój pies ma raka, czy jesteś badaczem lub naukowcem, który chce się zaangażować, i — co kluczowe — czy jesteś inwestorem.
To nie wygląda jak projekt naukowca chcącego podzielić się odkryciem ze światem. To wygląda jak budowanie biznesu.
AI jako narzędzie badawcze — rzeczywista wartość ukryta pod szumem
Mimo wszystkich zastrzeżeń, byłoby błędem całkowicie odrzucić historię Rosie jako bezsensowną. Tutaj znajduje się rzeczywisty postęp, rzeczywista wartość AI, choć jest ona znacznie bardziej subttelna niż sugerują nagłówki.
Sztuczna inteligencja rzeczywiście czyni naukę bardziej dostępną dla zwykłych ludzi. Możliwość ChatGPT do przeszukiwania, streszczania i wyjaśniania złożonych tekstów naukowych to rzeczywisty postęp. Wcześniej, aby zrozumieć literaturę naukową, potrzebowałeś lat edukacji. Teraz chatbot może pomóc ci przejść przez to w minuty. To demokratyzuje dostęp do informacji.
Ale — i to jest ogromne ale — demokratyzacja dostępu do informacji to nie to samo co demokratyzacja dostępu do opieki. Conyngham miał dostęp do naukowców z elitarnego uniwersytetu, laboratorium zdolnego do syntezy mRNA, funduszy na przeprowadzenie wszystkiego, i weterynarza zdolnego do podania leczenia. Większość ludzi — nawet w bogatych krajach — nie ma dostępu do żadnego z tych elementów.
Historia Rosie pokazuje, że AI może być pomocnym narzędziem w rękach ekspertów z dostępem do zasobów. Ale nie pokazuje, że AI może zastąpić ekspertów, laboratoryjny sprzęt, fundusze lub fizyczną pracę nauki. To jest ważne rozróżnienie, które media całkowicie przegapiły.
Specjalny przypadek czy szablon dla przyszłości?
Pytanie, które naprawdę się liczy, to czy przypadek Rosie może być odtworzony. Czy zwykły właściciel zwierzęcia z dostępem do ChatGPT może teraz zaprojektować szczepionkę dla swojego psa? Odpowiedź jest zdecydowanie nie.
Ascher wyraził to jasno: Rosie's case "jest lepiej postrzegane jako niezwykły, bardzo specyficzny dowód możliwości niż jako szablon, który zwykli ludzie mogą łatwo odtworzyć". Wymagało to niezwykłego zbiegiem okoliczności — właściciela, który miał wystarczająco dużo pieniędzy i determinacji, aby kontaktować się z naukowcami, naukowców, którzy byli zainteresowani eksperymentowaniem z nową ideą, dostępu do zaawansowanego sprzętu laboratoryjnego i czasu naukowców.
Dla porównania, większość ludzi na świecie — nawet w bogatych krajach — nie ma dostępu do tego rodzaju zasobów dla siebie, nie mówiąc już dla swoich zwierząt domowych. Gdzie to nas pozostawia? Że AI może być przydatnym narzędziem dla naukowców z dostępem do zasobów. To jest ważne, ale to nie jest rewolucja w medycynie.
Lekcja dla branży technologicznej — i dla nas
Historia Rosie jest pouczająca na wiele sposobów. Po pierwsze, pokazuje, jak łatwo narracja technologiczna może być zniekształcona, szczególnie gdy jest to wygodne dla firm, które chcą promować swoją technologię. Po drugie, pokazuje, jak media mogą przeć się za sensacją kosztem dokładności. Po trzecie, pokazuje, jak ważne jest być sceptycznym wobec twierdzeń dotyczących "przełomów" w AI.
Dla branży AI, ta historia powinna być ostrzeżeniem. Hype wokół AI jest już wysoki — może zbyt wysoki. Gdy firmy takie jak OpenAI, Google i xAI amplifikują przesadzone wersje historii, przyczyniają się do budowania nierealistycznych oczekiwań. A gdy oczekiwania są nierealistyczne, rozczarowanie nieuniknione.
Dla polskich twórców i przedsiębiorców technologicznych, ta historia jest szczególnie ważna. Polska branża AI rośnie, ale jeśli będziemy budować naszą reputację na przesadzonych twierdzeń i zniekształconych historiach, podzielimy los branży technologicznej — stracić zaufanie publiczne, gdy rzeczywistość nie będzie odpowiadać obietnicom.
Rzeczywista wartość AI w medycynie i nauce jest rzeczywista. Ale jest ona bardziej subtelna, bardziej wymagająca i mniej dramatyczna niż sugerują nagłówki. AI jest narzędziem, które może wspierać naukowców i lekarzy, ale nie może zastąpić ich. Może pomóc w analizie danych, ale nie może zastąpić fizycznej pracy laboratorium. Może zasugerować hipotezy, ale nie może je testować.
Historia Rosie jest historią o tym, co się stanie, gdy zmieszamy rzeczywisty postęp technologiczny z niekontrolowanym hype'em i mediami szukającymi sensacji. Wynik to zniekształcona narracja, która przynosi szkodę zarówno publicznym oczekiwaniom, jak i rzeczywistemu postępowi nauki.
Más de IA

Kagi Translate: AI odpowiada na pytanie "Co by powiedziała rozbujana Margaret Thatcher?"

Taktyka Muska obwiniania użytkowników za erotyczne obrazy Groka może zostać udaremniona przez prawo UE

Nothing CEO Carl Pei mówi, że aplikacje na smartfony znikną, gdy zastąpią je agenty AI






