„Cognitive surrender” sprawia, że użytkownicy AI przestają logicznie myśleć – wynika z badań

Foto: Gety Images
Nawet 93% użytkowników bezkrytycznie akceptuje odpowiedzi generowane przez sztuczną inteligencję, gdy wydają się one poprawne, co prowadzi do niebezpiecznego zjawiska określanego jako „cognitive surrender” (poznawcza kapitulacja). Badacze z University of Pennsylvania, w publikacji „Thinking—Fast, Slow, and Artificial”, dowodzą, że zamiast traktować AI jako narzędzie wspierające, ludzie coraz częściej całkowicie rezygnują z własnego krytycznego myślenia. W przeciwieństwie do tradycyjnego „cognitive offloading” – znanego z używania kalkulatorów czy GPS – nowa era interakcji z LLM (Large Language Models) sprawia, że użytkownicy poddają się autorytetowi maszyny, nawet jeśli ta serwuje im ewidentne błędy logiczne. Eksperymenty oparte na testach CRT (Cognitive Reflection Tests) wykazały, że badani masowo powielali błędne sugestie bota, o ile były one podane w sposób płynny i pewny siebie. Dla użytkowników na całym świecie oznacza to realne ryzyko degradacji umiejętności analitycznych i podejmowania błędnych decyzji pod wpływem tzw. sztucznej kognicji. Presja czasu i dążenie do minimalizacji wysiłku intelektualnego sprawiają, że przestajemy weryfikować fakty, co w środowisku zawodowym i edukacyjnym może prowadzić do utraty kontroli nad jakością i logiką wykonywanej pracy. Ślepe zaufanie do algorytmów staje się nowym, cyfrowym uprzedzeniem poznawczym, które zamiast rozszerzać ludzkie możliwości, zaczyna je aktywnie zastępować.
W świecie zdominowanym przez algorytmy użytkownicy AI dzielą się na dwa obozy. Pierwszy to sceptycy, traktujący modele językowe jako potężne, ale wadliwe narzędzia wymagające nieustannej weryfikacji. Drugi to grupa, która bezkrytycznie deleguje procesy myślowe na rzecz maszyn, uznając ich odpowiedzi za nieomylne. Najnowsze badania naukowców z University of Pennsylvania rzucają nowe światło na to drugie zjawisko, wprowadzając do słownika psychologii termin "cognitive surrender" (poznawcza kapitulacja).
Eksperymenty opisane w pracy zatytułowanej "Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender" dowodzą, że większość z nas jest gotowa porzucić logikę na rzecz płynnie sformułowanych, choć błędnych odpowiedzi generowanych przez sztuczną inteligencję. Skala tego zjawiska jest alarmująca: w kontrolowanych warunkach badani akceptowali błędne rozumowanie AI w ponad 70% przypadków.
Trzeci system myślenia: Sztuczna kognicja
Tradycyjna psychologia poznawcza, spopularyzowana m.in. przez Daniela Kahnemana, dzieli ludzkie procesy decyzyjne na dwa systemy. System 1 jest szybki, intuicyjny i emocjonalny, natomiast System 2 działa wolno, analitycznie i wymaga wysiłku. Badacze z Pensylwanii sugerują jednak, że pojawienie się zaawansowanych modeli LLM stworzyło trzecią kategorię – "artificial cognition" (sztuczną kognicję). Jest to proces, w którym decyzje nie zapadają w ludzkim umyśle, lecz są wynikiem zewnętrznych, zautomatyzowanych algorytmów.
Czytaj też
O ile w przeszłości korzystaliśmy z tzw. "cognitive offloading" – delegując specyficzne zadania kalkulatorom czy systemom GPS, zachowując przy tym nadzór nad wynikiem – o tyle cognitive surrender oznacza całkowitą abdykację z myślenia. Użytkownicy wykazują minimalne zaangażowanie wewnętrzne, przyjmując argumentację AI bez jakiejkolwiek weryfikacji. Dzieje się tak szczególnie wtedy, gdy odpowiedź jest podana w sposób płynny i pewny, co skutecznie usypia czujność intelektualną.

Eksperyment z "wadliwą" inteligencją
Aby zbadać ten mechanizm, naukowcy wykorzystali Cognitive Reflection Tests (CRT). Są to zadania zaprojektowane tak, by prowokować intuicyjne, błędne odpowiedzi, które można jednak łatwo skorygować poprzez chwilę analitycznego zastanowienia. W badaniu wzięło udział 1372 uczestników, którzy przeprowadzili łącznie ponad 9500 prób. Mieli oni dostęp do specjalnie zmodyfikowanego bota AI, który w około 50% przypadków celowo podawał błędne uzasadnienia.
Wyniki pokazały druzgocącą przewagę autorytetu maszyny nad własnym rozumem:
- Gdy AI podawała poprawne odpowiedzi, użytkownicy akceptowali je w 93% przypadków.
- Gdy AI podawała odpowiedzi błędne, badani nadal przyjmowali je w 80% przypadków.
- Średnio, w całym badaniu, uczestnicy zaakceptowali błędne rozumowanie AI w 73,2% sytuacji, a zakwestionowali je jedynie w 19,7% prób.
Presja czasu a bodźce finansowe
Badacze sprawdzili również, jakie czynniki zewnętrzne mogą powstrzymać proces poznawczej kapitulacji. Okazało się, że wprowadzenie dodatkowych zachęt, takich jak niewielkie płatności za poprawne odpowiedzi oraz natychmiastowa informacja zwrotna, zwiększyło szansę na odrzucenie błędnej sugestii AI o 19 punktów procentowych. Realne konsekwencje zmuszają więc mózg do powrotu do Systemu 2 i podjęcia trudu weryfikacji.
Z drugiej strony, presja czasu działa na korzyść bezkrytycznego przyjmowania treści z AI. Wprowadzenie 30-sekundowego limitu na zadanie obniżyło zdolność do korygowania błędów maszyny o 12 punktów procentowych. Gdy czas na podjęcie decyzji jest ograniczony, nasz wewnętrzny monitor konfliktów poznawczych rzadziej się aktywuje, co czyni nas bezbronnymi wobec halucynacji czy błędów logicznych modeli językowych.

Fluid IQ jako tarcza przed manipulacją
Podatność na cognitive surrender nie jest jednakowa dla wszystkich. Badanie wykazało, że osoby z wysokim wskaźnikiem tzw. Fluid IQ (inteligencji płynnej) rzadziej sięgały po pomoc AI, a gdy już to robiły, częściej potrafiły wychwycić i odrzucić błędne rozumowanie. Z kolei osoby, które w ankietach deklarowały wysokie zaufanie do systemów autonomicznych, były znacznie częściej wprowadzane w błąd.
Naukowcy podkreślają jednak, że poznawcza kapitulacja nie zawsze musi być nieracjonalna. W środowiskach opartych na analizie ogromnych zbiorów danych czy szacowaniu ryzyka probabilistycznego, "statystycznie doskonały system" może oferować wyniki lepsze od ludzkich. Problem pojawia się w momencie, gdy zaufanie wyprzedza faktyczne możliwości technologii.
Wnioski płynące z badań są jasne: nasza wydajność intelektualna w coraz większym stopniu zależy od jakości narzędzi, którym ufamy. W miarę jak polegamy na AI, nasze wyniki stają się lustrzanym odbiciem jakości algorytmu – rosną, gdy jest on precyzyjny, i drastycznie spadają, gdy zawodzi. W erze powszechnego dostępu do LLM, największym zagrożeniem nie jest sama sztuczna inteligencja, lecz nasza gotowość do oddania jej kontroli nad krytycznym myśleniem bez żadnego bezpiecznika.
Więcej z kategorii Sztuczna inteligencja
Podobne artykuły

Przetasowania w OpenAI: Brad Lightcap obejmuje nową rolę i pokieruje „projektami specjalnymi”
8h
OpenClaw daje użytkownikom kolejny powód do obaw o bezpieczeństwo
8h
Anthropic kupuje biotechnologiczny startup Coefficient Bio za 400 mln dolarów: Raporty
8h





