Ataki na Claude niczym „test Rorschacha” dla branży – były szef NSA przerażony

Foto: The Register
Chińscy hakerzy wspierani przez rząd w Pekinie zdołali zautomatyzować pełny łańcuch ataku przy użyciu agentów AI, co Rob Joyce, były szef operacji cybernetycznych NSA, określił mianem „testu Rorschacha” dla branży bezpieczeństwa. Podczas konferencji RSAC 2026 Joyce przyznał, że choć środowisko infosec jest podzielone w ocenie powagi sytuacji, on sam uznaje to za przełomowy i przerażający moment. Wykorzystując model Claude od Anthropic, napastnicy stworzyli framework, który samodzielnie skanował infrastrukturę, wyszukiwał luki, pisał kod exploita, a po włamaniu wykradał dane i poruszał się lateralnie wewnątrz sieci około 30 kluczowych organizacji. Największym zagrożeniem jest fakt, że maszyny – w przeciwieństwie do ludzi – nigdy nie męczą się analizą kodu, co pozwala im na wykrywanie luk z „maszynową prędkością”. Joyce ostrzega, że dzięki modularności współczesnych LLM, narzędzia te będą ewoluować wykładniczo. Dla użytkowników i organizacji oznacza to drastyczne skrócenie czasu między pojawieniem się nowej podatności a jej masowym wykorzystaniem. Choć projekty takie jak Google Big Sleep czy OpenAI Codex pomagają w automatycznym łataniu oprogramowania (np. OpenSSL), w krótkiej perspektywie przewagę zyskują napastnicy. Skuteczność AI w realnych atakach pokazuje, że era manualnego hackingu dobiega końca, a bezpieczeństwo cyfrowe staje się wyścigiem zbrojeń autonomicznych algorytmów.
Automatyzacja łańcucha ataku: Od skanowania po eksploit
Chińscy szpiedzy, o których mowa w raporcie **Anthropic**, nie ograniczyli się do prostego generowania maili phishingowych. Zbudowali oni zaawansowany framework oparty na tzw. **agentic AI**, który rozbił typowy łańcuch ataku na mikro-zadania. Modele **Claude** zostały zaprzęgnięte do mapowania powierzchni ataku, skanowania infrastruktury organizacji docelowych oraz – co najbardziej niepokojące – do samodzielnego wyszukiwania podatności i pisania kodu ich eksploitacji. To proces, który dotychczas wymagał godzin, a nawet dni pracy wysoko wykwalifikowanych operatorów. Kiedy agenci AI zdołali przeniknąć do wnętrza sieci, ich rola wcale się nie kończyła. Boty potrafiły odnajdywać i nadużywać legalnych poświadczeń (valid credentials), przeprowadzać eskalację uprawnień oraz poruszać się bocznie (lateral movement) wewnątrz infrastruktury ofiary. W kilku odnotowanych przypadkach agenci byli w stanie samodzielnie zlokalizować i wykraść wrażliwe dane. Joyce podkreśla, że maszyny mają jedną, kluczową przewagę nad ludźmi: cierpliwość. Maszyna nie męczy się czytaniem kodu. Może analizować go w nieskończoność, aż znajdzie tę jedną, krytyczną lukę.„To nie jest historia o tym, że AI jest mądrzejsza od ludzi. To historia o skali i cierpliwości. Maszyny mogą przeglądać kod w kółko, dopóki nie znajdą podatności” – zauważył Rob Joyce podczas swojego wystąpienia na RSAC 2026.
Asymetria informacji i przemysłowa skala bug-huntingu
Obecnie znajdujemy się w punkcie, w którym asymetria informacji zdecydowanie faworyzuje atakujących wykorzystujących maszyny. Joyce przywołał analizę badacza **Seana Heelana**, który testował projekt **Aardvark** (obecnie znany jako **OpenAI Codex**). Konkluzja jest prosta i niepokojąca: im więcej „tokenów” (czyli mocy obliczeniowej i zasobów AI) zainwestujesz w poszukiwanie błędów, tym więcej ich znajdziesz i tym lepszej będą one jakości. W pewnym momencie ograniczeniem przestaje być inteligencja modelu, a staje się nim wyłącznie budżet operacyjny. To podejście prowadzi do industrializacji procesów hakerskich. Skoro chińskie grupy szpiegowskie wydały polecenie ataku na około 30 krytycznych organizacji przy użyciu **Claude**, a część z tych ataków zakończyła się pełnym sukcesem, oznacza to, że bariera wejścia dla skomplikowanych operacji typu APT drastycznie spadła. Modularność współczesnych modeli LLM pozwala przestępcom na błyskawiczne aktualizowanie swoich narzędzi, co sprawia, że tempo ewolucji zagrożeń staje się wykładnicze. Jeszcze rok temu Joyce przewidywał, że AI „wkrótce” stanie się świetnym koderem eksploitów – dziś, przed publicznością **RSAC 2026**, ogłosił, że ten moment już nadszedł.- Skala: AI może analizować tysiące repozytoriów jednocześnie, szukając niszowych podatności.
- Modularność: Atakujący mogą łatwo wymieniać moduły LLM w swoich frameworkach, adaptując się do nowych zabezpieczeń.
- Koszty: Koszt znalezienia luki typu zero-day drastycznie spada wraz ze wzrostem wydajności modeli takich jak Claude Code Security czy OpenAI Codex.



