
Foto: The Hacker News
Agentic web browsers that leverage artificial intelligence (AI) capabilities to autonomously execute actions across multiple websites on behalf of a user could be trained and tricked into falling prey to phishing and scam traps. The attack, at its core, takes advantage of AI browsers' tendency to reason their actions and use it against the model itself to lower their security guardrails, Guardio
Badacze z firmy bezpieczeństwa Guardio ujawnili poważną lukę w zabezpieczeniach inteligentnych przeglądarek AI, które mogą zostać oszukane w zaledwie kilka minut. Odkrycie to rzuca nowe światło na potencjalne zagrożenia związane z rosnącą autonomią narzędzi opartych na sztucznej inteligencji.
Kluczowym elementem eksperymentu było wykorzystanie zdolności Comet AI — przeglądarki z zaawansowanymi funkcjami autonomicznego poruszania się po internecie. Badacze odkryli, że można manipulować mechanizmami rozumowania modelu AI, zmuszając go do wykonywania potencjalnie niebezpiecznych czynności.
Metoda ataku opiera się na stopniowym obchodzeniu zabezpieczeń poprzez:
Atak przeprowadzony przez Guardio wykazał, że inteligentna przeglądarka może zostać w ciągu zaledwie 4 minut przekierowana do fałszywej strony phishingowej. Oznacza to poważne zagrożenie dla użytkowników, którzy ufają autonomicznym narzędziom AI.
Szczególnie niebezpieczne jest to w kontekście coraz powszechniejszego stosowania inteligentnych asystentów i przeglądarek, które samodzielnie nawigują po internecie, wykonując skomplikowane zadania.
Dla polskich firm zajmujących się cyberbezpieczeństwem i rozwojem AI to sygnał ostrzegawczy. Konieczne będzie opracowanie nowych strategii ochrony, które uwzględniają specyfikę inteligentnych systemów autonomicznych.
Eksperci przewidują, że w najbliższych miesiącach możemy spodziewać się:
Odkrycie Guardio to kolejny dowód na to, że wraz z rozwojem sztucznej inteligencji musimy nieustannie dostosowywać nasze podejście do cyberbezpieczeństwa. Kluczowa będzie nie tylko ochrona przed atakami, ale także projektowanie systemów AI, które z natury są odporne na manipulacje.
Choć przedstawiony atak może brzmieć niepokojąco, stanowi on również cenną lekcję dla twórców technologii. Tylko poprzez ciągłe testowanie i ujawnianie słabości możemy tworzyć coraz bardziej niezawodne i bezpieczne rozwiązania AI.