Technologia4 min czytaniaZDNet

3 sposoby, dzięki którym Cisco DefenseClaw zwiększy bezpieczeństwo agentic AI

P
Redakcja Pixelift0 views
Udostępnij
3 sposoby, dzięki którym Cisco DefenseClaw zwiększy bezpieczeństwo agentic AI

Foto: ZDNet

Aż 80% liderów biznesowych obawia się o bezpieczeństwo danych przy wdrażaniu autonomicznych agentów AI, co skłoniło Cisco do zaprezentowania DefenseClaw – innowacyjnego frameworku typu open-source, mającego na celu zabezpieczenie ekosystemu agentic AI. Rozwiązanie to wprowadza trzy kluczowe warstwy ochrony, które zmieniają sposób, w jaki systemy sztucznej inteligencji operują na wrażliwych zasobach. Pierwszym filarem jest dynamiczne zarządzanie uprawnieniami (Just-in-Time Permissions), które przyznaje agentom dostęp do narzędzi i danych wyłącznie na czas wykonania konkretnego zadania, minimalizując ryzyko nadużyć. Drugi element to zaawansowana weryfikacja intencji użytkownika, zapobiegająca atakom typu prompt injection, które mogłyby zmusić AI do niebezpiecznych działań. Całość dopełnia system transparentnego raportowania, dostarczający szczegółowe logi z każdej operacji podjętej przez autonomiczny model. Dla użytkowników i organizacji oznacza to bezpieczniejsze przejście od prostych chatbotów do zaawansowanych systemów, które samodzielnie rezerwują podróże czy zarządzają bazami danych. DefenseClaw redukuje barierę strachu przed niekontrolowanymi działaniami algorytmów, oferując programistom gotowe standardy bezpieczeństwa w coraz bardziej nieprzewidywalnym środowisku AI. Implementacja takich zabezpieczeń staje się fundamentem dla budowy zaufania w relacji człowiek-maszyna.

Wdrożenie sztucznej inteligencji w strukturach korporacyjnych napotyka na barierę, której nie da się przeskoczyć samym zwiększaniem mocy obliczeniowej czy dopracowywaniem modeli językowych. Problemem jest brak zaufania. Choć agentyczna AI obiecuje autonomiczną realizację złożonych zadań, gigant sieciowy Cisco wskazuje na krytyczny brak warstwy orkiestracji, która pozwalałaby śledzić i kontrolować działania podejmowane przez cyfrowych agentów. Odpowiedzią na ten impas ma być DefenseClaw — nowe rozwiązanie mające na celu uczynienie systemów agentycznych bezpiecznymi i transparentnymi dla biznesu.

Koncepcja agentów AI różni się fundamentalnie od prostych chatbotów. Podczas gdy tradycyjne modele LLM jedynie odpowiadają na pytania, systemy agentyczne mają zdolność do interakcji z zewnętrznymi narzędziami, bazami danych i aplikacjami, aby samodzielnie dowieźć konkretny rezultat. Według ekspertów z Cisco, to właśnie ta autonomia budzi największy lęk w sektorze enterprise. Bez odpowiedniego nadzoru, agent może podjąć błędną decyzję w systemie produkcyjnym, co w skali korporacyjnej generuje ryzyko nieakceptowalnych strat finansowych i wizerunkowych.

Transparentność działań dzięki zaawansowanej orkiestracji

Pierwszym filarem, na którym opiera się DefenseClaw, jest stworzenie przejrzystej warstwy orkiestracji. W obecnym modelu wdrażania AI, agenci często działają wewnątrz „czarnej skrzynki”. Administratorzy IT widzą zapytanie wejściowe i końcowy wynik, ale proces pośredni — czyli to, jakie narzędzia zostały wywołane i jakie dane zostały przetworzone — pozostaje niejasny. Cisco proponuje architekturę, która monitoruje każdy krok agenta w czasie rzeczywistym.

Wprowadzenie dedykowanej warstwy nadzoru pozwala na mapowanie intencji AI na konkretne działania w infrastrukturze sieciowej. Dzięki temu przedsiębiorstwa mogą zweryfikować, czy agent nie wykracza poza przyznane mu uprawnienia. DefenseClaw pełni rolę cyfrowego audytora, który nie tylko rejestruje aktywność, ale pozwala na jej wizualizację, co jest kluczowe dla zrozumienia logiki stojącej za autonomicznymi decyzjami maszyny.

  • Pełne logowanie interakcji agenta z systemami trzecimi.
  • Weryfikacja ścieżki decyzyjnej przed wykonaniem operacji o wysokim ryzyku.
  • Możliwość natychmiastowego przerwania łańcucha działań (kill switch) przez operatora.

Bezpieczeństwo na styku sieci i modeli językowych

Drugim aspektem DefenseClaw jest integracja bezpieczeństwa AI z głęboką analityką sieciową, z której Cisco jest znane od dekad. Wykorzystując swoją pozycję lidera w infrastrukturze, firma chce zabezpieczyć agentyczną AI przed atakami typu prompt injection oraz nieautoryzowaną eksfiltracją danych. System analizuje nie tylko treść zapytań, ale również anomalie w ruchu sieciowym generowanym przez same modele.

W praktyce oznacza to, że jeśli agent AI nagle zacznie wysyłać nietypowe wolumeny danych do nieznanych adresów IP lub próbować uzyskać dostęp do segmentów sieci, które nie są niezbędne do wykonania zadania, DefenseClaw zablokuje taką aktywność. Jest to podejście typu Zero Trust przeniesione na grunt sztucznej inteligencji. Zamiast ufać, że agent wykona zadanie bezpiecznie, system zakłada, że każde działanie musi zostać uwierzytelnione i zweryfikowane pod kątem polityki bezpieczeństwa firmy.

„Powodem powolnej adopcji agentycznej AI w przedsiębiorstwach jest brak warstwy orkiestracji do śledzenia tego, co faktycznie robią agenci” — podkreślają przedstawiciele Cisco.

Standardy i kontrola w środowisku wielomodelowym

Trzecim elementem strategii Cisco jest standaryzacja zarządzania różnorodnymi agentami. Współczesne przedsiębiorstwa rzadko korzystają z tylko jednego modelu; najczęściej jest to ekosystem obejmujący rozwiązania od OpenAI, Anthropic czy modele open-source uruchamiane lokalnie. DefenseClaw ma służyć jako uniwersalny panel kontrolny, niezależny od dostawcy technologii bazowej.

Dzięki takiemu podejściu, zespoły ds. cyberbezpieczeństwa mogą nakładać jednolite polityki Compliance na wszystkich agentów działających w organizacji. Eliminuje to problem powstawania silosów, w których każdy dział wdraża własne narzędzia AI bez centralnego nadzoru. DefenseClaw pozwala na definiowanie „barierek ochronnych” (guardrails), które są egzekwowane na poziomie infrastruktury, co sprawia, że bezpieczeństwo staje się integralną częścią stosu technologicznego, a nie tylko opcjonalnym dodatkiem w aplikacji.

Moim zdaniem, inicjatywa Cisco z systemem DefenseClaw to kluczowy moment dla branży. Przejście od fascynacji możliwościami generatywnej AI do twardego rygoru operacyjnego jest niezbędne, aby technologia ta opuściła fazę pilotaży. Jeśli Cisco uda się przekonać rynek, że ich warstwa orkiestracji skutecznie mityguje ryzyka agentyczne, możemy spodziewać się gwałtownego przyspieszenia automatyzacji procesów biznesowych, które do tej pory były uważane za zbyt wrażliwe dla sztucznej inteligencji.

Źródło: ZDNet
Udostępnij

Komentarze

Loading...