Sztuczna inteligencja4 min czytaniaArs Technica AI

Wyciek kodu źródłowego Claude Code ujawnia plany Anthropic

P
Redakcja Pixelift0 views
Udostępnij
Wyciek kodu źródłowego Claude Code ujawnia plany Anthropic

Foto: Anthropic

Ponad 512 000 linii kodu zawartych w 2000 plików wyciekło do sieci, odsłaniając ambitne plany Anthropic dotyczące narzędzia Claude Code. Najważniejszym odkryciem jest system Kairos – rezydujący w tle proces typu daemon, który może działać nawet po zamknięciu terminala. Dzięki flagom takim jak „PROACTIVE”, asystent zyskuje zdolność do samodzielnego inicjowania działań i powiadamiania użytkownika o istotnych kwestiach, o które ten nawet nie zapytał. Kluczem do nowej generacji AI ma być zaawansowany system pamięci długotrwałej, wspierany przez mechanizm AutoDream. To rozwiązanie pozwala modelowi na „refleksję” nad przebiegiem sesji w momentach bezczynności lub po zakończeniu pracy. Podczas procesu „śnienia” AI skanuje transkrypty, usuwa duplikaty, aktualizuje nieaktualne informacje i syntetyzuje wiedzę tak, aby w kolejnej sesji natychmiast odnaleźć się w kontekście projektu. Dla programistów i twórców oznacza to przejście od reaktywnych czatbotów do autonomicznych agentów, którzy realnie znają styl pracy i preferencje swojego użytkownika. Jeśli Anthropic pomyślnie wdroży mechanizmy zapobiegające „dryfowaniu” wspomnień, Claude Code stanie się pierwszym narzędziem, które zamiast zaczynać każdą rozmowę od zera, będzie ewoluować wraz z rozwijanym kodem. Wyciek potwierdza, że branża AI przesuwa punkt ciężkości z doraźnych odpowiedzi na trwałą, wielosesyjną współpracę człowieka z maszyną.

Wyciek ponad 512 000 linii kodu źródłowego rozłożonych na przeszło 2000 plików to koszmar każdego działu bezpieczeństwa, ale dla analityków branży AI to rzadka okazja, by zajrzeć pod maskę Claude Code. Narzędzie od Anthropic, które miało być "tylko" interfejsem terminalowym dla programistów, w rzeczywistości skrywa fundamenty pod coś znacznie potężniejszego. Dokumentacja techniczna, która przedostała się do sieci, ujawnia plany budowy autonomicznego agenta zdolnego do działania bez ingerencji człowieka, posiadającego własną pamięć długotrwałą, a nawet proces "śnienia", który ma służyć optymalizacji wiedzy.

Kairos i narodziny agenta rezydentnego

Najbardziej intrygującym odkryciem w kodzie jest system o nazwie kodowej Kairos. To nie jest zwykła funkcja czatu; to stały proces typu daemon, który może działać w tle systemu operacyjnego nawet po zamknięciu okna terminala Claude Code. Architektura ta opiera się na cyklicznych promptach typu <tick>, które regularnie wybudzają model, by sprawdził, czy wymagane są nowe działania. To przejście od modelu reaktywnego – gdzie AI odpowiada tylko na pytanie – do modelu proaktywnego.

Wewnątrz kodu odnaleziono flagę PROACTIVE, która ma służyć do "wyświetlania czegoś, o co użytkownik nie pytał, a co musi teraz zobaczyć". W praktyce oznacza to, że Claude mógłby samodzielnie monitorować postępy w kompilacji kodu, wykrywać błędy w logach serwera w czasie rzeczywistym lub sugerować poprawki do commitów, zanim programista w ogóle pomyśli o ich sprawdzeniu. To fundamentalna zmiana paradygmatu: AI przestaje być narzędziem, a staje się autonomicznym współpracownikiem, który pilnuje projektu pod naszą nieobecność.

Interfejs Claude Code bez reklam
Wyciek kodu ujawnia zaawansowane funkcje ukryte pod maską terminalowego interfejsu Claude Code.

Pamięć długotrwała i system AutoDream

Jednym z największych problemów obecnych modeli językowych jest "skleroza" – utrata kontekstu po zakończeniu sesji. Anthropic zamierza rozwiązać to za pomocą plikowego systemu pamięci ukrytego pod flagą KAIROS. Z instrukcji zawartych w wycieku wynika, że system ma budować "kompletny obraz tego, kim jest użytkownik, jak chce współpracować, jakich zachowań unikać, a jakie powtarzać". To budowanie cyfrowego profilu współpracy, który wykracza poza proste instrukcje systemowe.

Aby ta masa danych nie stała się chaotyczna, inżynierowie zaprojektowali mechanizm AutoDream. Jest to proces aktywowany, gdy użytkownik przechodzi w tryb bezczynności lub ręcznie wydaje komendę "sleep". Wówczas Claude Code wykonuje "refleksyjny pas nad plikami pamięci". Podczas tego cyklu "snu", model skanuje transkrypcje z całego dnia, identyfikuje nowe informacje warte zachowania i konsoliduje je tak, by uniknąć duplikatów i sprzeczności. Jest to fascynująca analogia do biologicznego snu, gdzie mózg porządkuje wspomnienia i usuwa zbędne dane.

  • Konsolidacja wiedzy: Łączenie rozproszonych faktów z wielu sesji w spójną bazę wiedzy.
  • Usuwanie redundancji: Przycinka zbyt gadatliwych lub nieaktualnych wpisów w pamięci.
  • Korekta dryfu: Wykrywanie momentów, w których "pamięć" AI zaczyna odbiegać od faktów (tzw. memory drift).
Schemat działania Claude
Mechanizm AutoDream ma pozwolić modelowi Claude na syntezę zdobytej wiedzy podczas przerw w pracy użytkownika.

Buddy i tryb Undercover – nowa dynamika pracy

W gąszczu plików natrafiono również na wzmianki o wirtualnym asystencie o nazwie Buddy oraz trybie "Undercover". Choć szczegóły dotyczące Buddy'ego są mniej klarowne, nazewnictwo sugeruje próbę nadania narzędziu bardziej personalnego, asystenckiego charakteru, co może być odpowiedzią na podobne inicjatywy konkurencji. Z kolei tryb stealth mógłby sugerować funkcje dyskretnego monitorowania środowiska pracy bez bezpośredniego ingerowania w kod, co wpisuje się w wizję agenta typu Kairos.

Z perspektywy deweloperskiej, kluczowym wyzwaniem dla Anthropic będzie opanowanie wspomnianego w kodzie problemu "dryfujących wspomnień". Użytkownicy, którzy próbowali nakładać własne systemy pamięci na modele Claude, często raportowali, że z czasem AI zaczyna halucynować na temat własnych wcześniejszych ustaleń. AutoDream ma być systemowym rozwiązaniem tego problemu, dbając o to, by każda nowa sesja mogła "szybko się zorientować" w aktualnym stanie projektu i preferencjach programisty.

Analiza tych 512 tysięcy linii kodu pokazuje, że Anthropic nie buduje tylko kolejnego edytora zintegrowanego z AI. Budują infrastrukturę pod stałą obecność sztucznej inteligencji w systemie operacyjnym. Jeśli te funkcje zostaną oficjalnie wdrożone, Claude Code przestanie być narzędziem wywoływanym na żądanie, a stanie się cyfrowym cieniem programisty – analizującym, śniącym o optymalizacji i proaktywnie działającym w tle. To kierunek, w którym AI przestaje być tylko "mądrzejszą wyszukiwarką", a staje się realnym podmiotem w procesie twórczym.

Źródło: Ars Technica AI
Udostępnij

Komentarze

Loading...