Sędzia odrzuca próbę Pentagonu mającą na celu „osłabienie” Anthropic

Foto: BBC Tech
Amerykański sąd federalny zablokował próbę nałożenia drastycznych restrykcji na Anthropic, określając działania Pentagonu mianem „klasycznego odwetu za korzystanie z wolności słowa”. Sędzia Rita Lin odrzuciła rządowe dyrektywy, które nakazywały natychmiastowe zaprzestanie korzystania z narzędzi firmy, w tym popularnego modelu Claude, przez wszystkie agencje państwowe. Spór wybuchł, gdy Anthropic odmówił podpisania kontraktu o wartości 200 milionów dolarów bez gwarancji, że jego technologia nie zostanie wykorzystana do masowej inwigilacji lub budowy w pełni autonomicznej broni. W odpowiedzi administracja nadała firmie bezprecedensowy status „supply chain risk”, zarezerwowany dotychczas dla podmiotów z krajów wrogich. Sąd uznał, że próba „okaleczenia” firmy miała podłoże polityczne, a nie merytoryczne, przywołując publiczne wypowiedzi polityków nazywających twórców AI „lewackimi świrami”. Dla globalnego rynku technologii kreatywnych i AI to przełomowy sygnał: twórcy modeli zyskują realne narzędzia ochrony przed naciskami politycznymi, które mogłyby wymuszać rezygnację z etycznych barier bezpieczeństwa. Decyzja ta oznacza, że Anthropic może kontynuować współpracę z sektorem publicznym i komercyjnym bez obaw o nagłe wykluczenie z rynku. Wyrok ten ustanawia ważny precedens w relacjach między państwem a Big Tech, chroniąc prawo deweloperów do decydowania o granicach zastosowań ich własnej technologii.
W świecie technologii, gdzie granica między bezpieczeństwem narodowym a wolnością słowa staje się coraz cieńsza, doszło do bezprecedensowego starcia na linii Dolina Krzemowa – Pentagon. Sędzia federalna Rita Lin wydała przełomowe orzeczenie, które tymczasowo blokuje próby administracji rządowej zmierzające do odcięcia firmy Anthropic od kontraktów państwowych. Decyzja ta nie tylko chroni interesy jednego z najważniejszych graczy na rynku AI, ale przede wszystkim rzuca światło na niebezpieczny precedens politycznego nacisku na twórców technologii.
Spór, który swój finał znalazł w kalifornijskim sądzie, dotyczy bezpośrednio narzędzi takich jak Claude – zaawansowanego modelu językowego, który stał się fundamentem operacji wielu agencji rządowych i podmiotów współpracujących z armią. Sędzia Lin w swoim postanowieniu nie przebierała w słowach, stwierdzając, że działania rządu miały na celu „okaleczenie Anthropic” oraz „stłumienie debaty publicznej”. Jest to reakcja na próby natychmiastowego wyegzekwowania zakazu korzystania z narzędzi firmy, co zdaniem sądu nosi znamiona odwetu za korzystanie z prawa do wolności słowa zapisanego w Pierwszej Poprawce.
Polityczna etykieta zamiast merytorycznej analizy
Konflikt zaognił się, gdy prezydent Donald Trump oraz Sekretarz Obrony Pete Hegseth publicznie zaatakowali Anthropic, stosując retorykę daleką od technicznej specyfikacji. W oficjalnych komunikatach i wypowiedziach publicznych przedstawiciele administracji określali firmę mianem „woke” oraz grupą „lewicowych wariatów”. To właśnie te sformułowania stały się kluczowym dowodem w sprawie, sugerując, że motywacje rządu nie opierały się na realnych lukach w zabezpieczeniach, lecz na ideologicznym niedopasowaniu.
Czytaj też

Najbardziej kontrowersyjnym ruchem Pentagonu było nadanie Anthropic statusu „supply chain risk” (ryzyko dla łańcucha dostaw). Jest to oznaczenie niezwykle rzadkie i historycznie zarezerwowane dla firm pochodzących z krajów uznawanych za adwersarzy Stanów Zjednoczonych. Po raz pierwszy w historii amerykańskie przedsiębiorstwo otrzymało taką etykietę, co w praktyce oznacza uznanie jego produktów za niebezpieczne dla infrastruktury państwowej. Sąd zauważył jednak, że gdyby faktycznie chodziło o bezpieczeństwo, Departament Obrony po prostu przestałby korzystać z modelu Claude, zamiast wytaczać tak ciężkie działa prawne i wizerunkowe.
Granice „każdego zgodnego z prawem użycia”
U podłoża konfliktu leżą negocjacje nad rozszerzeniem kontraktu o wartości 200 milionów dolarów. Pentagon domagał się wprowadzenia zapisu, według którego mógłby wykorzystywać narzędzia Anthropic do „każdego zgodnego z prawem użycia” (any lawful use). Choć brzmi to standardowo, Dario Amodei, CEO Anthropic, dostrzegł w tym sformułowaniu niebezpieczną furtkę. Firma obawiała się, że ich technologia mogłaby zostać wykorzystana do budowy w pełni autonomicznych systemów uzbrojenia lub masowej inwigilacji obywateli – co stoi w sprzeczności z ich misją tworzenia bezpiecznej i etycznej sztucznej inteligencji.
Odmowa zaakceptowania tych warunków doprowadziła do impasu, który w lutym stał się publiczny. Sekretarz Hegseth wyznaczył firmie ostateczny termin na podpisanie nowej umowy, a po jego upływie rozpoczęła się kampania mająca na celu dyskredytację dostawcy. Anthropic odpowiedziało pozwem, argumentując, że działania rządu naruszają ich prawo do wolności wypowiedzi i negatywnie wpływają na kondycję biznesową firmy. Obecne orzeczenie sędzi Lin pozwala firmie na kontynuowanie operacji rządowych do czasu pełnego rozstrzygnięcia procesu.

Technologiczna suwerenność pod znakiem zapytania
Sytuacja Anthropic jest papierkiem lakmusowym dla całej branży AI. Jeśli rząd może dowolnie etykietować firmy jako „zagrożenie dla łańcucha dostaw” tylko dlatego, że nie zgadzają się one na specyficzne warunki etyczne wykorzystania ich modeli, stajemy przed wizją upaństwowienia myśli technologicznej. Anthropic, mimo bycia podmiotem komercyjnym, od początku pozycjonuje się jako firma stawiająca bezpieczeństwo (AI Alignment) ponad szybki zysk, co w tym przypadku doprowadziło do bezpośredniego starcia z machiną wojenną.
Warto zwrócić uwagę na kilka kluczowych aspektów tego sporu:
- Wolność słowa a kod: Sąd uznał, że sprzeciw wobec sposobu wykorzystania technologii może być formą ekspresji chronionej konstytucyjnie.
- Precedens etykiety: Użycie mechanizmu „supply chain risk” wobec rodzimej firmy zmienia zasady gry w zamówieniach publicznych.
- Claude jako standard: Mimo konfliktu, narzędzia Anthropic są na tyle głęboko osadzone w strukturach rządowych, że ich natychmiastowe usunięcie byłoby logistycznym koszmarem.
Rzeczniczka Anthropic podkreśliła, że celem firmy pozostaje produktywna współpraca z rządem, ale na zasadach zapewniających „bezpieczną i niezawodną AI”. To dyplomatyczne podejście kontrastuje z ostrym tonem sędzi Lin, która wprost wskazała na polityczne motywy Pentagonu. Bitwa o Claude to dopiero początek szerszej dyskusji o tym, kto tak naprawdę kontroluje najpotężniejsze modele AI: inżynierowie, którzy je stworzyli, czy politycy, którzy chcą je zaprząc do realizacji doktryn obronnych.
Wygrana Anthropic w tej rundzie to jasny sygnał, że próby siłowego narzucania warunków kontraktowych przy użyciu aparatu państwowego i ideologicznych obelg mogą zostać skutecznie zatrzymane przez niezawisłe sądy. Branża technologiczna zyskała chwilę oddechu, ale napięcie na linii między etyką twórców a potrzebami militarnymi będzie tylko rosło, w miarę jak AI będzie przejmować kolejne krytyczne funkcje w zarządzaniu państwem. Administracja Trumpa, stawiając Anthropic pod ścianą, niechcący wywołała debatę, która zdefiniuje relacje Big Tech z rządem na nadchodzące dekady.








