Sztuczna inteligencja5 min czytaniaThe Verge AI

Sędzia staje po stronie Anthropic i tymczasowo blokuje zakaz Pentagonu

P
Redakcja Pixelift0 views
Udostępnij
Sędzia staje po stronie Anthropic i tymczasowo blokuje zakaz Pentagonu

Cath Virginia / The Verge, Getty Images

Retorsja rządu wobec firmy technologicznej za publiczną krytykę to podręcznikowe naruszenie Pierwszej Poprawki – tak sędzia Rita F. Lin uzasadniła przełomową decyzję o tymczasowym zablokowaniu Pentagonu w sporze z Anthropic. Wyrok z 27 marca 2026 roku wstrzymuje wpisanie twórców modelu Claude na listę podmiotów stanowiących zagrożenie dla łańcucha dostaw (supply chain risk). Konflikt wybuchł, gdy Anthropic odmówiło zgody na wykorzystanie swojej AI do masowej inwigilacji oraz w autonomicznej broni śmiercionośnej, co spotkało się z natychmiastową, karną reakcją Departamentu Obrony. Sąd uznał, że Pentagon przekroczył swoje uprawnienia, mszcząc się na firmie za jej „niepokorną postawę” w mediach i twarde trzymanie się etycznych red lines. Dla globalnego sektora technologicznego to sygnał, że dostawcy AI mogą stawiać granice w wykorzystaniu ich narzędzi bez natychmiastowego wykluczenia z rynku przez administrację państwową. Praktyczne skutki tej decyzji są kluczowe dla partnerów biznesowych Anthropic – tymczasowe zabezpieczenie prawne pozwala dziesiątkom firm kontynuować współpracę z dostawcą bez obaw o konsekwencje prawne wynikające z rządowego bojkotu. Sprawa ta staje się fundamentem dla przyszłych regulacji dotyczących autonomii twórców AI w relacjach z sektorem militarnym. Wolność do decydowania o przeznaczeniu własnej technologii zyskała właśnie potężny precedens prawny.

W świecie technologii granica między etyką a bezpieczeństwem narodowym rzadko bywa tak wyraźna i jednocześnie tak sporna. 27 marca 2026 roku sędzia Rita F. Lin z sądu dystryktowego w północnym dystrykcie Kalifornii wydała przełomowe orzeczenie, które uderza w fundamenty obecnej polityki Pentagonu wobec sektora AI. Sąd przyznał firmie Anthropic tymczasowe zabezpieczenie (preliminary injunction), wstrzymując rządowy ban nałożony na tę spółkę. To pierwszy tak poważny cios dla administracji, która próbowała odciąć twórców modelu Claude od kontraktów federalnych pod pretekstem zagrożenia dla łańcucha dostaw.

Konflikt, który doprowadził do tej sądowej batalii, nie dotyczy jedynie pieniędzy, choć stawka jest gigantyczna – Anthropic szacuje, że zagrożone przychody mogą wynosić od setek milionów do nawet kilku miliardów dolarów. Sednem sporu są tzw. „czerwone linie”, które firma wyznaczyła rządowi: zakaz wykorzystywania jej technologii do masowej inwigilacji krajowej oraz w autonomicznych systemach śmiercionośnej broni (lethal autonomous weapons), zdolnych do zabijania bez udziału człowieka w procesie decyzyjnym. Pentagon, reprezentowany przez Department of War, uznał te ograniczenia za niedopuszczalne, co uruchomiło lawinę restrykcji.

Retorsja zamiast bezpieczeństwa narodowego

Uzasadnienie sędzi Lin jest niezwykle surowe dla resortu obrony. Sąd uznał, że wpisanie Anthropic na czarną listę jako „ryzyko dla łańcucha dostaw” nie wynikało z realnych przesłanek technicznych, lecz było karą za publiczną krytykę stanowiska rządu. W dokumentacji Department of War wprost wskazano, że desygnacja nastąpiła z powodu „wrogiej postawy w mediach”. Sędzia określiła to mianem „klasycznej, nielegalnej retorsji naruszającej Pierwszą Poprawkę” do Konstytucji USA.

Decyzja sądu wejdzie w życie w ciągu siedmiu dni, dając firmie oddech w trwającym od tygodni impasie. Choć ostateczny werdykt może zapaść dopiero za kilka miesięcy, obecne zwycięstwo Anthropic wysyła jasny sygnał do Doliny Krzemowej: rząd nie może arbitralnie niszczyć firm technologicznych tylko dlatego, że ich zasady etyczne kolidują z wizją dowódców wojskowych. Sędzia Lin podczas przesłuchań zauważyła, że choć Pentagon ma prawo wybierać dostawców, to wyjście poza zwykłe zaprzestanie zakupów i próba zablokowania firmie możliwości współpracy z jakimkolwiek kontrahentem rządu jest działaniem wykraczającym poza prawo.

Centrum danych i infrastruktura AI
Spór o kontrolę nad modelami AI w infrastrukturze obronnej staje się kluczowym punktem debaty o bezpieczeństwie.

Cena etyki w cieniu kontraktów zbrojeniowych

Wszystko zaczęło się 9 stycznia, kiedy Sekretarz Obrony Pete Hegseth wydał memorandum nakazujące wprowadzenie klauzuli „dowolnego zgodnego z prawem użycia” (any lawful use) do wszystkich kontraktów na usługi AI w ciągu 180 dni. Nowe wytyczne miały objąć nie tylko przyszłe umowy, ale i te już istniejące z takimi gigantami jak OpenAI, xAI czy Google. Anthropic jako jedyny postawił twarde weto, odmawiając zgody na to, by Claude stał się narzędziem w rękach „robotów-zabójców”.

Reakcja Pentagonu była bezprecedensowa. Hegseth w mediach społecznościowych ogłosił, że żaden partner współpracujący z wojskiem nie może prowadzić jakiejkolwiek działalności komercyjnej z Anthropic. To uderzyło w firmę rykoszetem:

  • Dziesiątki partnerów zewnętrznych zaczęło dopytywać o prawo do wypowiedzenia umów z Anthropic.
  • Firmy dostarczające usługi IT dla wojska stanęły przed widmem utraty kontraktów za samo korzystanie z narzędzi takich jak Claude Code.
  • Pojawiły się obawy, że nawet dostawcy produktów nietechnicznych (jak wspomniany w sądzie papier toaletowy) mogą zostać wciągnięci w czarną listę.
Podczas przesłuchania sędzia Lin przywołała określenie „próba korporacyjnego morderstwa”, sugerując, że działania rządu miały na celu nie tyle ochronę bezpieczeństwa, co całkowite sparaliżowanie biznesu Anthropic.

chatbot-ai.jpeg?quality=90&strip=all&crop=0%2C0%2C100%2C100&w=256" alt="Interfejs czatu AI" />
Model Claude stał się centrum sporu o granice autonomii sztucznej inteligencji w działaniach wojennych.

Sabotaż czy suwerenność technologiczna?

W swojej linii obrony Department of Defense wysunął argument o „nieakceptowalnym ryzyku dla bezpieczeństwa narodowego”. Pentagon twierdzi, że Anthropic mógłby teoretycznie próbować zdalnie wyłączyć swoją technologię lub zmienić zachowanie modelu w trakcie trwania operacji wojennych, gdyby uznał, że wojsko przekracza wyznaczone przez firmę granice. To oskarżenie o potencjalny sabotaż stało się fundamentem dla uznania firmy za zagrożenie dla łańcucha dostaw.

Sędzia Lin podeszła jednak do tych twierdzeń sceptycznie, żądając dowodów na to, że Anthropic faktycznie zachowuje taką kontrolę nad modelem po dostarczeniu go do zamkniętych systemów rządowych. Przedstawiciele Anthropic, w tym rzeczniczka Danielle Cohen, podkreślają, że celem firmy jest praca nad bezpiecznym i niezawodnym AI, a nie walka z rządem, jednak obecny proces był konieczny dla ochrony klientów i partnerów. To starcie pokazuje, że era, w której Dolina Krzemowa dostarczała wojsku narzędzia bez zadawania pytań, bezpowrotnie minęła.

Obecny sukces Anthropic w sądzie to zaledwie pierwsza bitwa w wojnie o to, kto kontroluje „mózgi” nowoczesnej armii. Jeśli sąd ostatecznie uzna, że rząd nie może karać firm za ich zasady etyczne, będziemy świadkami trwałego pęknięcia w relacjach Pentagonu z branżą AI. Administracja będzie musiała wybierać: albo zaakceptuje „czerwone linie” twórców najbardziej zaawansowanych modeli, albo zostanie zmuszona do inwestowania w mniej zdolne, ale bardziej uległe systemy od dostawców, którzy nie mają skrupułów. W świecie, gdzie przewaga technologiczna decyduje o wyniku konfliktów, żadne z tych wyjść nie wydaje się dla Pentagonu komfortowe.

Źródło: The Verge AI
Udostępnij

Komentarze

Loading...