
Foto: The Verge AI
On Monday, Anthropic filed its lawsuit against the Department of Defense over being designated as a supply chain risk. Hours later, nearly 40 employees from OpenAI and Google - including Jeff Dean, Google's chief scientist and Gemini lead - filed an amicus brief in support of Anthropic's lawsuit, detailing their concerns over the Trump administration's decision and the technology's risks and implications. The news follows a dramatic few weeks for Anthropic, in which the Trump administration labeled the company a supply chain risk - a designation typically reserved for foreign companies that the government deems a potential risk to national … Read the full story at The Verge.
W poniedziałek Anthropic złożyło pozew przeciwko Departamentowi Obrony w związku z oznaczeniem firmy jako zagrożenia w łańcuchu dostaw. Kilka godzin później prawie 40 pracowników OpenAI i Google - w tym Jeff Dean, główny naukowiec Google i lider projektu Gemini - złożyło opinię przyjaciela sądu popierającą pozew Anthropic.
Sprawa dotyczy kontrowersyjnej decyzji administracji Trumpa, która oznaczyła Anthropic jako potencjalne zagrożenie bezpieczeństwa narodowego. Firma stanowczo sprzeciwiła się dwóm kluczowym przypadkom użycia swojej technologii przez wojsko:
Oznaczenie firmy jako zagrożenia w łańcuchu dostaw nie tylko uniemożliwia Anthropic zawieranie kontraktów wojskowych, ale również blokuje inne firmy przed wykorzystywaniem jej produktów w projektach dla Pentagonu. Co ciekawe, model Claude był już głęboko zintegrowany z pracami wojskowymi, a nawet brał rzekomo udział w operacji przeciwko przywódcy Iranu.
Autorzy opinii przyjaciela sądu podkreślają poważne zagrożenia związane z wykorzystaniem sztucznej inteligencji w newralgicznych obszarach. Wskazują oni na ryzyko stworzenia zunifikowanego systemu inwigilacji oraz niebezpieczeństwa związane z autonomicznymi systemami bojowymi, które mogą podejmować błędne decyzje bez ludzkiego nadzoru.
Sygnatariusze dokumentu, określający siebie jako inżynierów i naukowców z czołowych laboratoriów AI, są zgodni co do jednego: dzisiejsze zaawansowane systemy sztucznej inteligencji wymagają rygorystycznych zabezpieczeń etycznych. Ich zdaniem konieczne jest wprowadzenie mechanizmów kontrolnych, które zapobiegną potencjalnym nadużyciom technologicznym.
Sprawa Anthropic może stanowić przełomowy moment w dyskusji o granicach wykorzystania sztucznej inteligencji przez instytucje państwowe. Jej rozstrzygnięcie może mieć kluczowe znaczenie dla przyszłych regulacji dotyczących zastosowań wojskowych i wywiadowczych technologii AI.