AI2 min read

Employees across OpenAI and Google support Anthropic’s lawsuit against the Pentagon

P
Redakcja Pixelift36 views
Share
Employees across OpenAI and Google support Anthropic’s lawsuit against the Pentagon

Foto: The Verge AI

On Monday, Anthropic filed its lawsuit against the Department of Defense over being designated as a supply chain risk. Hours later, nearly 40 employees from OpenAI and Google - including Jeff Dean, Google's chief scientist and Gemini lead - filed an amicus brief in support of Anthropic's lawsuit, detailing their concerns over the Trump administration's decision and the technology's risks and implications. The news follows a dramatic few weeks for Anthropic, in which the Trump administration labeled the company a supply chain risk - a designation typically reserved for foreign companies that the government deems a potential risk to national … Read the full story at The Verge.

W poniedziałek Anthropic złożyło pozew przeciwko Departamentowi Obrony w związku z oznaczeniem firmy jako zagrożenia w łańcuchu dostaw. Kilka godzin później prawie 40 pracowników OpenAI i Google - w tym Jeff Dean, główny naukowiec Google i lider projektu Gemini - złożyło opinię przyjaciela sądu popierającą pozew Anthropic.

Spór wokół użycia technologii AI przez wojsko

Sprawa dotyczy kontrowersyjnej decyzji administracji Trumpa, która oznaczyła Anthropic jako potencjalne zagrożenie bezpieczeństwa narodowego. Firma stanowczo sprzeciwiła się dwóm kluczowym przypadkom użycia swojej technologii przez wojsko:

  • Masowy nadzór wewnętrzny
  • W pełni autonomiczne systemy uzbrojenia

Konsekwencje prawne i technologiczne

Oznaczenie firmy jako zagrożenia w łańcuchu dostaw nie tylko uniemożliwia Anthropic zawieranie kontraktów wojskowych, ale również blokuje inne firmy przed wykorzystywaniem jej produktów w projektach dla Pentagonu. Co ciekawe, model Claude był już głęboko zintegrowany z pracami wojskowymi, a nawet brał rzekomo udział w operacji przeciwko przywódcy Iranu.

Stanowisko ekspertów z branży AI

Autorzy opinii przyjaciela sądu podkreślają poważne zagrożenia związane z wykorzystaniem sztucznej inteligencji w newralgicznych obszarach. Wskazują oni na ryzyko stworzenia zunifikowanego systemu inwigilacji oraz niebezpieczeństwa związane z autonomicznymi systemami bojowymi, które mogą podejmować błędne decyzje bez ludzkiego nadzoru.

Obawy dotyczące etyki AI

Sygnatariusze dokumentu, określający siebie jako inżynierów i naukowców z czołowych laboratoriów AI, są zgodni co do jednego: dzisiejsze zaawansowane systemy sztucznej inteligencji wymagają rygorystycznych zabezpieczeń etycznych. Ich zdaniem konieczne jest wprowadzenie mechanizmów kontrolnych, które zapobiegną potencjalnym nadużyciom technologicznym.

Przyszłość współpracy technologicznej

Sprawa Anthropic może stanowić przełomowy moment w dyskusji o granicach wykorzystania sztucznej inteligencji przez instytucje państwowe. Jej rozstrzygnięcie może mieć kluczowe znaczenie dla przyszłych regulacji dotyczących zastosowań wojskowych i wywiadowczych technologii AI.

Source
Share

PRelated Pixelift Tools