IA2 min de lecture

Pracownicy OpenAI i Google popierają pozew Anthropic przeciwko Pentagonowi

P
Redakcja Pixelift39 views
Partager
Pracownicy OpenAI i Google popierają pozew Anthropic przeciwko Pentagonowi

Foto: The Verge AI

Prawie 40 pracowników z OpenAI i Google, w tym Jeff Dean — główny naukowiec Google i lider Gemini — złożyło w poniedziałek wniosek przyjaciela sądu wspierający pozew Anthropic przeciwko Departamentowi Obrony. Spór dotyczy oznaczenia firmy jako zagrożenia w łańcuchu dostaw, co praktycznie uniemożliwia jej kontrakty wojskowe. Kluczowym elementem konfliktu są czerwone linie Anthropic dotyczące wykorzystania technologii AI: sprzeciw wobec masowego nadzoru krajowego oraz całkowicie autonomicznych systemów broni. Decyzja administracji skutkuje nie tylko zakazem współpracy z Pentagonem, ale także potencjalnym blokowaniem innych firm współpracujących z Anthropic. Zaskakujący jest fakt, że mimo zakazu, wojsko USA już wykorzystywało model Claude w operacjach wywiadowczych, w tym w kampanii wymierzonej w przywódcę Iranu. Wniosek przyjaciela sądu podkreśla ryzyko nadużyć AI w dziedzinie inwigilacji i autonomicznych systemów uzbrojenia. Sprawa może mieć kluczowe znaczenie dla przyszłych regulacji dotyczących etycznego stosowania sztucznej inteligencji w sektorze obronnym.

W poniedziałek Anthropic złożyło pozew przeciwko Departamentowi Obrony w związku z oznaczeniem firmy jako zagrożenia w łańcuchu dostaw. Kilka godzin później prawie 40 pracowników OpenAI i Google - w tym Jeff Dean, główny naukowiec Google i lider projektu Gemini - złożyło opinię przyjaciela sądu popierającą pozew Anthropic.

Spór wokół użycia technologii AI przez wojsko

Sprawa dotyczy kontrowersyjnej decyzji administracji Trumpa, która oznaczyła Anthropic jako potencjalne zagrożenie bezpieczeństwa narodowego. Firma stanowczo sprzeciwiła się dwóm kluczowym przypadkom użycia swojej technologii przez wojsko:

  • Masowy nadzór wewnętrzny
  • W pełni autonomiczne systemy uzbrojenia

Konsekwencje prawne i technologiczne

Oznaczenie firmy jako zagrożenia w łańcuchu dostaw nie tylko uniemożliwia Anthropic zawieranie kontraktów wojskowych, ale również blokuje inne firmy przed wykorzystywaniem jej produktów w projektach dla Pentagonu. Co ciekawe, model Claude był już głęboko zintegrowany z pracami wojskowymi, a nawet brał rzekomo udział w operacji przeciwko przywódcy Iranu.

Stanowisko ekspertów z branży AI

Autorzy opinii przyjaciela sądu podkreślają poważne zagrożenia związane z wykorzystaniem sztucznej inteligencji w newralgicznych obszarach. Wskazują oni na ryzyko stworzenia zunifikowanego systemu inwigilacji oraz niebezpieczeństwa związane z autonomicznymi systemami bojowymi, które mogą podejmować błędne decyzje bez ludzkiego nadzoru.

Obawy dotyczące etyki AI

Sygnatariusze dokumentu, określający siebie jako inżynierów i naukowców z czołowych laboratoriów AI, są zgodni co do jednego: dzisiejsze zaawansowane systemy sztucznej inteligencji wymagają rygorystycznych zabezpieczeń etycznych. Ich zdaniem konieczne jest wprowadzenie mechanizmów kontrolnych, które zapobiegną potencjalnym nadużyciom technologicznym.

Przyszłość współpracy technologicznej

Sprawa Anthropic może stanowić przełomowy moment w dyskusji o granicach wykorzystania sztucznej inteligencji przez instytucje państwowe. Jej rozstrzygnięcie może mieć kluczowe znaczenie dla przyszłych regulacji dotyczących zastosowań wojskowych i wywiadowczych technologii AI.

Source
Partager

POutils Pixelift associés