
Foto: The Verge AI
Czy sztuczna inteligencja może zagrozić bezpieczeństwu informacyjnemu podczas konfliktów zbrojnych? Meta Oversight Board alarmuje, że obecne metody identyfikacji deepfake'ów są niewystarczające i nieskuteczne. W najnowszym raporcie rada nadzorcza Meta wzywa firmę do kompleksowego ulepszenia oznaczania treści generowanych przez AI. Kluczowym problemem jest szybkie rozprzestrzenianie się dezinformacji, szczególnie w kontekście bieżących napięć na Bliskim Wschodzie. Dochodzi do tego po zbadaniu przypadku fałszywego nagrania wideo rzekomo przedstawiającego zniszczenia w Izraelu. Eksperci rekomendują wprowadzenie odrębnych standardów społecznościowych dla treści AI, bardziej przejrzystych kar za naruszenia oraz rozszerzenie stosowania standardu C2PA. Chodzi o to, aby użytkownicy mogli łatwo rozpoznać treści syntetyczne na platformach takich jak Facebook, Instagram i Threads. Czy Meta podejmie zdecydowane kroki, aby chronić użytkowników przed dezinformacją? Najbliższe miesiące pokażą skuteczność proponowanych rozwiązań.
Rada Nadzorcza Meta ostrzega, że obecne metody identyfikacji deepfake'ów są niewystarczające w obliczu szybkiego rozprzestrzeniania się dezinformacji podczas konfliktów zbrojnych.
Rada Nadzorcza Meta, półniezależny organ kontrolujący praktyki moderacji treści, wzywa firmę do gruntownej zmiany sposobu identyfikacji i oznaczania treści wygenerowanych przez sztuczną inteligencję na platformach takich jak Facebook, Instagram i Threads.
Impuls do działania pojawił się po zbadaniu fałszywego nagrania wideo rzekomo przedstawiającego zniszczenia budynków w Izraelu, które zostało udostępnione w zeszłym roku. Rada podkreśla, że w kontekście obecnych napięć militarnych na Bliskim Wschodzie dostęp do rzetelnych informacji jest kluczowy dla bezpieczeństwa użytkowników.
Rada Nadzorcza zaproponowała szereg konkretnych działań:
Szczególnie niepokojące są doniesienia o niespójnym wdrażaniu standardu C2PA (Content Credentials), nawet w przypadku treści generowanych przez własne narzędzia AI firmy Meta. Tylko część wygenerowanych treści jest odpowiednio oznaczana.
Chociaż Meta nie jest zobowiązana do wdrożenia wszystkich rekomendacji, są one zgodne z wcześniejszymi obawami wyrażonymi przez szefa Instagram, Adama Mosseriego, dotyczącymi potrzeby poprawy identyfikacji autentycznych zdjęć i filmów.
Obecne wyzwania związane z deepfake'ami pokazują, że firmy technologiczne muszą nieustannie dostosowywać swoje strategie moderacji treści. Rozwój sztucznej inteligencji wymaga równie dynamicznego podejścia do weryfikacji i oznaczania generowanych treści.
Kluczowe będzie stworzenie kompleksowych, przejrzystych mechanizmów, które pozwolą użytkownikom w łatwy sposób rozpoznać treści wygenerowane sztucznie, minimalizując ryzyko rozprzestrzeniania się dezinformacji.