AI2 min read

Meta’s deepfake moderation isn’t good enough, says Oversight Board

P
Redakcja Pixelift43 views
Share
Meta’s deepfake moderation isn’t good enough, says Oversight Board

Foto: The Verge AI

Meta’s Oversight Board wants the company to start taking AI labeling seriously to protect its users from online misinformation. | Image: Cath Virginia / The Verge, Getty Images Meta's methods for identifying deepfakes are "not robust or comprehensive enough" to handle how quickly misinformation spreads during armed conflicts like the Iran war. That's according to the Meta Oversight Board - a semi-independent body that guides the company's content moderation practices - which is now calling on Meta to overhaul how it surfaces and labels AI-generated content across Facebook, Instagram, and Threads. The call for action stems from an investigation into a fake AI video of alleged damage to buildings in Israel that was shared on Meta's social platforms last year, but the Board says its recommendations are particularly r … Read the full story at The Verge.

Rada Nadzorcza Meta ostrzega, że obecne metody identyfikacji deepfake'ów są niewystarczające w obliczu szybkiego rozprzestrzeniania się dezinformacji podczas konfliktów zbrojnych.

Narastający problem dezinformacji w mediach społecznościowych

Rada Nadzorcza Meta, półniezależny organ kontrolujący praktyki moderacji treści, wzywa firmę do gruntownej zmiany sposobu identyfikacji i oznaczania treści wygenerowanych przez sztuczną inteligencję na platformach takich jak Facebook, Instagram i Threads.

Impuls do działania pojawił się po zbadaniu fałszywego nagrania wideo rzekomo przedstawiającego zniszczenia budynków w Izraelu, które zostało udostępnione w zeszłym roku. Rada podkreśla, że w kontekście obecnych napięć militarnych na Bliskim Wschodzie dostęp do rzetelnych informacji jest kluczowy dla bezpieczeństwa użytkowników.

Kluczowe rekomendacje dla Meta

Rada Nadzorcza zaproponowała szereg konkretnych działań:

  • Ulepszenie istniejących zasad przeciwdziałania dezinformacji
  • Stworzenie osobnego standardu dla treści generowanych przez AI
  • Rozwój zaawansowanych narzędzi wykrywania deepfake'ów
  • Zwiększenie przejrzystości kar za naruszenie polityki dotyczącej AI

Problemy z oznakowaniem treści AI

Szczególnie niepokojące są doniesienia o niespójnym wdrażaniu standardu C2PA (Content Credentials), nawet w przypadku treści generowanych przez własne narzędzia AI firmy Meta. Tylko część wygenerowanych treści jest odpowiednio oznaczana.

Chociaż Meta nie jest zobowiązana do wdrożenia wszystkich rekomendacji, są one zgodne z wcześniejszymi obawami wyrażonymi przez szefa Instagram, Adama Mosseriego, dotyczącymi potrzeby poprawy identyfikacji autentycznych zdjęć i filmów.

Przyszłość walki z dezinformacją

Obecne wyzwania związane z deepfake'ami pokazują, że firmy technologiczne muszą nieustannie dostosowywać swoje strategie moderacji treści. Rozwój sztucznej inteligencji wymaga równie dynamicznego podejścia do weryfikacji i oznaczania generowanych treści.

Kluczowe będzie stworzenie kompleksowych, przejrzystych mechanizmów, które pozwolą użytkownikom w łatwy sposób rozpoznać treści wygenerowane sztucznie, minimalizując ryzyko rozprzestrzeniania się dezinformacji.

Source
Share