TikTok usuwa seksualizujące AI wideo z czarnoskórymi kobietami po śledztwie BBC

Foto: BBC Tech
Ponad 173 miliony wyświetleń na Instagramie zdobył pojedynczy materiał wideo, w którym twarz malezyjskiej modelki zastąpiono wygenerowanym przez AI wizerunkiem czarnoskórej kobiety o nienaturalnie ciemnej karnacji. Śledztwo BBC oraz badaczy z serwisu Riddance ujawniło skalę procederu, w którym sztuczna inteligencja służy do masowego tworzenia zseksualizowanych, rasistowskich awatarów. TikTok, po interwencji dziennikarzy, usunął już 20 kont naruszających standardy społeczności, jednak Meta, właściciel Instagrama, wciąż prowadzi dochodzenie w sprawie dziesiątek podobnych profili. Analiza 60 kont wykazała, że cyfrowe postacie są wykorzystywane do kierowania ruchu na płatne serwisy z treściami pornograficznymi. Twórcy tych profili stosują techniki Deepfake, kradnąc ruchy i tło z nagrań realnych influencerek, a następnie nakładając na nie przerysowane, hiperboliczne cechy fizyczne oparte na szkodliwych tropach rasowych. Praktyczne implikacje dla użytkowników są alarmujące: technologia AI pozwala obecnie na masową kradzież tożsamości wizualnej i monetyzację wizerunku bez zgody pierwowzoru. Brak obowiązkowych oznaczeń treści wygenerowanych cyfrowo sprawia, że miliony odbiorców nie potrafią odróżnić prawdy od manipulacji. Rozwój tych narzędzi demokratyzuje proces tworzenia treści, ale jednocześnie daje potężne narzędzie do cyfrowego wyzysku, przed którym obecne systemy moderacji nie oferują wystarczającej ochrony.
Granica między rzeczywistością a syntetyczną manipulacją w mediach społecznościowych uległa ostatecznemu zatarciu. Śledztwo przeprowadzone przez BBC ujawniło skalę procederu, w którym generatywna sztuczna inteligencja służy nie tylko do tworzenia fałszywych tożsamości, ale staje się narzędziem systemowej eksploatacji i kradzieży wizerunku. Dziesiątki kont na platformach Instagram oraz TikTok wykorzystywały awatary czarnoskórych kobiet do promowania treści o charakterze seksualnym, często bazując na rasistowskich stereotypach i nielegalnie pozyskanych materiałach od realnych twórczyń.
Skala problemu jest porażająca: tylko w ramach jednego dochodzenia zidentyfikowano 60 kont, które budowały zasięgi w oparciu o hiperrealistyczne, choć anatomicznie przerysowane wizerunki AI-generated influencers. Mechanizm działania był precyzyjny — profile te służyły jako lejki sprzedażowe, kierując miliony użytkowników do zewnętrznych serwisów z płatną, pornograficzną zawartością. To nie jest już tylko kwestia technicznej ciekawostki, ale narodziny "cyfrowego przemysłu porno", który żeruje na braku transparentności algorytmów i niewydolności systemów moderacji gigantów technologicznych.
Cyfrowy kolonializm i fetyszyzacja AI
Analiza kont przeprowadzona przez badaczy z niezależnej publikacji Riddance rzuca światło na niepokojący trend estetyczny. Awatary tworzone przez algorytmy charakteryzują się nienaturalnie ciemną karnacją, przesadnymi proporcjami ciała i są osadzane w narracjach opartych na tzw. race-play. Nazwy profili zawierające słowa takie jak "noir", "ebony" czy "dark" w połączeniu z opisami sugerującymi uległość wobec konkretnych grup etnicznych, jasno wskazują na celowe targetowanie nisz fetyszystycznych. To zjawisko, które eksperci nazywają nowoczesną formą karykatury, odzierającą czarnoskóre kobiety z podmiotowości na rzecz generowanego masowo kodu.
Jeremy Carrasco, analityk trendów AI, zauważa, że technologia ta pozwala na usunięcie jakichkolwiek barier wstydu czy społecznych konsekwencji. Awatar nie posiada uczuć, nie może poczuć się upokorzony, co ośmiela twórców do przekraczania kolejnych granic w dehumanizacji wizerunku. Wykorzystanie AI do manipulacji kolorytem skóry, aby uzyskać efekty niemożliwe do spotkania w naturze, tworzy standardy piękna, które są nie tylko nieosiągalne, ale wręcz groteskowe. Dla realnych modelek i twórczyń, takich jak Houda Fonone, jest to proces "wymazywania" autentyczności na rzecz syntetycznej, "wyrafinowanej" wersji czarnoskórej kobiecości, która jest akceptowalna dla algorytmu tylko wtedy, gdy pasuje do narzuconego schematu.
Kradzież tożsamości w skali przemysłowej
Najbardziej drastycznym aspektem procederu jest technologia Deepfake stosowana do kradzieży dorobku realnych osób. Przykładem jest historia Riyi Ulan, modelki z Malezji, której filmy zostały bezprawnie przejęte przez jedno z kont AI. Twórcy użyli jej ciała, ruchów, ubrań i tła, nakładając na jej twarz syntetyczną maskę o zmienionych rysach i kolorze skóry. Efekt? Podczas gdy oryginał cieszył się umiarkowaną popularnością, zmanipulowana wersja zdobyła 173 miliony wyświetleń na Instagramie i 35 milionów na TikToku.
- Eksploatacja zasięgów: Konta AI potrafią generować zasięgi 50-krotnie większe niż oryginalni twórcy dzięki agresywnej optymalizacji pod algorytmy.
- Brak transparentności: Mimo wymogów platform, większość kont nie oznaczało treści jako "AI-generated", wprowadzając miliony użytkowników w błąd.
- Łańcuchy linków: Profile te rzadko publikują treści jawnie pornograficzne bezpośrednio na platformie, stosując system "link-in-bio", aby ominąć automatyczne filtry moderacji.
To zjawisko obnaża fundamentalną słabość współczesnych mediów społecznościowych: prawo autorskie i ochrona wizerunku w starciu z generative AI praktycznie nie istnieją. Riya Ulan wielokrotnie zgłaszała kradzież swoich materiałów, jednak platformy zareagowały dopiero po interwencji dziennikarzy. To dowodzi, że mechanizmy zgłoszeń użytkowników są niewydolne w konfrontacji z masową produkcją treści syntetycznych.
Reakcja gigantów i systemowa niemoc
Po publikacji wyników śledztwa, TikTok podjął radykalne kroki, usuwając 20 kont i deklarując "zero tolerancji" dla promowania usług seksualnych oraz wykorzystywania wizerunku osób trzecich bez ich zgody. Przedstawiciele platformy podkreślają, że ich regulaminy wymagają jasnego oznaczania treści AI, które są realistyczne. Jednak problem polega na tym, że moderacja odbywa się post-factum. Zanim konto zostanie usunięte, zdąży już wygenerować miliony wyświetleń i przekierować tysiące użytkowników do płatnych serwisów, realizując swój cel biznesowy.
Meta (właściciel Instagrama) zareagowała znacznie powściągliwiej, ograniczając się do oświadczenia o prowadzeniu dochodzenia. Choć część zidentyfikowanych kont zniknęła z serwisu, wiele podobnych profili wciąż funkcjonuje, balansując na krawędzi regulaminu. Problem nie dotyczy tylko samych obrazów, ale całego ekosystemu botów, które wzajemnie się lajkują i komentują, oszukując algorytmy rekomendacji i sprawiając, że syntetyczne profile wydają się bardziej "ludzkie" i godne zaufania dla przeciętnego odbiorcy.
"Tworzenie karykatur i wykorzystywanie terminologii race-play dowodzi, że twórcy tych narzędzi nie dbają o bezpieczeństwo, lecz o możliwość monetyzacji czarnoskórych kobiet w ramach internetowej machiny pornograficznej" — Angel Nulani, badaczka Riddance.
Technologia jako narzędzie nowej opresji
Analizując ten przypadek, musimy wyjść poza proste oburzenie moralne. Mamy do czynienia z nowym modelem biznesowym, w którym AI drastycznie obniża koszt produkcji treści "na zamówienie" pod konkretne, często szkodliwe preferencje. Możliwość generowania tysięcy zdjęć i filmów w ciągu kilku godzin sprawia, że tradycyjne metody moderacji oparte na zgłoszeniach użytkowników stają się anachronizmem. Jeśli platformy nie wprowadzą automatycznego wykrywania syntetycznych mediów na etapie uploadu, będziemy świadkami zalewu internetu treściami, które nie tylko kradną wizerunek, ale też aktywnie niszczą reputację osób realnych.
Wzrost popularności AI influencers w branży adult to sygnał ostrzegawczy dla całego sektora kreatywnego. Kolejnym etapem będzie nie tylko kradzież wizerunku, ale też kradzież głosu i unikalnego stylu bycia, co doprowadzi do sytuacji, w której realni twórcy będą musieli konkurować z własnymi, "ulepszonymi" i bardziej uległymi cyfrowymi klonami. Bez twardych regulacji prawnych na poziomie globalnym, które wymuszą na producentach modeli AI oraz właścicielach platform pełną identyfikowalność treści syntetycznych, rynek mediów społecznościowych stanie się toksycznym bagnem manipulacji.
Przyszłość moderacji treści musi opierać się na kryptograficznym potwierdzaniu pochodzenia materiałów (tzw. Content Provenance). Jedyną skuteczną metodą walki z plagą fałszywych awatarów jest systemowe premiowanie treści zweryfikowanych jako "human-made" i automatyczne ograniczanie zasięgów wszystkiemu, co nie posiada cyfrowego certyfikatu autentyczności. W przeciwnym razie, algorytmy promujące zaangażowanie za wszelką cenę, nadal będą faworyzować syntetyczne karykatury kosztem prawdy i godności realnych ludzi.
Więcej z kategorii Badania

Substancje psychoaktywne (wciąż) zawodzą w badaniach klinicznych

The Download: Kwantowa rewolucja w zdrowiu i problem z recyklingiem odpadów nuklearnych

Nagroda 5 milionów dolarów czeka na dowód, że komputery kwantowe mogą rozwiązać problemy opieki zdrowotnej

Dlaczego świat nie recykluje więcej odpadów jądrowych
Podobne artykuły

Luke Littler aplikuje o znakowanie towarowe swojej twarzy, aby walczyć z deepfake'ami AI
20 mar
Wydawca wycofuje horror z powodu zarzutów dotyczących AI
20 mar
Pobieranie: OpenAI buduje w pełni zautomatyzowanego badacza, oraz ślepe miejsce w badaniach psychedelicznych
20 mar

