Sztuczna inteligencja4 min czytaniaThe Verge AI

Gen AI smakuje jak eugenika

P
Redakcja Pixelift0 views
Udostępnij
Gen AI smakuje jak eugenika

Foto: An AI-generated image of a bunch of white men standing around and looking at a half-full pitcher of Kool-Aid placed on an elevated stage.

Aż 150 lat temu narodziły się idee, które dziś, według reżyserki Valerie Veatch, stanowią fundament współczesnej generatywnej sztucznej inteligencji. W swoim nowym dokumencie *Ghost in the Machine*, autorka rzuca wyzwanie technologicznemu optymizmowi, wskazując na bezpośrednie powiązania między współczesnym *machine learning* a XIX-wieczną eugeniką. Veatch zauważa, że termin „artificial intelligence” to przede wszystkim chwyt marketingowy, który odciąga uwagę od faktu, że algorytmy dziedziczą uprzedzenia swoich twórców i bazują na statystycznych modelach opracowanych niegdyś przez zwolenników rasizmu naukowego, takich jak Francis Galton czy Karl Pearson. Dla globalnych użytkowników i twórców implikacje tych odkryć są fundamentalne: błędy w modelach, przejawiające się poprzez generowanie treści o charakterze rasistowskim czy seksistowskim, nie są jedynie „usterkami” systemu, lecz wynikają z samej architektury danych. Zrozumienie, że technologia ta nie jest neutralnym narzędziem, ale produktem konkretnej historii myśli społecznej, wymusza na nas większą czujność w korzystaniu z narzędzi takich jak *Sora* czy *ChatGPT*. Zamiast bezkrytycznie przyjmować narrację o nadejściu „superinteligencji”, musimy zacząć postrzegać AI jako system głęboko zakorzeniony w ludzkich uprzedzeniach, co wymaga od nas radykalnej zmiany podejścia do etyki cyfrowej i nadzoru nad algorytmami.

Statystyczne dziedzictwo Francisa Galtona

Kluczem do zrozumienia problemu nie jest analiza samego kodu, lecz historia statystyki, na której opiera się współczesne uczenie maszynowe (**Machine Learning**). Veatch w swoim filmie cofa się do wiktoriańskiej Anglii, do postaci **Francisa Galtona** — kuzyna Karola Darwina i ojca eugeniki. Galton wierzył, że ludzkość można „ulepszyć” poprzez eliminację cech uznawanych za gorsze, a jego prace nad modelowaniem wielowymiarowym służyły m.in. do kategoryzowania atrakcyjności kobiet na podstawie ich pochodzenia etnicznego. Choć Galton nie budował komputerów, jego uczeń, **Karl Pearson**, przekuł te uprzedzenia w matematyczne narzędzia. To właśnie Pearson opracował **regresję logistyczną**, która do dziś stanowi jeden z filarów algorytmów klasyfikujących dane. „Ghost in the Machine” stawia tezę, że próba kwantyfikacji ludzkiej inteligencji i zachowań, zapoczątkowana przez eugeników, jest genetycznie wpisana w architekturę AI. Jeśli fundamentem systemu jest matematyczna próba segregacji i hierarchizacji cech ludzkich, trudno się dziwić, że produkt końcowy odtwarza te same uprzedzenia.

Marketingowa mgła i pułapka terminologii

Veatch słusznie punktuje, że sam termin „sztuczna inteligencja” jest jednym z najbardziej udanych, a zarazem najbardziej szkodliwych zabiegów marketingowych w historii technologii. Ukuty w 1956 roku przez **Johna McCarthy’ego** w celu pozyskania funduszy na badania, termin ten sugeruje istnienie bytu zdolnego do rozumowania. W rzeczywistości mamy do czynienia z zaawansowanymi systemami statystycznymi, które nie „rozumieją” świata, a jedynie przewidują kolejny token lub piksel na podstawie historycznych danych. Używanie antropomorficznych określeń pozwala firmom technologicznym unikać odpowiedzialności za błędy systemowe. Gdy model generuje szkodliwe treści, interpretuje się to jako „halucynację” lub nieprzewidziany efekt uboczny skomplikowanego umysłu maszyny. Tymczasem, jak zauważa Veatch, jest to po prostu logiczna konsekwencja karmienia algorytmów danymi, które są przesiąknięte historycznymi uprzedzeniami. Branża **GenAI** działa w cyklu nieustannego szumu (hype), który ma na celu ukrycie faktu, że pod maską błyszczących interfejsów kryją się mechanizmy utrwalające status quo.

Milczenie jako mechanizm obronny

Jednym z najbardziej uderzających spostrzeżeń reżyserki jest opis reakcji społeczności AI na próby krytyki. W grupach na Slacku, gdzie każdy wygenerowany obrazek spotykał się z entuzjastycznymi reakcjami, głosy dotyczące systemowego rasizmu kwitowane były absolutną ciszą. To zjawisko „techno-optymizmu”, który nie dopuszcza do siebie myśli o wadliwości fundamentów, na których buduje swoją tożsamość.
  • GIGO (Garbage In, Garbage Out): Systemy są tak dobre, jak dane, na których się uczą. Jeśli historia jest pełna dyskryminacji, AI będzie ją replikować jako wzorzec poprawności.
  • Białe przestrzenie: Algorytmy często kojarzą prestiżowe lokalizacje (takie jak galerie sztuki czy biura zarządów) z konkretnymi cechami fenotypowymi, co jest bezpośrednim wynikiem skrzywienia bazy treningowej.
  • Brak transparentności: Firmy takie jak OpenAI czy Anthropic coraz rzadziej dzielą się szczegółami dotyczącymi zestawów danych, co uniemożliwia niezależny audyt ich etyczności.
Veatch w swoim podejściu do dokumentu odrzuca tradycyjną formę dialogu z gigantami z Doliny Krzemowej. Odmawia przeprowadzenia wywiadu z Samem Altmanem, twierdząc, że dawanie platformy liderom branży, którzy i tak dominują w przekazie medialnym, byłoby jedynie formą propagandy. Zamiast tego oddaje głos badaczom, historykom i teoretykom krytycznym, którzy potrafią połączyć kropki między XIX-wiecznym laboratorium a dzisiejszymi serwerowniami.

Algorytmiczna predestynacja

Współczesna gorączka złota wokół generatywnej sztucznej inteligencji opiera się na wierze w nieuchronny postęp i „superinteligencję”, która rozwiąże problemy ludzkości. Jednak analiza przedstawiona w „Ghost in the Machine” sugeruje coś zgoła odmiennego. Jeśli nie zredefiniujemy podstaw, na których budujemy te modele, AI nie stanie się narzędziem wyzwolenia, lecz najpotężniejszym w historii instrumentem konserwowania historycznych niesprawiedliwości.
„Prawda jest taka, że termin 'sztuczna inteligencja' nic nie znaczy; to termin marketingowy i zawsze nim był. Musimy być precyzyjni w słowach, których używamy, bo ich brak precyzji pozwala na ukrywanie szkodliwych ideologii” – Valerie Veatch.
Patrząc na kierunek rozwoju modeli takich jak **GPT-5** czy kolejne iteracje **Sora**, widać wyraźnie, że branża stawia na skalę, a nie na naprawę fundamentów. Optymalizacja algorytmów pod kątem wydajności i realizmu wizualnego odbywa się kosztem etycznej rzetelności. Moja prognoza jest jasna: w najbliższych latach będziemy świadkami coraz głębszego rozdźwięku między estetyczną doskonałością generowanych treści a ich socjologiczną toksycznością. Bez radykalnej zmiany w podejściu do selekcji danych i jawności algorytmicznej, sztuczna inteligencja pozostanie jedynie cyfrowym pomnikiem eugeniki, ubranym w szaty nowoczesnej inżynierii. Narracja o „neutralnej technologii” ostatecznie upadnie, ustępując miejsca twardej dyskusji o politycznym i ideologicznym charakterze każdego napisanego wiersza kodu.
Źródło: The Verge AI
Udostępnij

Komentarze

Loading...