Nvidia DLSS 5 to wygładzanie ruchu dla gier wideo, ale gorsze

Foto: The Verge AI
Nvidia zaprezentowała DLSS 5 — nową technologię upscalingu grafiki, którą określiła jako "największy przełom w grafice komputerowej od czasu wprowadzenia ray tracingu w 2018 roku". Rzeczywistość okazała się rozczarowująca. Zamiast poprawy, algorytm AI zmienia twarze postaci w coś przypominającego "AI slop" — homogeniczny, pozbawiony indywidualności wygląd. Protagonistka Resident Evil Requiem, Grace, zyskała cechy charakterystyczne dla sztucznych wizerunków: nienaturalnie gładką skórę, jednolite rysy twarzy i syntetycznie wyglądające włosy. Podobnie ucierpiały postacie z Hogwarts Legacy oraz nawet rzeczywisty piłkarz Virgil van Dijk. Problem nie ogranicza się do estetyki. Gry już borykają się z falą zwolnień i zamknięciami studiów, a potencjał zastępowania pracy artystów przez AI generuje uzasadnione obawy branży. Technologia będzie dostępna jesienią i będzie opcjonalna, ale fakt, że giganci jak Nvidia, Bethesda i Capcom ją wspierają, sygnalizuje niebezpieczny kierunek. DLSS 5 to kolejny symptom infiltracji AI-estetyki w mainstream'ową rozrywkę — od mediów społecznościowych aż po gry wideo.
Nvidia ogłosiła wczoraj swoją najnowszą technologię upscalingu — DLSS 5 — opisując ją jako „najbardziej znaczący przełom w grafice komputerowej od debiutu ray tracingu w czasie rzeczywistym w 2018 roku". Brzmi imponująco, dopóki się jej nie zobaczy. Rzeczywistość jest zdecydowanie mniej błyszczaca: twarze postaci z demonstracyjnych materiałów wygląda jak wyciągnięte wprost z generatora AI. Grace z Resident Evil Requiem przeszła metamorfozę godną filmów Tilly Norwood, a uczniowie z Hogwarts Legacy wyglądają jak przefiltrowani przez Instagram. Nawet Virgil van Dijk, bardzo realny i sławny piłkarz, miał zniekształcone rysy i stał się kimś zupełnie innym. To nie jest przełom — to ostrzeżenie.
Nvidia twierdzi, że technologia „nasycaj piksele fotorealistycznym oświetleniem i materiałami", ale wszyscy skupili się na czymś zupełnie innym: na tym, że wszystkie twarze nagle wyglądają identycznie. Mają tę samą gładką skórę, jednakowe rysy, błyszczące oczy, idealnie uformowane włosy i to charakterystyczne HDR-owe oświetlenie, które podkreśla każdy kontur. To dokładnie taki sam estetyczny podpis, jaki nosi każde AI-generowane dzieło sztuki w sieci — od miniatur YouTube'a po posty na Instagramie. DLSS 5 to po prostu pierwszy tak widoczny przykład, w jaki sposób ten homogeniczny, nudny algorytmiczny wygląd przedostaje się do gier wideo.
Co szczególnie frustrujące, to fakt że Nvidia i jej partnerzy zdają się być całkowicie świadomi tego, co robią. Todd Howard z Bethesdy mówi o tym, jak DLSS 5 pozwala na to, by „styl artystyczny i detale błyszczały bez ograniczeń tradycyjnego renderingu czasu rzeczywistego". Jun Takeuchi z Capcomu twierdzi, że to „ważny krok naprzód w podnoszeniu wierności wizualnej". Słowa, które brzmią jak nowoczesna technologia, ale w praktyce oznaczają zastępowanie starannie projektowanych postaci przez generyczne AI-wersje. To jest dokładnie jak motion smoothing w telewizorach — funkcja, którą nikt nie prosił, ale która zmienia doświadczenie w sposób, który wiele osób uważa za gorszący.
Czytaj też
Dlaczego to wygląda tak źle — i dlaczego wszyscy o tym wiedzą
DLSS 5 nie jest banalnym filtrem. To zaawansowana sieć neuronowa, która analizuje obrazy i generuje nowe piksele w oparciu o to, co „nauczyła się" ze zbiorów danych zawierających miliony twarzy. Problem w tym, że te zbiory danych są z natury homogeniczne — zawierają uśrednione, przeciętne cechy, które algorytm później reprodukuje w każdym nowym obrazie. Wynik? Wszyscy wyglądają jak wszyscy. Nikt nie jest charakterystyczny, nikt nie jest pamiętany, wszyscy są zamienialni.
Artystyczne decyzje projektantów gier — te subtelne różnice w kształcie oczu, linii szczęki, wyrażeniu twarzy, które czynią postacie rozpoznawalnymi — zostają zignorowane. To jak gdyby artysta spędził miesiące nad portretem, a następnie ktoś zamazał go i powiedział: „Nie martw się, algorytm to naprawy". Oczywiście, że gra wygląda gorzej. Oczywiście, że twarze wyglądają dziwnie. Oczywiście, że wszyscy są zdenerwowani.
Bethesda szybko wydała oświadczenie, że to, co widzimy, to „bardzo wczesny podgląd" i że zespoły artystyczne będą dalej pracować nad oświetleniem i efektami. To brzmi jak przeproszenie opakowane w jargon techniczny. Ale nawet jeśli ostateczna wersja będzie nieco lepsza, fundamentalny problem pozostaje: ta technologia zmienia to, co gry mogą pokazać. Zmienia to, jak postacie mogą wyglądać. I zmienia to w kierunku większej homogeniczności, nie mniejszej.
Gdzie widzieliśmy to wcześniej — i dlaczego to powinno nas zaniepokoić
AI-generowane twarze nie pojawiły się nagle. Przez ostatnie kilka lat obserwowaliśmy, jak ten estetyczny „AI slop" (jak go niezwykle celnie nazwali użytkownicy internetu) stopniowo przenika do mediów tradycyjnych. Miniaturki YouTube'a pełne są AI-wygenerowanych twarzy. Kampanie marketingowe marek używają AI-modelek. Niektóre filmy już eksperymentują z AI-wygenerowanymi aktorami. A teraz gry wideo.
Co ciekawe, branża gier była jednym z ostatnich bastionów, w którym artyści mieli jeszcze znaczną kontrolę nad tym, jak wyglądają postacie. Projektanci postaci, konceptyści sztuki, animatorzy — to byli ludzie, którzy decydowali o każdym szczególe. Ci ludzie byli dumni z swojej pracy. Teraz Nvidia proponuje zastąpienie tej pracy algorytmem, który nie rozumie nuansu, charakteru ani intencji artystycznej.
To szczególnie bolesne w kontekście tego, co dzieje się w branży gier. Ostatnie dwa lata przyniosły falę zwolnień i zamknięć studiów. Tysiące artystów, programistów i projektantów straciło pracę. A teraz widzą, jak ich praca — ta, którą robili przez miesiące — może zostać zastąpiona przez narzędzie, które kosztuje ułamek tego, co kosztuje zatrudnienie człowieka. To nie jest przełom techniczny. To jest zagrożenie dla całej kategorii profesjonalistów.
Indie deweloperzy już się buntują — ale czy to wystarczy?
Odpowiedź indie'ów na DLSS 5 była szybka i zdecydowana. Memy, krytyczne wypowiedzi, a niektórzy nawet zaczęli używać „AI free" jako etykiety marketingowej. To nie jest przypadek — to jest świadomy wybór. Niezależni deweloperzy rozumieją, że ich gracz, ich publiczność, chce czegoś autentycznego, czegoś stworzonego przez ludzi z wizją, a nie przez algorytm z danymi statystycznymi.
Ale oto problem: indie deweloperzy nie są tymi, którzy decydują o przyszłości branży. Todd Howard z Bethesdy, Jun Takeuchi z Capcomu — to są ludzie, którzy tworzą gry, w które miliony ludzi grają. To są ci, którzy mają wpływ. I oni zdecydowali, że DLSS 5 to przyszłość. Oczywiście, Howard powiedział, że to „bardzo wczesny podgląd", ale to jest dokładnie taki sam typ ostrożnego języka, który słyszymy za każdym razem, gdy duża korporacja chce nas przyzwyczaić do czegoś, co wiemy, że nas nie spodoba.
W Polsce sytuacja jest nieco inna — polski rynek gier jest zdominowany przez indie'ów i średnie studia, które tradycyjnie bardziej dbają o jakość artystyczną niż giganci z Kalifornii. Polskie gry takie jak Cyberpunk czy Witcher zawsze były znane z tego, że postacie wyglądały jak rzeczywiste osoby, a nie jak AI-wygenerowana papka. Jeśli DLSS 5 stanie się standardem, to będzie oznaczać koniec takiego podejścia do projektowania postaci.
Motion smoothing dla gier — ale gorzej, bo zmienia rzeczywistość
Andrew Webster z The Verge trafnie porównał DLSS 5 do motion smoothing w telewizorach — tej funkcji, którą praktycznie nikt nie chce, ale którą producenci telewizorów wciąż dodają, bo mogą. Motion smoothing interpoluje ramki, aby film wyglądał „płynniej", ale w rzeczywistości zmienia pierwotną intencję artystyczną. Reżyser chciał, aby film wyglądał określonym sposobem, a technologia to zmienia.
Ale DLSS 5 jest jeszcze gorsze. Motion smoothing zmienia tylko szybkość, w jakiej rzeczy się poruszają. DLSS 5 zmienia to, jak rzeczy wyglądają. Zmienia twarze. Zmienia charakterystykę postaci. To nie jest subtelna zmiana — to jest całkowita transformacja wizualna, którą trudno wyłączyć lub zignorować, szczególnie jeśli gra będzie domyślnie ją używać.
Nvidia twierdzi, że DLSS 5 będzie opcjonalny, ale wiemy, jak to zwykle wygląda w praktyce. Gdy funkcja jest domyślnie włączona i robi grę „szybszą" lub „lepszą" (przynajmniej teoretycznie), większość graczy jej nie wyłączy. To będzie domyślny doświadczenie. To będzie tym, co wszyscy zobaczą.
Czemu to dzieje się teraz — i kto zarabia
Nvidia zarabia miliardy na kartach graficznych. AI jest trendem. Połączenie tych dwóch rzeczy oznacza, że Nvidia ma ogromną motywację do tego, aby włączyć AI do każdego możliwego aspektu gier. DLSS 5 to nie jest technologia stworzona dlatego, że gry jej potrzebowały. To jest technologia stworzona dlatego, że Nvidia może ją sprzedać.
A czemu duże studia ją wspierają? Cóż, po części dlatego, że Nvidia ma ogromny wpływ na branżę. Jeśli chcesz, aby twoja gra wyglądała dobrze na kartach GeForce, musisz pracować z Nvidią. To jest ekonomika branży. Po części też dlatego, że duże studia są zawsze zainteresowane automatyzacją procesów, które są drogie — a projektowanie postaci jest drogi.
Co ciekawe, Jensen Huang, CEO Nvidii, na pytanie o krytykę DLSS 5 powiedział: „Cóż, przede wszystkim się mylą". To jest klasyczna odpowiedź kogoś, kto wie, że robi coś niepopularnego, ale ma wystarczająco dużo mocy, aby to ignorować. Nie próbuje wyjaśnić technologii. Nie próbuje pokazać, dlaczego to jest dobre dla gier. Po prostu mówi, że wszyscy się mylą. To jest arrogancja mocy.
Przyszłość gier — czy będą wyglądać jak Instagram?
Jeśli DLSS 5 się przyjmie, jeśli będzie używany w dużych grach, jeśli będzie standardem — to co to oznacza dla przyszłości gier? To oznacza, że wszystkie postacie będą wyglądać podobnie. To oznacza, że charakterystyka będzie zmieszana w algorytmiczną papkę. To oznacza, że gry będą wyglądać jak wszystko inne — jak Instagram, jak YouTube, jak każda inna platforma, która została już opanowana przez AI-wygenerowaną zawartość.
Gry zawsze były medium, w którym artyści mieli względnie dużo kontroli. Mogłeś stworzyć postać, która wygląda dokładnie tak, jak chciałeś. Mogłeś dać jej charakterystyczne cechy, osobliwości, rzeczy, które czynią ją pamiętaną. DLSS 5 to zmienia. To zmienia gry w kierunku większej standaryzacji, większej homogeniczności, większej nudności.
I to jest problem, który będzie się pogłębiać. Jeśli DLSS 5 się przyjmie, to Nvidia będzie miała motywację do tego, aby uczynić go lepszym — ale lepszym w sensie „bardziej wydajnym" i „bardziej powszechnym", a nie „bardziej artystycznym" i „bardziej charakterystycznym". Algorytm nie będzie się uczyć, jak tworzyć bardziej interesujące twarze. Będzie się uczyć, jak tworzyć bardziej średnie twarze, szybciej.
Co to oznacza dla polskich graczy i twórców
Polska gra wideo ma swoją tożsamość. Cyberpunk 2077 — mimo wszystkich problemów przy wydaniu — miał postacie, które wyglądały jak rzeczywiste osoby. Wiedźmin miał charakterystyczne, pamiętane postacie. Polska branża gier zawsze stawiała na autentyczność i artystyczną wizję. DLSS 5 to zagrażałoby temu podejściu.
Jeśli polskie studia będą chciały konkurować na światowych rynkach, będą czuć presję, aby używać tej samej technologii co Bethesda czy Capcom. Ale to oznaczałoby, że polskie gry będą wyglądać jak każda inna gra — jak każda inna rzecz na świecie, którą opanowała AI. To byłoby stratą.
Na szczęście, polska branża gier jest na tyle niezależna i na tyle silna, że może powiedzieć „nie". Mogą zdecydować, że twarze postaci w ich grach będą projektowane przez artystów, a nie generowane przez algorytmy. Mogą to nawet uczynić punktem sprzedaży — „gra stworzona przez ludzi, dla ludzi, bez AI". To byłoby autentyczne. To byłoby pamiętane.
Ale to będzie wymagać świadomej decyzji. To będzie wymagać powiedzenia „nie" Nvidii, „nie" presji rynkowej, „nie" obietnicom szybszych renderów i mniejszych kosztów. To będzie wymagać wiary, że artystyczna wizja jest ważniejsza niż efektywność. I to jest coś, o co będą musieć walczyć.
DLSS 5 jest testowaniem granic. Nvidia patrzy, jak daleko może posunąć się w zamienianiu ludzkiej pracy na algorytmy, zanim ludzie się zbuntują. Indie deweloperzy już się zbuntowali. Ale czy wystarczająco dużo ludzi na to zwróci uwagę? Czy wystarczająco dużo graczy będzie dbać o to, że twarze wyglądają jak AI-wygenerowana papka? Czy będą po prostu grać, bo gra jest szybsza? To są pytania, na które odpowiedź będzie kształtować przyszłość gier na następne dziesięć lat.









