Sztuczna inteligencja13 min czytaniaTechCrunch AI

Szef Patreona: argument firm AI o fair use to "bzdura", twórcy powinni być płaceni

P
Redakcja Pixelift10 views
Udostępnij
Szef Patreona: argument firm AI o fair use to "bzdura", twórcy powinni być płaceni

Amy Price/SXSW Conference & Festivals / Getty Images

Jack Conte, szef platformy Patreon, ostro skrytykował uzasadnianie przez firmy AI wykorzystywania twórczości bez zgody jako "fair use". Podczas konferencji SXSW w Austin Conte podkreślił, że nie jest przeciwnikiem sztucznej inteligencji, ale uważa argument o uczciwym użytkowaniu za "bzdurny". Jego zdaniem twórcy powinni otrzymać wynagrodzenie za materiały wykorzystywane do trenowania modeli AI. Problem dotyczy milionów artystów, pisarzy i muzyków, których prace są skanowane i analizowane przez algorytmy bez ich wiedzy lub zgody. Patreon, platforma łącząca twórców z fanami i wspierającymi ich finansowo, bezpośrednio odczuwa skutki tej praktyki — jej użytkownicy tracą kontrolę nad swoją intelektualną własnością. Stanowisko Contego odzwierciedla rosnący konflikt między branżą AI a twórcami. Podczas gdy firmy technologiczne argumentują, że trenowanie modeli na publicznie dostępnych danych to legalne wykorzystanie, twórcy domagają się prawa do decydowania o losie swojej pracy i otrzymywania za to pieniędzy. Kwestia ta będzie kluczowa dla przyszłości relacji między AI a przemysłem kreatywnym.

Jack Conte, szef Patreon, nie przychodzi do dyskusji o sztucznej inteligencji z pozycji luddyty czy nostalgika. Prowadzi platformę technologiczną, która sama korzysta z zaawansowanych narzędzi. Jednak na konferencji SXSW w Austin wyraźnie zakreślił granicę, którą jego zdaniem branża AI przekracza bez skrupułów. Według niego firmy takie jak OpenAI czy Anthropic nie powinny móc trenować swoje modele na twórczości artystów bez wynagrodzenia, a ich powołanie się na „fair use" to argument, który pada pod ciężarem faktów. To stanowisko ma znaczenie — Patreon to platforma, na której zarabia ponad 250 tysięcy twórców, od ilustratorów przez muzyków po pisarzy. Jeśli dane te trafią do modeli AI bez kompensaty, biznes tych osób może ulec fundamentalnym zmianom.

Dyskusja o fair use w kontekście AI to nie teoretyczne rozważania akademickie — to walka o to, kto ma prawo zarobkować na cudzej pracy. Conte dostrzega w tym sprzeczność, którą trudno ignorować: te same firmy, które argumentują, że mogą bezpłatnie trenować modele na zawartości twórców niezależnych, jednocześnie płacą znaczące sumy wydawcom takim jak Axel Springer czy News Corp za dostęp do ich materiałów. To hipokryzja, którą nawet dla kogoś niezbyt zainteresowanego technologią powinno być jasne.

Stanowisko CEO Patreon nie jest odosobnione, ale ma specjalną wagę ze względu na pozycję jego firmy na rynku. Patreon to nie tylko platforma — to ekosystem ekonomiczny, który pokazuje, jak naprawdę zarabiają współcześni twórcy. Dane stąd mogą być cennym głosem w toczącej się dyskusji regulacyjnej, szczególnie w Stanach Zjednoczonych, gdzie kwestia praw autorskich w epoce AI pozostaje niejasna.

Sprzeczność w strategii AI: darmowe dane od indywidualnych twórców, płatne od wydawców

Obserwacja Conte'a trafia w sedno największej hipokryzji branży AI. OpenAI, Google DeepMind i inne korporacje uzasadniają wykorzystanie miliardów stron internetowych, zdjęć i tekstów jako „fair use" — wyjątek z prawa autorskiego przewidziany dla działalności transformacyjnej. Argument brzmi: jeśli AI generuje coś nowego, oryginalnego, to nie narusza prawa autorskiego źródła.

Problem pojawia się, gdy spojrzymy na to, co te same firmy robią z zawartością dużych wydawnictw. W 2023 roku OpenAI zawarła umowy z Axel Springer (wydawca m.in. „Der Bild" i „Politico"), News Corp (właściciel „Wall Street Journal" i „Financial Times"), a niedawno również z Associated Press. Za każdy artykuł, każdą notkę, każdą fotografię płacą miliony dolarów. Jeśli fair use rzeczywiście byłby obowiązujący, dlaczego płacić? Odpowiedź jest prosta: fair use jest bardziej szary niż myślą sobie apologeci AI, a duże wydawnictwa mają zasoby prawne, aby się bronić.

Niezależni twórcy na Patreon, Medium czy Substack mają zupełnie inne możliwości. Nie stać ich na prawników, nie mają wpływu medialnego, ich głos ginie w szumie. Dlatego ich dane są łupem łatwym. To nie jest przypadek — to strategiczny wybór branży AI. Trenować modele na zawartości miliardów ludzi bez ich zgody i bez zapłaty jest tańsze niż negocjowanie z każdym wydawnictwem z osobna.

Conte ma rację wskazując na tę asymetrię. Jeśli fair use byłby rzeczywiście sprawiedliwy i uniwersalny, byłby stosowany do wszystkich bez wyjątku. Fakt, że nie jest, sugeruje, że AI companies doskonale wiedzą, iż ich pozycja prawna jest słaba — po prostu liczą, że nikt się nie będzie bronić.

Jak fair use stał się tarczą dla branży AI — i dlaczego nie powinna być wystarczająca

Doktryna fair use w amerykańskim prawie autorskim pochodzi z czasów, gdy „transformacyjna" użyteczność oznaczała parodię, recenzję czy badania naukowe. Cztery kryteria — cel użytku, charakter dzieła, ilość użytego materiału i wpływ na rynek — były w stanie objąć większość rzeczywistych przypadków. Ale AI zmienia równanie w sposób, który prawo autorskie z lat 70. po prostu nie przewidywało.

Argumentacja firm AI opiera się na założeniu, że trenowanie modelu to „użytek transformacyjny" — że model generuje nową zawartość, a nie po prostu reprodukuje oryginał. Brzmi rozsądnie, dopóki nie zadumacie się nad tym, co to naprawdę oznacza. Model trenowany na miliardach artykułów, zdjęć i piosenek uczy się statystycznych wzorów z tych dzieł. Pyta się więc: czy ekstrahowanie wzorów statystycznych z cudzej pracy bez jej zmiany to „transformacja"? Dla prawnicy zajmującego się własnością intelektualną — niekoniecznie.

Rzecz w tym, że żaden sąd w Stanach Zjednoczonych nie orzekł jeszcze definitywnie w tej sprawie. Są procesy — kilka przeciwko OpenAI, kilka przeciwko Meta i Google — ale wyroki mogą zająć lata. Tymczasem branża AI działa w szarej strefie, licząc, że większość twórców nie będzie miała zasobów, aby się bronić. Conte sugeruje, że to kalkulacja, która powinna być niemożliwa — że prawo powinno być jasne i egzekwowalne dla każdego, nie tylko dla wielkich wydawnictw.

Warto zauważyć, że nawet wśród ekspertów prawa autorskiego opinie są podzielone. Niektórzy uważają, że fair use rzeczywiście powinien chronić trenowanie AI. Inni twierdzą, że to kompletne nadużycie doktryny. Conte zajmuje stanowisko, że prawo powinno być zmienione, aby wymagać kompensaty dla twórców — nie tylko dla wielkich wydawnictw, ale dla każdego, czyja praca trafiła do danych treningowych.

Patreon jako świadek: co mówią nam dane z platformy

Dlaczego głos Conte'a ma szczególną wagę? Dlatego, że Patreon to jedno z niewielu miejsc, gdzie możemy zobaczyć rzeczywisty ekosystem niezależnych twórców w liczbach. Platforma ma ponad 250 tysięcy aktywnych twórców — od ilustratorów po muzyków, pisarzy, podcasterów. Większość z nich zarabia mniej niż tysiąc dolarów miesięcznie. Dla nich każdy dochód ma znaczenie.

Gdy dane te trafiają do modeli AI, twórcy ci tracą potencjalny przychód na wiele sposobów. Po pierwsze, model może generować zawartość „w ich stylu", zmniejszając zapotrzebowanie na ich pracę. Po drugie, mogą stracić możliwość kontrolowania, gdzie i jak ich praca jest używana. Po trzecie, mogą zostać całkowicie wyeliminowani z łańcucha wartości — zamiast płacić im za pracę, korporacja płaci za dostęp do modelu AI, który zastępuje ich pracę.

To nie jest teoretyczne zagrożenie. Już dziś widzimy artystów, którzy trafiają do wyszukiwarek Google Images, a ich prace są używane do trenowania modeli bez ich zgody. Widzimy muzyków, których głosy są klonowane przez AI. Widzimy pisarzy, których styl jest naśladowany przez chatboty. Patreon ma bezpośredni dostęp do tych twórców — wie, co mówią, jakie mają obawy, jakie są ich rzeczywiste straty.

Jeśli Conte będzie lobbować za zmianami prawa, będzie miał dostęp do danych, które pokazują rzeczywisty wpływ AI na niezależnych twórców. To może być kluczowe w negocjacjach z regulatorami i w sądach. Patreon może być świadkiem, który zmienia grę.

Dlaczego „fair use" nie działa, gdy chodzi o AI — praktyczne problemy

Poza teoretycznymi argumentami Conte wskazuje na praktyczne problemy z argumentacją fair use w kontekście AI. Pierwszy z nich to skala. Gdy autor parodiuje utwór muzyczny, używa fragmentu — może kilkudziesięciu sekund z trzeminutowej piosenki. Gdy AI trenuje się na miliardach dzieł, używa całych plików, całych albumów, całych książek. Czwarte kryterium fair use — wpływ na rynek oryginału — jest tu jasne: jeśli model AI potrafi generować muzykę w stylu artysty, wpływ na rynek jego pracy jest ogromny.

Drugi problem to brak przejrzystości. Fair use tradycyjnie chroni użytkowników, którzy mogą wykazać, że działali w dobrej wierze, dla celów edukacyjnych lub badawczych. Ale AI companies nie ujawniają, jakie dokładnie dane używają do trenowania. Nie wiadomo, czy trenowały na Twoim blogu, Twoim zdjęciu, Twojej piosence. Jak można mówić o fair use, gdy osoba poszkodowana nie może nawet wiedzieć, że została poszkodowana?

Trzeci problem to komercyjne wykorzystanie. Fair use tradycyjnie nie chroni użytkownika, który zarabia na użyciu cudzej pracy. Ale AI companies zarabiają miliardy na modelach trenowanych na cudzej zawartości. Jeśli fair use nie chroni YouTubera, który monetyzuje filmik parodiujący piosenkę, dlaczego miałby chronić OpenAI, które zarabia na ChatGPT trenowanym na miliardach dzieł?

Conte artykułuje to jasno: fair use jest narzędziem dla słabszych — dla osób, które nie mogą sobie pozwolić na licencje, dla naukowców, dla studentów. Gdy narzędziem posługuje się jedna z bogatszych firm na świecie, aby zarobić miliardy, to nie jest fair use — to jest ekspropriacja.

Precedensy: czego możemy się nauczyć z przeszłości

Historia prawa autorskiego pokazuje, że gdy technologia zmienia rynek, prawo zawsze się zmienia — czasem na korzyść twórców, czasem na ich niekorzyść. Gdy pojawili się fotograf, artyści malujący portrety myśleli, że to koniec ich kariery. Gdy pojawił się film, aktorzy teatralni mieli obawy. Gdy pojawił się internet, wydawcy myśleli, że to koniec książek. Zawsze pojawiały się nowe możliwości zarobkowania, ale zawsze trzeba było walczyć, aby upewnić się, że twórcy będą zarabiać sprawiedliwie.

Bardziej bezpośrednim precedensem jest muzyka cyfrowa. Gdy Napster pojawił się w 1999 roku, pozwalał użytkownikom dzielić się plikami MP3 bez zgody artystów. Branża muzyczna walczyła — i wygrała. Sądy orzekły, że nawet jeśli dzielenie się plikami mogłoby być uważane za „fair use" w niektórych kontekstach, nie było nim w skali, w której Napster to robił. Rezultatem była zmiana sposobu, w jaki ludzie konsumują muzykę — ale artystom zagwarantowano kompensatę.

Innym przykładem jest Google Books. Google skanowało miliony książek bez zgody autorów, argumentując fair use. Sądy zgodziły się, że skanowanie było transformacyjne — umożliwiało przeszukiwanie, a nie reprodukcję. Ale nawet wtedy było wiele sporów, a ostatecznie doszło do ugód i odszkodowań. Żaden precedens nie sugeruje, że można bezpłatnie wykorzystać cudzą pracę na taką skalę, na jaką robi to AI.

Conte zdaje się sugerować, że historia powtarza się — że branża AI liczy na to, że twórcy będą zbyt słabi, aby się bronić, ale że ostatecznie prawo się zmieni. Pytanie brzmi: czy zmieni się wystarczająco szybko, aby uratować kariery niezależnych twórców, czy będzie to zmiana post-factum, gdy szkoda będzie już wyrządzona?

Co powinno się zmienić: model licencjonowania zamiast fair use

Conte nie tylko krytykuje — sugeruje też rozwiązanie. Zamiast polegać na fair use, branża AI powinna przejść na model licencjonowania, podobnie do tego, jaki już stosuje z dużymi wydawnictwami. Każdy twórca, czyja praca trafia do danych treningowych, powinien mieć prawo do kompensaty — czy to w formie jednorazowej płatności, czy w postaci udziału w zyskach modelu.

Jak to mogłoby działać? Istnieje kilka możliwości. Pierwsza to centralna baza danych — każdy twórca mógłby zarejestrować swoją pracę, a AI companies byłyby zobowiązane do sprawdzenia bazy przed treningiem. Druga to automatyczne systemy — podobne do tych, które YouTube używa do rozpoznawania muzyki, mogłyby identyfikować prace chroniące się autorskim i automatycznie przydzielać kompensatę. Trzecia to model „opt-out" zamiast „opt-in" — domyślnie zawartość byłaby chroniona, chyba że twórca zdecyduje inaczej.

Wszystkie te rozwiązania byłyby droższe dla AI companies niż obecny model „weź wszystko i nie płaćcie nikomu". Ale Conte argumentuje, że to jest właśnie punkt — że branża powinna ponosić koszt tego, co robi, zamiast przerzucać go na twórców. Jeśli licencjonowanie zawartości od wydawnictw jest opłacalne, powinno być opłacalne również dla niezależnych twórców.

To stanowisko ma wsparcie wśród wielu twórców, ale również sprzeciw. Niektórzy argumentują, że wymóg licencjonowania spowolniłby innowacje w AI. Inni uważają, że byłoby to niemożliwe do wdrożenia technicznie. Ale Conte odpowiada: jeśli jest to możliwe dla wydawnictw, jest to możliwe dla wszystkich. Jeśli nie jest to możliwe dla wszystkich, to znaczy, że system jest niesprawiedliwy.

Implikacje dla polskich twórców i lokalnych platform

Dyskusja toczona w Stanach Zjednoczonych ma bezpośrednie konsekwencje dla polskich twórców. Wiele polskich platform — od Patronite po lokalne serwisy dla muzyków i artystów — korzysta z tych samych modeli biznesowych co Patreon. Jeśli prawo autorskie zostanie zmienione w USA na rzecz twórców, zmiana ta będzie miała wpływ globalny. Przeciwnie, jeśli AI companies wygrają tę bitwę w Ameryce, będą miały precedens do zastosowania tego samego modelu wszędzie indziej.

Polska ma swoją własną scenę twórców cyfrowych — ilustratorów, muzyków, pisarzy, którzy zarabiają poprzez platformy takie jak Patreon czy Patronite. Ich zawartość jest już trenowana przez globalne modele AI bez ich zgody i bez kompensaty. Jeśli nie będzie zmian w prawie, polska scenka twórcza będzie jedną z pierwszych, które ucierpią — bo nasz rynek jest zbyt mały, aby przyciągnąć uwagę dużych AI companies, ale wystarczająco duży, aby być włączonym do danych treningowych.

To również okazja dla polskich regulatorów. Jeśli Unia Europejska będzie chciała, może wprowadzić bardziej ochronne przepisy dotyczące praw autorskich w kontekście AI — i faktycznie, dyrektywa DSM już zawiera kilka przepisów w tym kierunku. Ale wdrażanie tych przepisów będzie zależeć od tego, czy twórcy będą mieli głos w dyskusji, a Conte pokazuje, jak taki głos powinien brzmieć.

Przyszłość: czy branża AI zmieni kurs, czy będzie musiała być zmuszana?

Ostatnie miesiące pokazują, że branża AI jest gotowa do zmian — ale tylko gdy będzie do tego zmuszana. OpenAI zawarła umowy z wydawnictwami nie dlatego, że nagle stała się etyczna, ale dlatego, że wydawnictwa mają zasoby prawne, aby się bronić. Jeśli niezależni twórcy będą mieć podobne zasoby — poprzez organizacje takie jak Patreon, które mogą reprezentować ich zbiorowo — zmiana będzie nieunikniona.

Conte zdaje się rozumieć to doskonale. Jego stanowisko na SXSW nie było przypadkowe — to był sygnał dla branży, że Patreon będzie walczyć za swoich użytkowników. To również sygnał dla regulatorów, że istnieje gotowa do współpracy organizacja, która może pomóc w egzekwowaniu nowych przepisów.

Gra toczy się teraz. Jeśli Conte i inne platformy będą naciskać, jeśli niezależni twórcy będą protestować, jeśli regulatorzy będą uważać — jest szansa, że prawo się zmieni. Ale jeśli branża AI będzie mogła działać bez przeszkód, jeśli twórcy będą zbyt rozsypani, aby się zorganizować — to fair use pozostanie tarczą dla ekspropriacji. Wynik jest otwarty, ale jedno jest pewne: dyskusja, którą Conte zainicjował, będzie kształtować przyszłość pracy twórczej w erze AI.

Źródło: TechCrunch AI
Udostępnij

Komentarze

Loading...