Trump ponownie atakuje stanowe regulacje sztucznej inteligencji

Foto: Digital photo collage of a judge with gavel whose hands has too many fingers.
Administracja Trumpa przedstawiła w piątek siedmiopunktowy projekt ustawy regulacyjnej dla AI, który jasno wskazuje: rząd federalny powinien unikać większości regulacji AI poza zasadami ochrony dzieci, a stany nie mogą ingerować w "krajową strategię osiągnięcia globalnej dominacji w AI". Plan zachęca Kongres do wprowadzenia bardziej rygorystycznych zabezpieczeń dla nieletnich korzystających z usług AI i działań mających na celu zapobieżenie wzrostowi kosztów energii związanemu z infrastrukturą AI. Proponuje podejście "czekaj i obserwuj" wobec kwestii trenowania modeli AI na materiałach chronionych prawem autorskim bez zgody, jednocześnie utrzymując długotrwały republikański nacisk na ograniczenie możliwości stanów do uchwalania własnych przepisów dotyczących AI. Dokument wspiera przepisy podobne do Take It Down Act z maja 2025 roku zakazującego niezgodnych AI-generowanych intymnych materiałów wizualnych, oraz proponuje weryfikację wieku dla platform AI. Projekt ustawy pozostanie jednak tylko propozycją — wejdzie w życie wyłącznie jeśli Kongres go uchwali.
Administracja Trumpa wydała właśnie nowy plan regulacji sztucznej inteligencji, który wyraźnie pokazuje, dokąd zmierza polityka AI w Stanach Zjednoczonych — a kierunek jest zdecydowanie pro-biznesowy i anty-regulacyjny. Siedmiopunktowy dokument, zaprezentowany w piątek, zawiera przesłanie tak jasne, że trudno je przeoczyć: rząd federalny powinien wstrzymać się od większości regulacji AI, a jednocześnie zakazać stanom wprowadzania własnych przepisów, które mogłyby utrudnić "narodową strategię osiągnięcia globalnej dominacji w AI". To nie jest subtelna gra dyplomatyczna — to otwarty atak na stanowe prawo i próba skoncentrowania całej władzy regulacyjnej w rękach Waszyngtonu.
Dokument stanowi kolejny epizod w trwającej już prawie rok kampanii administracji Trumpa na rzecz federalnego preempcji stanowych przepisów dotyczących AI. Jednak tym razem plan musiał ustępować pewnym naciskom — szczególnie gdy chodzi o bezpieczeństwo dzieci. Prawie czterdziestu prokuratorów generalnych stanów i terytoriów wyraziło sprzeciw wobec całkowitego zastąpienia lokalnych przepisów bezpieczeństwa, zmuszając twórców dokumentu do pewnych kompromisów. To ciekawe napięcie między ideologicznym pragnieniem deregulacji a pragmatyczną koniecznością odpowiedzi na bipartyzańskie obawy dotyczące ochrony nieletnich.
Przyjrzyjmy się bliżej, co naprawdę zawiera ten plan i jakie implikacje ma dla przyszłości regulacji AI na całym świecie — bo decyzje podejmowane w Waszyngtonie zawsze mają szersze konsekwencje.
Czytaj też
Kompromis wobec presji na ochronę dzieci
Jeśli chodzi o bezpieczeństwo nieletnich, administracja musiała pokazać, że słucha. Plan zawiera szereg przepisów mających chronić dzieci w cyfrowym świecie — od weryfikacji wieku poprzez atestację rodziców, aż po ograniczenia dotyczące trenowania modeli AI na danych dzieci. Dokument wspiera również ustawę Take It Down, która weszła w życie w maju 2025 roku i zakazuje niezgodnych na to sztucznych "intymnych depiktacji wizualnych", wymagając od platform szybkiego ich usunięcia.
Jednak nawet w sekcji poświęconej ochronie dzieci widać pragmatyzm typowy dla tego planu. Administracja nie proponuje pełnego zakazu trenowania modeli na danych dzieci czy targetowania ich reklamami — chce je jedynie "ograniczyć". To rozróżnienie jest istotne i sugeruje, że dla twórców dokumentu bezpieczeństwo dzieci jest ważne, ale nie powinno całkowicie blokować innowacje biznesowe. Proponowana weryfikacja wieku jest szczególnie kontrowersyjna z punktu widzenia prywatności, bo otwarcie mówi się o "pośrednictwach rodziców" — a to oznacza, że platformy będą musiały zbierać i przechowywać dane pozwalające na weryfikację wieku, co rodzi obawy dotyczące nadzoru.
Ciekawostką jest, że dokument wyraźnie zabrania stanom nakładania własnych przepisów dotyczących ochrony dzieci — z jednym wyjątkiem. Stany mogą egzekwować "ogólnie obowiązujące przepisy chroniące dzieci", takie jak prohibicje dotyczące materiałów przedstawiających seksualny niezgodę na to dzieci, nawet jeśli są generowane przez AI. To ustępstwo było niezbędne, aby dokument przeszedł bipartyzańską ocenę, ale pokazuje również, że nawet administracja Trumpa rozumie, że niektóre sprawy są zbyt poważne, aby je całkowicie federalizować.
Deepfaki, głosy i prawo do wizerunku — wreszcie?
Plan zawiera propozycję, która mogła pojawić się już wiele lat temu — federalne prawo chroniące ludzi przed nieautoryzowanym rozpowszechnianiem lub komercyjnym wykorzystywaniem sztucznych replik ich głosu, wizerunku lub innych identyfikowalnych cech. W erze deepfaków, gdy wideo generowane przez AI wyglądają coraz bardziej realistycznie, a fałszywe materiały mogą w sekund rozprzestrzeniać się po całym świecie, taka ochrona wydaje się bardziej niż uzasadniona. Administracja mówi o "federalnym systemie" — to mogłoby wreszcie stworzyć ujednolicone prawo do wizerunku na poziomie krajowym.
Jednak dokument jest ostrożny w kwestii wyjątków. Plan mówi o "jasnych wyjątkach" dla parodii, reportażu, satyry i innych form chronionej przez Pierwszą Poprawkę. To ma sens — nie chcemy, aby prawo do wizerunku stało się narzędziem do cenzury artystycznej czy politycznej krytyki. Ale to również oznacza, że będą długie batalii sądowe dotyczące tego, gdzie dokładnie leży granica między dozwoloną parodią a niedozwolonym oszustwem czy zniesławieniem.
W kontekście globalnym to szczególnie istotne. Deepfaki nie znają granic — wideo generowane w jednym kraju rozprzestrzenia się natychmiast na całym świecie. Federalne prawo do wizerunku w Stanach Zjednoczonych mogłoby stać się wzorem dla innych krajów, lub alternatywnie, mogłoby stworzyć nową nierówność w regulacji, gdzie Ameryka ma ochronę, a inne kraje nie. Unia Europejska już porusza się w tym kierunku poprzez swoją AI Act, więc to będzie interesujące pole bitwy regulacyjne w nadchodzących latach.
Prawa autorskie — pozwól sądom się bić
Jedna z najbardziej kontrowersyjnych kwestii w branży AI to pytanie o to, czy trenowanie modeli na materiałach chronionych prawem autorskim bez pozwolenia stanowi naruszenie praw autorskich. Administracja Trump ma jasne stanowisko — nie sądzi, że stanowi. Ale zamiast próbować przepchnąć to stanowisko przez Kongres, plan sugeruje, aby Kongres w ogóle nie podejmował żadnych działań w tej sprawie i pozwolił sądom rozstrzygnąć, czy trenowanie na materiałach chronionych stanowi fair use.
To strategia, która ma sens dla branży AI — pozwolenie sądom rozstrzygnąć oznacza, że przez lata będą toczone procesy, a tymczasem trenowanie będzie trwać. Ale z perspektywy twórców i wydawców, to oznacza, że ich prace mogą być wykorzystywane bez zgody i bez wynagrodzenia przez wiele lat, zanim sądy ostatecznie przesądzą sprawę. Dokument przyznaje, że istnieją argumenty po obu stronach, ale wyraźnie preferuje status quo, w którym branża AI ma wolną rękę.
To podejście jest szczególnie interesujące w kontekście międzynarodowym. Unia Europejska i inne jurysdykcje mogą podejść do tego inaczej, tworząc sytuację, w której trenowanie modeli na materiałach chronionych byłoby legalne w USA, ale nielegalne w Europie. To mogłoby prowadzić do fragmentacji globalnej infrastruktury AI, z Stanami Zjednoczonymi jako domem dla "bardziej agresywnego" trenowania, a Europą jako bardziej restrykcyjnym rynkiem.
Preempcja stanowa — główna batalia
Jeśli chodzi o ogólne podejście do regulacji, plan administracji jest konsekwentny w swoim pragnieniu wyeliminowania stanowych przepisów. Dokument wyraźnie mówi, że Kongres powinien "wyprzedzić stanowe przepisy AI, które nakładają zbyt duże obciążenia" i unikać "pięćdziesięciu rozbieżnych" standardów dla firm. Argumentacja jest taka, że AI jest "z natury zjawiskiem międzypaństwowym" z implikacjami dla polityki zagranicznej i bezpieczeństwa narodowego.
To jest centralna teza całego planu — deregulacja na poziomie stanowym ma służyć przyspieszeniu innowacji. Dokument mówi wprost: "Stany nie powinny być uprawnione do regulowania rozwoju AI". Taka pozycja jest radykalna, szczególnie jeśli porównać ją z historią regulacji w Stanach Zjednoczonych, gdzie stany tradycyjnie miały znaczącą władzę w kwestiach ochrony konsumentów, bezpieczeństwa i prywatności. Kalifornia, na przykład, długo była pionierem w regulacjach dotyczących prywatności danych — najpierw z CCPA, a teraz z CPRA. Plan administracji Trumpa byłby zagrożeniem dla takiego podejścia.
Jednak plan zawiera pewne wyjątki. Stany mogą nadal egzekwować ogólnie obowiązujące przepisy chroniące dzieci, a także mogą być uprawnione do egzekwowania przepisów dotyczących oszustw i nielegalnych działań. Ale w kwestii samego "regulowania AI" — znacząca część władzy byłaby przesunięta do Waszyngtonu. To jest wyraźny sygnał, że administracja chce centralnej, federalnej kontroli nad AI, a nie rozproszonych, stanowych podejść.
Infrastruktura energetyczna i problem rachunków za prąd
Jeden z bardziej praktycznych elementów planu dotyczy rosnących kosztów energii związanych z infrastrukturą AI. Trenowanie dużych modeli AI wymaga ogromnych ilości energii, a data centers budowane do obsługi AI mogą znacząco zwiększać zapotrzebowanie na energię w lokalnych społecznościach. Plan przyznaje, że to jest problem i sugeruje, aby Kongres znalazł sposoby na zapewnienie, że "zwykli mieszkańcy nie będą doświadczać zwiększonych kosztów energii w wyniku budowy i operacji nowych data centers AI".
Jednak plan jednocześnie sugeruje, aby Kongres usprawnił federalne pozwolenia na budowę i operację data centers, ułatwiając firmom AI "rozwijanie lub nabywanie generacji energii na terenie i za licznikiem". Innymi słowy — data centers powinny być budowane szybko, ale koszty nie powinny być przerzucane na zwykłych obywateli. To jest równoważenie interesów — pozwól branży AI rosnąć, ale upewnij się, że nie będzie to na koszt lokalnych społeczności.
To podejście ma sens z punktu widzenia polityki publicznej, ale jest również wyrazem uznania dla rosnącej mocy politycznej branży AI. Kilka miesięcy temu widzieliśmy pierwsze bipartyzańskie wysiłki dotyczące rosnących rachunków za prąd w społecznościach z data centers — a teraz administracja mówi, że to jest kwestia, którą trzeba rozwiązać. To pokazuje, że nawet pro-biznesowa administracja rozumie, że jeśli AI będzie powodować znaczące wzrost kosztów energii dla zwykłych ludzi, będzie polityczne sprzeciwu.
Brak nowego regulatora i podejście sektorowe
Plan odpowiada na długo oczekiwane pytanie: czy Stany Zjednoczone powinny stworzyć jedno federalne ciało odpowiedzialne za regulację AI, czy też regulacja powinna być rozproszona między istniejące agencje sektorowe? Odpowiedź administracji jest jasna — nie twórz nową agencję. Zamiast tego, regulacja AI powinna być obsługiwana przez istniejące ciała z kompetencjami branżowymi.
To podejście ma zarówno zalety, jak i wady. Z jednej strony, istniejące agencje takie jak FDA, FTC czy SEC już mają doświadczenie w regulowaniu swoich sektorów i mogą szybko dostosować istniejące ramy do AI. Z drugiej strony, to oznacza fragmentację — AI w medycynie będzie regulowana przez FDA, AI w finansach przez SEC, a AI w ogólnym biznesie przez FTC. Może to prowadzić do niespójności i luk w regulacji.
Plan również mówi o wspieraniu "rozwoju i wdrażania sektorowo-specyficznych aplikacji AI" — co oznacza, że każdy sektor będzie miał własne wytyczne i standardy. To jest pragmatyczne podejście, ale również oznacza, że nie będzie ujednoliconego stanowiska dotyczącego bezpieczeństwa AI czy przejrzystości na poziomie całej gospodarki.
Wolność słowa i paradoks administracji Trumpa
Szczególnie interesującą sekcją planu jest ta poświęcona wolności słowa i Pierwszej Poprawce. Dokument mówi, że rząd "musi bronić wolności słowa i ochrony Pierwszej Poprawki, jednocześnie zapobiegając wykorzystywaniu systemów AI do wyciszania lub cenzury legalnych wypowiedzi politycznych lub sprzeciwu". Plan idzie dalej, mówiąc, że Kongres powinien wyraźnie zakazać rządowi "zmuszania" dostawców AI "do zakazywania, zmuszania lub zmieniania treści na podstawie partyjnych lub ideologicznych agend".
To jest fascynujące, biorąc pod uwagę historię administracji Trumpa w kwestii AI i wolności słowa. Prezydent Trump podpisał rozkaz wykonawczy zakazujący rządowym agencjom używania modeli AI, które "zawierały" tematy takie jak systemowy rasizm. Niedawno również nakazał wszystkim agencjom umieszczenie na czarnej liście Anthropic — firmę zajmującą się AI — za wprowadzenie ograniczeń dotyczących wojskowego użytku jej modeli, czego Anthropic twierdzi, że narusza jej prawa do Pierwszej Poprawki.
Tak więc dokument, który mówi o ochronie wolności słowa i zakazie rządowego zmuszania dostawców AI do cenzury, pochodzi z administracji, która aktywnie zmusza dostawców AI do przestrzegania jej ideologicznych preferencji. To jest klasyczny przykład hipokryzji politycznej — gdy jedna ręka rządu pisze o ochronie wolności słowa, druga ręka jej narusza. Plan zawiera również przepis mówiący, że jeśli rządowe agencje cenzurują wypowiedź na platformach AI, Amerykanie powinni mieć możliwość "poszukania zadośćuczynienia" — ale to byłoby trudne do egzekwowania wobec samego rządu.
Przyspieszenie rozwoju AI jako rzeczywisty cel
Całość planu można podsumować jednym stwierdzeniem zawartym w dokumencie: "Stany Zjednoczone muszą prowadzić świat w AI poprzez usuwanie barier dla innowacji i przyspieszanie wdrażania aplikacji AI w całych sektorach". To jest rzeczywisty cel — nie ochrona konsumentów, nie bezpieczeństwo, ale przyspieszenie. Plan zawiera nawet propozycję, aby Kongres udostępnił federalne zbiory danych dostawcom AI i akademikom w "formatach gotowych do AI" do trenowania modeli.
To ujawnia rzeczywistą logikę stojącą za tym planem. Administracja wierzy, że Stany Zjednoczone mogą utracić globalną dominację w AI, jeśli będą zbyt restrykcyjne w regulacji. Chiny, Unia Europejska i inne kraje rozwijają własne modele AI, a Ameryka musi być szybsza. Tym samym, każda regulacja — czy to stanowa, czy federalna — jest postrzegana jako przeszkoda do przezwyciężenia.
To podejście ma pewną logikę, ale również ignoruje rzeczywiste koszty społeczne. Jeśli AI będzie rozwijana bez odpowiednich zabezpieczeń, konsumenci mogą zostać oszukani przez deepfaki, dzieci mogą być narażone na manipulacyjne treści, a pracownicy mogą znaleźć się bez pracy z powodu automatyzacji. Plan zawiera kilka przepisów dotyczących bezpieczeństwa dzieci, ale w stosunku do ogólnego pragnienia deregulacji, są one marginesowe.
Ostatecznie, plan administracji Trumpa jest wyraźnym sygnałem: Stany Zjednoczone wybierają przyspieszenie nad ochroną. To może być strategia, która przyniesie korzyści branży AI i potencjalnie USA jako całości w globalnym wyścigu technologicznym. Ale będą również ofiary — pracownicy, konsumenci, dzieci, i społeczności borykające się z rosnącymi kosztami energii. Plan zawiera kilka przepisów mających ich chronić, ale są one niedostateczne w stosunku do skali ambicji deregulacyjnych. To jest wybór, który administracja robi świadomie, i będzie to miało długotrwałe konsekwencje dla regulacji AI nie tylko w Stanach Zjednoczonych, ale na całym świecie.
Więcej z kategorii Sztuczna inteligencja
Podobne artykuły

Microsoft cofa część bloatu Copilot AI w systemie Windows
7h
Co się stało na Nvidia GTC: NemoClaw, Robot Olaf i zakład wart bilion dolarów
8h
WordPress.com pozwala już agentom AI pisać i publikować posty, i wiele więcej
11h





