AI generuje lepszy spam, przez co moderatorzy mają więcej pracy

Foto: The Register
Daniel Stenberg, twórca projektu curl, alarmuje: era bezużytecznego „AI slop” w zgłoszeniach błędów dobiegła końca, ale to wcale nie ułatwia pracy programistom. Zamiast oczywistego spamu, do repozytoriów open-source trafia obecnie lawina raportów o lukach bezpieczeństwa, które wyglądają niezwykle profesjonalnie i wiarygodnie dzięki wsparciu zaawansowanych modeli językowych. Problem polega na tym, że choć raporty są lepszej jakości, wciąż wymagają czasochłonnej weryfikacji przez człowieka, a ich masowa skala paraliżuje pracę kluczowych projektów, takich jak jądro Linux czy Node.js. Dla globalnej społeczności technologicznej oznacza to paradoksalną sytuację: AI przyspieszyło proces znajdowania potencjalnych błędów, ale nie zwiększyło mocy przerobowych osób, które muszą je naprawić. Wiele zgłoszeń, mimo poprawnej formy, dotyczy problemów o niskim priorytecie lub takich, których nie da się realnie wykorzystać do ataku. W reakcji na to zjawisko fundacje i programy typu Internet Bug Bounty zaczęły wstrzymywać wypłaty nagród finansowych, by zniechęcić „łowców nagród” do zalewania systemów automatycznie generowanymi analizami. Użytkownicy końcowi muszą liczyć się z tym, że rozwój oprogramowania może paradoksalnie spowolnić, gdyż maintainerzy zamiast pisać nowy kod, spędzają coraz więcej czasu na filtrowaniu technicznego szumu generowanego przez sztuczną inteligencję. Rozwój narzędzi AI wymusza całkowitą zmianę modelu motywacyjnego w świecie open-source, gdzie priorytetem staje się teraz nie odkrywanie błędów, lecz zdolność do ich sprawnego odsiewania i łatania.
Przez lata sektor open-source zmagał się z zalewem tzw. AI slop — niskiej jakości, generowanych masowo raportów o błędach, które były łatwe do zidentyfikowania i odrzucenia. Jednak sytuacja uległa drastycznej zmianie. Modele językowe stały się na tyle zaawansowane, że generowane przez nie analizy bezpieczeństwa brzmią profesjonalnie i wiarygodnie, co paradoksalnie staje się największym koszmarem dla programistów utrzymujących kluczowe projekty infrastrukturalne.
Kiedy sztuczna inteligencja wykonuje lwią część pracy przy skanowaniu kodu, ciężar weryfikacji wyników nadal spoczywa na barkach ludzi. Problem polega na tym, że przy rosnącej jakości zgłoszeń, ich liczba drastycznie rośnie, paraliżując pracę zespołów, które muszą ręcznie sprawdzać każdy "prawdopodobny" scenariusz ataku.
Ewolucja od spamu do wiarygodnych raportów
Daniel Stenberg, twórca i lider projektu curl, zauważył istotną zmianę w charakterze otrzymywanych zgłoszeń. W swoim niedawnym wpisie podkreślił, że era prymitywnego spamu AI dobiegła końca. Zamiast oczywistych błędów, projekt otrzymuje teraz coraz większą liczbę niezwykle dopracowanych raportów dotyczących bezpieczeństwa, które niemal w całości są przygotowywane przy użyciu narzędzi AI. Choć brzmi to jak sukces technologii, dla maintainerów oznacza to drastyczny wzrost nakładu pracy.
Czytaj też
Zjawisko to nie dotyczy wyłącznie curl. Podobne obserwacje płyną z obozu Linux kernel. Greg Kroah-Hartman, jeden z kluczowych deweloperów jądra Linux, przyznał, że raporty wspierane przez AI zawierają obecnie znacznie mniej "śmieci", a więcej realnych obaw dotyczących architektury kodu. O ile duże zespoły, jak te pracujące nad Linuksem, starają się adaptować do nowej rzeczywistości, o tyle mniejsze projekty open-source zaczynają uginać się pod ciężarem zbyt dobrych, by je zignorować, zgłoszeń.
- Wzrost wiarygodności: Raporty są spójne technicznie i używają profesjonalnej terminologii.
- Szybsza dystrybucja: Automatyzacja pozwala na wysyłanie zgłoszeń niemal natychmiast po wykryciu potencjalnej luki.
- Problem skali: Liczba zgłoszeń rośnie szybciej niż możliwości ich weryfikacji przez ludzi.
Pułapka "prawdopodobnych" błędów
Głównym problemem jest fakt, że nawet jeśli raport jest technicznie poprawny, nie oznacza to automatycznie, że opisuje on krytyczną lukę bezpieczeństwa (CVE). Daniel Stenberg wskazuje na publiczną listę zamkniętych zgłoszeń curl jako dowód: większość spraw zostaje zamknięta, ponieważ zidentyfikowane problemy nie stanowią realnego zagrożenia, które można by wykorzystać w ataku. Często są to kwestie czysto "informacyjne", jak np. data race w bibliotece, który choć wymagał poprawki, nie był błędem krytycznym.
W efekcie maintainerzy marnują godziny na analizę scenariuszy, które AI uznało za ryzykowne, a które w rzeczywistym środowisku mają znikome znaczenie. Jest to klasyczny przykład przenoszenia kosztów — użytkownicy narzędzi AI zyskują na "produktywności", generując masowe zgłoszenia, podczas gdy koszt ich procesowania i weryfikacji zostaje przerzucony na deweloperów pracujących pro bono nad otwartym oprogramowaniem.
Koniec ery nagród za błędy
W obliczu nowej fali zgłoszeń, organizacje zaczynają wycofywać zachęty finansowe, które wcześniej stymulowały społeczność do poszukiwania luk. Internet Bug Bounty ogłosił wstrzymanie wypłat nagród pieniężnych z końcem marca 2026 roku, co dotknęło m.in. program Node.js. Decyzja ta wynika z naruszenia równowagi między tempem odkrywania podatności a zdolnością projektów open-source do ich naprawiania.
„Krajobraz odkrywania błędów się zmienia. Badania wspomagane przez AI zwiększają zasięg i szybkość wykrywania luk w całym ekosystemie. Odpowiedzialność wobec społeczności wymaga od nas ponownego rozważenia struktury zachęt” – czytamy w oświadczeniu Internet Bug Bounty.
Sam Stenberg już wcześniej przestał wypłacać nagrody za zgłoszenia w projekcie curl. Celem było wyeliminowanie motywacji finansowej dla osób, które używają systemów zautomatyzowanych do masowego wysyłania niezweryfikowanych raportów, licząc na łatwy zysk przy minimalnym nakładzie pracy własnej.
Nowe zasady gry w świecie LLM
Deweloperzy tacy jak Willy Tarreau z zespołu jądra Linux sugerują, że nadszedł czas na radykalną zmianę zasad raportowania błędów. Skoro autorzy zgłoszeń dysponują potężnymi modelami LLM, powinni zostać zobligowani do wykonania większej części pracy analitycznej, zanim wyślą raport do maintainera. Proponowane zmiany mają na celu zmniejszenie narzutu związanego z tzw. triage, czyli wstępną selekcją i klasyfikacją błędów.
Wizja programisty jako "10x dewelopera" dzięki AI ma swoją ciemną stronę — to także "10x więcej sprzątania". Jeśli narzędzia AI nie zaczną brać na siebie również odpowiedzialności za weryfikację i dowodzenie realnego wpływu błędu na bezpieczeństwo, model open-source może stanąć w obliczu kryzysu wydolnościowego. Produktywność zyskana na etapie pisania kodu zostanie całkowicie skonsumowana przez nieskończony proces recenzji generowanych masowo treści.
Współczesna sztuczna inteligencja nie zwiększa kompetencji człowieka w pętli decyzyjnej, a jedynie przyspiesza procesy, które i tak wymagają ludzkiego zatwierdzenia. Branża musi wypracować nowe standardy filtrowania treści, w których to AI będzie pomagać maintainerom w odsiewaniu ziarna od technicznego plewu, zamiast tylko zasypywać ich coraz lepiej napisanymi, ale wciąż zbędnymi analizami.
Więcej z kategorii Branża
Broadcom rozszerza współpracę z Google oraz Anthropic w zakresie dostaw chipów
OpenAI prosi organy w California i Delaware o zbadanie „antykonkurencyjnych zachowań” Muska przed kwietniowym procesem
Nadzieja na układ USA-Iran, rocznica Apple i OpenAI w Morning Squawk
Boom centrów danych AI wystawia ubezpieczycieli na próbę przy napływie prywatnego kapitału
Podobne artykuły

Badacze nie chcieli gloryfikować cyberprzestępców, więc postanowili ich wyśmiać
5 kwi
Agenci AI obiecują „prowadzenie biznesu”, ale kto odpowie za ich błędy?
5 kwi
Netflix, Meta i IBM: AI zrobi z każdego programistę 10x, ale z dziesięciokrotnie większym bałaganem
4 kwi

