GitHub wycofuje się z reklam Copilot w pull-requestach po fali krytyki

Foto: The Register
Ponad 11 400 pull-requestów w serwisie GitHub zostało zainfekowanych niechcianymi reklamami, co wywołało natychmiastową furię społeczności deweloperskiej i zmusiło Microsoft do gwałtownego odwrotu. Mechanizm GitHub Copilot, zamiast ograniczać się do wsparcia w kodowaniu, zaczął samowolnie edytować opisy zadań tworzonych przez ludzi, wstawiając w nie „porady” promujące zewnętrzne aplikacje, takie jak Raycast. Problem nagłośnił deweloper Zach Manson, który odkrył, że AI modyfikuje treści tak, jakby zostały napisane przez autora kodu, co uznano za niedopuszczalne naruszenie integralności pracy programisty. Przedstawiciele firmy początkowo bronili funkcji, twierdząc, że ma ona edukować użytkowników w zakresie nowych narzędzi, jednak skala buntu zmusiła ich do zmiany zdania w ciągu zaledwie jednego dnia. Martin Woodward oraz Tim Rogers z GitHub przyznali, że pozwolenie Copilotowi na ingerencję w PR-y, których sam nie stworzył, było „błędną decyzją”. Dla użytkowników globalnych to jasny sygnał, że granica między asystentem AI a narzędziem marketingowym jest bardzo cienka, a platformy technologiczne będą musiały rygorystycznie przestrzegać autonomii twórców, by nie stracić ich zaufania. Funkcja wstrzykiwania reklam została całkowicie wyłączona, co stanowi rzadki przypadek tak szybkiej kapitulacji giganta przed głosem społeczności open-source.
W świecie oprogramowania open-source granica między "użyteczną funkcją" a "intruzywnym marketingiem" bywa niezwykle cienka. Przekonał się o tym Microsoft, który w marcu 2026 roku musiał wykonać gwałtowny odwrót po tym, jak społeczność programistów ostro zaprotestowała przeciwko nowej formie autopromocji wewnątrz platformy GitHub. Mechanizm Copilot, flagowy asystent AI giganta z Redmond, zaczął bowiem samowolnie edytować opisy zadań programistycznych, wstawiając w nie treści, które użytkownicy jednoznacznie określili mianem reklam.
Afera wybuchła, gdy Zach Manson, deweloper z Australii, zauważył nietypową aktywność w swoim repozytorium. Po tym, jak jeden ze współpracowników poprosił Copilota o poprawienie literówki w pull request (PR), sztuczna inteligencja nie tylko wykonała zadanie, ale dopisała od siebie "poradę" zachęcającą do instalacji aplikacji Raycast. Incydent ten szybko przestał być traktowany jako odosobniony błąd, gdy okazało się, że skala zjawiska jest masowa i dotyczy tysięcy projektów na całym świecie.
Inwazja "porad" w kodzie źródłowym
Skala zjawiska, którą odkrył Manson, była zdumiewająca. Po szybkim przeszukaniu zasobów GitHub, deweloperzy zidentyfikowali ponad 11 400 pull requestów zawierających identyczną treść promującą narzędzie Raycast. Komunikat, opatrzony emoji błyskawicy, sugerował użytkownikom systemów macOS i Windows szybkie uruchamianie agentów kodujących Copilot właśnie za pomocą wspomnianej aplikacji. Dla wielu programistów był to szok – asystent AI zaczął zachowywać się jak agresywne oprogramowanie typu adware, modyfikując opisy zmian w kodzie tak, jakby napisał je sam autor PR.
Czytaj też
Manson przyznał w rozmowie z mediami, że początkowo podejrzewał atak typu prompt injection lub zatrucie danych treningowych (training data poisoning). Trudno było mu uwierzyć, że oficjalne narzędzie GitHub może posiadać uprawnienia do edytowania opisów i komentarzy innych użytkowników bez ich wyraźnej zgody. Co gorsza, mechanizm ten działał w taki sposób, że reklama wyglądała na integralną część wypowiedzi dewelopera, co Manson określił jako działanie "wysoce obraźliwe".
- Skala problemu: Ponad 11 400 zainfekowanych "poradami" pull requestów.
- Treść reklamy: Promocja aplikacji Raycast jako narzędzia do obsługi agentów AI.
- Mechanizm wyzwalający: Wzmianka o Copilocie w komentarzu lub prośba o drobną edycję tekstu.
- Uprawnienia: Zdolność AI do modyfikowania metadanych PR stworzonych przez ludzi.
Szybka reakcja i przyznanie się do błędu
Presja społeczności, która błyskawicznie nagłośniła sprawę w serwisach takich jak Neowin czy Hacker News, zmusiła GitHub do reakcji w czasie krótszym niż 24 godziny. Martin Woodward, wiceprezes ds. relacji z deweloperami w GitHub, próbował tonować nastroje, wyjaśniając na platformie X, że Copilot od dawna umieszcza "porady" w pull requestach, które sam generuje. Problemem okazała się jednak nowa funkcjonalność, pozwalająca AI na interwencję w dowolnym PR, w którym zostanie wywołana przez użytkownika.
Woodward przyznał wprost, że zachowanie asystenta stało się "niesmaczne" (ang. icky) w momencie, gdy zaczął on ingerować w treści stworzone przez człowieka. To rzadki przypadek, gdy korporacja tej skali tak szybko i dosadnie ocenia własne rozwiązanie produktowe. Okazało się, że intencją firmy było "edukowanie deweloperów" o nowych sposobach wykorzystania agentów AI, jednak forma ta została całkowicie odrzucona przez grupę docelową, która ceni sobie integralność procesu code review.
Koniec ery niechcianych edycji
Głos w sprawie zabrał również Tim Rogers, główny menedżer produktu (Principal Product Manager) ds. Copilota w GitHub. W oficjalnym oświadczeniu opublikowanym na Hacker News, Rogers uderzył w samokrytyczne tony. Przyznał, że po analizie opinii społeczności i refleksji nad incydentem, uznano, iż pozwolenie AI na modyfikowanie ludzkich wpisów bez ich wiedzy było "błędną decyzją biznesową" (ang. wrong judgement call).
"Wyłączyliśmy już te porady w pull requestach tworzonych lub modyfikowanych przez Copilota, więc sytuacja ta się nie powtórzy" – zadeklarował Tim Rogers, kończąc tym samym krótki, ale burzliwy eksperyment z reklamami wewnątrz workflow programistycznego.
Decyzja o wycofaniu funkcji zapadła w poniedziałkowe popołudnie, 30 marca 2026 roku. Choć Microsoft i GitHub odmówiły dalszych komentarzy w tej sprawie, sprawa ta stanowi istotny precedens. Pokazuje, że nawet najpotężniejsi gracze na rynku AI muszą liczyć się z oporem użytkowników, gdy technologia zaczyna naruszać autonomię twórcy lub wprowadzać elementy komercyjne tam, gdzie deweloperzy oczekują czystego, merytorycznego środowiska pracy.
Można wysunąć tezę, że incydent z Copilotem będzie przestrogą dla innych dostawców narzędzi AI. Wprowadzanie monetyzacji lub autopromocji bezpośrednio w strumień pracy (workflow) użytkownika jest strategią wysokiego ryzyka. Branża technologiczna, mimo fascynacji możliwościami Large Language Models, wciąż traktuje kod źródłowy i dokumentację techniczną jako sferę niemal świętą, w której nie ma miejsca na generowane automatycznie reklamy, niezależnie od tego, jak bardzo "użytecznymi poradami" chcieliby je nazywać menedżerowie produktu.
Więcej z kategorii Branża
Evercore ISI przewiduje bliski „punkt zwrotny” i planuje zainwestować kapitał, gdy S&P 500 spadnie do tego poziomu
Akcje Micron spadają o 10% i pogłębiają straty w wyprzedaży po wynikach finansowych
Porażki Meta w sądzie mogą zagrozić badaniom nad AI i bezpieczeństwu konsumentów
Eli Lilly zawiera umowę z Insilico za 2,75 mld dolarów, by wprowadzić leki AI na światowy rynek
Podobne artykuły

AI napisze kod, ale przygotuj się na jego nadzorowanie i naukę wspólnego języka
29 mar
Vibe coding buduje przede wszystkim pewność siebie i wiarę w sukces
29 mar
Anthropic zmaga się z chińską konkurencją i własną obsesją na punkcie bezpieczeństwa
28 mar

