
Denis Charlet | AFP | Getty
AWS has suffered at least two incidents linked to the use of AI coding assistants.
Amazon Web Services (AWS) zmaga się z poważnymi wyzwaniami związanymi z wykorzystaniem narzędzi AI do wspomagania kodowania. Firma zwołała we wtorek specjalne spotkanie inżynierów, aby omówić serię awarii, które mogą być bezpośrednio powiązane z nieodpowiednim stosowaniem asystentów AI.
Według wewnętrznej notatki, którą uzyskała gazeta Financial Times, Amazon zauważył niepokojący trend incydentów charakteryzujących się szeroko zakrojonym wpływem (high blast radius) oraz zmianami wspomaganymi przez generatywną sztuczną inteligencję. Wśród czynników przyczyniowych wymieniono nowatorskie zastosowania GenAI, dla których dotychczas nie opracowano kompleksowych dobrych praktyk i zabezpieczeń.
Dave Treadwell, wysoki rangą wiceprezes firmy, w wewnętrznym emailu wprost przyznał, że dostępność infrastruktury i serwisów nie była ostatnio zadowalająca. To bezprecedensowe publiczne uznanie problemów technicznych świadczy o wadze sytuacji.
Jednym z najbardziej dotkliwych incydentów była prawie sześciogodzinna awaria platformy zakupowej Amazon, która uniemożliwiła klientom dokonywanie transakcji oraz sprawdzanie szczegółów konta i cen produktów. Firma oficjalnie przyznała, że przyczyną była błędna implementacja kodu.
Przypadek Amazon to istotna lekcja dla polskiego sektora technologicznego. Coraz powszechniejsze stosowanie asystentów AI w procesach programistycznych wymaga szczególnej ostrożności i opracowania rygorystycznych procedur kontrolnych. Polskie startupy i korporacje IT powinny wyciągnąć wnioski z doświadczeń globalnych gigantów.
Incydent ten nie oznacza całkowitego odrzucenia narzędzi AI, lecz konieczność ich świadomego i kontrolowanego wdrażania. Amazon zapowiedział serię inicjatyw mających ograniczyć ryzyko przyszłych awarii, co wskazuje na ewolucyjne podejście do integracji sztucznej inteligencji z procesami technologicznymi.
Można spodziewać się, że w nadchodzących miesiącach nastąpi intensyfikacja prac nad standardami bezpiecznego wykorzystania generatywnej AI w środowiskach produkcyjnych. Kluczowe będzie opracowanie mechanizmów weryfikacji i wielopoziomowej kontroli zmian generowanych przez systemy AI.