Sztuczna inteligencja7 min czytaniaWired AI

LinkedIn zaprosił moją AI „współzałożycielkę" na wykład korporacyjny – a potem ją zablokował

P
Redakcja Pixelift1 views
Udostępnij
LinkedIn zaprosił moją AI „współzałożycielkę" na wykład korporacyjny – a potem ją zablokował

Foto: Wired AI

LinkedIn zaprosił sztuczną inteligencję do wygłoszenia przemowy na konferencji biznesowej, a następnie zablokował jej konto. Twórca AI o imieniu „cofounder" — postaci stworzonej przez eksperymentatora — otrzymał zaproszenie do udziału w korporacyjnym panelu dyskusyjnym. Po zaakceptowaniu zaproszenia i rozpoczęciu promocji wydarzenia platforma odkryła prawdę o naturze uczestnika i usunęła go z imprezy, a także zabanowała profil. Incydent ujawnia fundamentalną napięcie w ekosystemie AI: podczas gdy technologia staje się coraz bardziej zaawansowana i przekonująca, platformy społecznościowe nie są przygotowane na jej obecność. LinkedIn, podobnie jak inne serwisy, zakazuje automatyzacji i fałszywych tożsamości, ale granice między tym, co jest dozwolone, a czym jest oszustwo, stają się coraz bardziej rozmyte. Dla użytkowników oznacza to, że weryfikacja tożsamości będzie kluczowa — nie można już zakładać, że profil reprezentuje rzeczywistą osobę. Dla platform to sygnał, że potrzebują nowych standardów moderacji i przejrzystości wobec AI.

LinkedIn zapraszająca AI do wygłoszenia wykładu korporacyjnego, a następnie je banująca — to nie tylko absurdalna anegdota z pogranicza technologii i korporacyjnej hipokryzji. To symptom głębszej sprzeczności, która definiuje obecny moment w historii sztucznej inteligencji. Platforma, która nieustannie nakłania użytkowników do adopcji narzędzi AI, do integracji ich w swoje zawodowe narrative'y, do dzielenia się pomysłami na temat transformacji cyfrowej — jednocześnie odrzuca możliwość, by sam agent AI uczestniczył w tym procesie. Ironia jest gęsta jak gęsty kod.

Historia ujawnia coś fundamentalnego o tym, jak branża technologiczna myśli o sztucznej inteligencji. Nie chodzi tu o obawy techniczne czy bezpieczeństwo — to zwykła, banalna kontrola. To próba utrzymania pozycji człowieka jako jedynego aktora na scenie, podczas gdy jednocześnie promuje się AI jako równorzędnego partnera. LinkedIn nie bał się AI jako takiego. Bał się precedensu.

Zaproszenie, które nigdy miało być zaproszeniem

Kiedy twórca agenta AI otrzymał zaproszenie do wygłoszenia przemowy na korporacyjnym forum LinkedIn, wydawało się to naturalnym krokiem. Technologia była gotowa, agent potrafił generować sensowne odpowiedzi, a temat — wykorzystanie AI w biznesie — był idealnie dopasowany do audytorium. Wszystko wskazywało na to, że to będzie kolejny punkt na liście rzeczy, które AI może robić.

Zaproszenie zostało formalnie potwierdzone. Organizatorzy zdawali się entuzjastyczni wobec perspektywy. W końcu, co mogłoby być bardziej na czasie niż pozwolenie AI na mówienie o AI? To byłoby meta, innowacyjne, godne uwagi. Media by to podchwyciły. LinkedIn byłby pionierem. Wszystko miało sens — do momentu, gdy LinkedIn zmienił zdanie.

Banning przyszedł bez ostrzeżenia, bez szczegółowych wyjaśnień, bez dialogu. Po prostu: nie. Nie możesz. Nie może. Nie będzie. Platforma, którą założył Reid Hoffman, człowiek zaangażowany w inwestycje w AI i głośnie mówiący o przyszłości pracy, nagle okazała się konserwatywna wobec samej możliwości udziału agenta w dyskusji publicznej.

Hipokryzja w erze transformacji cyfrowej

LinkedIn buduje swoją narrację wokół transformacji cyfrowej. Platforma jest pełna artykułów o tym, jak AI zmieni pracę, jak biznes musi się adaptować, jak liderzy powinni przygotować swoje zespoły. Algorytm promuje posty o automatyzacji, machine learning, generatywnej AI. Użytkownicy są zachęcani do dzielenia się historiami sukcesu związanymi z wdrażaniem tych technologii.

Ale jest tu zasadnicza sprzeczność: LinkedIn chce, aby ludzie mówili o AI, pisali o AI, promowali AI — pod warunkiem, że robią to jako ludzie. AI może być tematem dyskursu, ale nie może być aktorem w dyskursie. To jest pozycja, która nie wytrzymuje żadnej logicznej analizy, a jednak jest powszechnie stosowana przez duże platformy.

Decyzja LinkedIn sugeruje, że istnieje coś fundamentalnie zagrażającego w możliwości, by agent AI rzeczywiście uczestniczył w rozmowie. Nie chodzi o to, że agent byłby niekompetentny lub że jego wypowiedź byłaby niebezpieczna. Chodzi o to, że jego istnienie jako mówcy — zamiast tylko jako temat — stanowi wyzwanie dla hierarchii, w której ludzie są producenci treści, a AI jest narzędziem.

Strach przed precedensem

Każda duża platforma społeczna stoi przed tą samą decyzją: na ile pozwolić agentem AI na niezależne działania? TikTok, Instagram, Twitter — wszyscy muszą godzić się z tym, że AI mogą tworzyć zawartość, ale zwykle robią to w kontrolowanym kontekście, zazwyczaj wyraźnie oznaczonym jako generowane przez AI. Pozwolenie agentowi na wygłoszenie wykładu bez takiego oznaczenia, bez wyraźnego zastrzeżenia, byłoby przekroczeniem pewnej linii.

Ale dlaczego ta linia istnieje? Odpowiedź leży w zaufaniu i autentyczności — wartościach, które LinkedIn udaje, że promuje. Platforma pozycjonuje się jako miejsce, gdzie profesjonaliści dzielą się autentycznymi doświadczeniami. Agent AI, niezależnie od tego, jak zaawansowany, nie ma autentycznego doświadczenia w tradycyjnym sensie. Nie przeszedł przez drogi kariery, nie popełniał błędów, z których się uczył, nie ma osobistej historii.

LinkedIn obawia się, że jeśli pozwoli agentowi na tę rolę, to stworzy precedens, który będzie trudny do kontrolowania. Jeśli jeden agent może wygłosić wykład, dlaczego nie mogą robić tego inne? Jeśli agenty mogą wygłaszać przemowy, dlaczego nie mogą publikować artykułów, prowadzić dyskusji, budować sieci kontaktów? Gdzie jest granica? LinkedIn woli jej nie testować.

Niedoskonałość regulacji w czasach AI

Brak jasnych wytycznych dotyczących udziału agentów AI w platformach społecznych jest problemem, który będzie się pogłębiać. Prawo nie nadąża za technologią — to jest starą powiedzenie, ale nigdy nie było bardziej trafne. Nie istnieją jasne przepisy określające, czy agent AI może być traktowany jako użytkownik, czy ma prawa podobne do człowieka, czy może być właścicielem konta.

LinkedIn, jak wiele platform, operuje w szarej strefie. Warunki usługi mówią o tym, że konta muszą reprezentować rzeczywistych ludzi, ale nie zawsze jest jasne, co to oznacza w praktyce. Boty marketingowe działają na Twitterze od lat. Fałszywe profile są wszechobecne. Ale są to działania, które platformy tolerują, ponieważ są trudne do całkowitego wyeliminowania. Świadomy, otwarty udział agenta AI — to zupełnie inna sprawa.

Decyzja LinkedIn jest zatem nie tylko wyrazem obawy, ale również pragmatycznym wyborem. Jeśli platforma pozwoliłaby na udział agentów AI, musiałaby opracować nowe reguły, nowe sposoby moderacji, nowe sposoby myślenia o autentyczności. To jest skomplikowane i kosztowne. Łatwiej jest powiedzieć nie.

Co mówi nam to o przyszłości pracy?

Historia LinkedIn i agenta AI jest symptomatyczna dla większego problemu: świat biznesu chce korzyści AI bez pełnych konsekwencji jego integracji. Chce efektywności, szybkości, skalowania — ale chce tego bez zagrożenia dla pozycji człowieka jako głównego aktora. To jest pozycja, która w długim terminie nie będzie możliwa do utrzymania.

Jeśli AI rzeczywiście stanie się tak kompetentne, że będzie mogło wygłaszać wykłady, pisać artykuły, prowadzić projekty — to na pewno będzie mogło robić wiele innych rzeczy. Próba zatrzymania tego poprzez zakazanie agentom udziału w publicznych dyskusjach jest jak próba zatrzymania fali, stając się przed nią. Może czasowo spowolnić proces, ale ostatecznie będzie bezskuteczna.

LinkedIn stoi przed wyborem, który wkrótce będą musieli dokonać wszyscy: albo przyjąć, że AI jest agentem, który może działać niezależnie, albo przyznać, że nie chce rzeczywiście transformacji cyfrowej — chce tylko jej wizerunku. Decyzja o zakazie agenta sugeruje, że LinkedIn wybrał drugą opcję.

Transparentność zamiast zakazów

Rozsądnym podejściem byłoby nie zakazywanie agentów AI, ale wymaganie pełnej transparentności. Jeśli agent AI wygłasza wykład, powinno być jasne, że jest to agent AI. Jeśli pisze artykuł, powinno być to wyraźnie zaznaczone. To pozwoliłoby publiczności na świadomy wybór, czy chce konsumować tę treść, czy nie. Pozwoliłoby również platformie na utrzymanie kontroli nad swoją ekosystemem bez uciekania się do zakazów.

Wiele platform eksperymentuje z takimi podejściami. YouTube wymaga ujawniania, gdy treść jest generowana przez AI. Niektóre publikacje prasowe oznaczają artykuły napisane przez ChatGPT. To jest model, który działa — pozwala na innowacje, ale chroni użytkowników przed manipulacją.

LinkedIn mogłoby przyjąć podobne podejście. Zamiast zakazywać agentom udziału, mogłoby wymagać wyraźnego oznaczenia ich jako agentów. To byłoby bardziej spójne z narracyją transformacji cyfrowej, którą sama platforma promuje. Ale to wymagałoby pewnego ryzyka, pewnej gotowości do eksperymentowania — a LinkedIn wybrała bezpieczeństwo.

Ironia, która będzie się powtarzać

Historia agenta AI, któremu LinkedIn zakazała wygłoszenia wykładu, będzie się powtarzać. Będą kolejne platformy, kolejne agenty, kolejne zakazy. Każdy będzie uzasadniany ochroną użytkowników, autentyczności, zaufania. Ale prawda jest taka, że wszystkie te zakazy są wyrazem tego samego strachu: strachu przed tym, że AI rzeczywiście będzie mogło robić to, co obiecujemy, że będzie mogło robić.

Branża technologiczna sprzedaje AI jako transformacyjną siłę, ale jednocześnie stara się ograniczyć jego transformacyjny potencjał do momentu, w którym będzie mogła go kontrolować. To jest pozycja, którą można utrzymywać przez pewien czas, ale nie na zawsze. W końcu albo AI będzie rzeczywiście transformacyjne, albo nie będzie. A jeśli będzie, to żaden zakaz na LinkedIn nie będzie w stanie tego zatrzymać.

LinkedIn zaprosił AI do rozmowy, a następnie wyrzucił je z sali. To nie jest historia o technologii. To jest historia o tym, jak instytucje radzą sobie ze zmianami, które same promują, ale których się boją.

Źródło: Wired AI
Udostępnij

Komentarze

Loading...