Apple pozwoli na integrację innych chatbotów AI z Siri – donoszą źródła

Foto: Photo of a hand holding iPhone with new Siri and ChatGPT.
Użytkownicy iPhone’ów nie będą już skazani wyłącznie na jedno rozwiązanie AI – nadchodząca aktualizacja iOS 27 wprowadzi funkcję „Extensions”, która pozwoli na swobodną integrację Siri z zewnętrznymi chatbotami. Według doniesień Marka Gurmana z Bloomberga, Apple planuje otworzyć swój ekosystem na popularne modele, takie jak Gemini od Google czy Claude od Anthropic. Nowy system umożliwi pobieranie chatbotów bezpośrednio z App Store i przypisywanie ich do asystenta głosowego, co stanowi znaczące rozwinięcie obecnej współpracy z OpenAI i ich ChatGPT. Dla globalnej społeczności użytkowników iPadów i komputerów Mac oznacza to koniec ery zamkniętego ogrodu Apple w zakresie sztucznej inteligencji. Zamiast polegać na jednym silniku, będzie można samodzielnie zarządzać tym, który model najlepiej radzi sobie z konkretnymi zapytaniami lub zadaniami wykonywanymi wewnątrz aplikacji. Co więcej, Apple ma wykorzystywać technologię Gemini do trenowania własnych, mniejszych modeli AI, co zapowiada głęboką przebudowę Siri w kierunku autonomicznego bota podejmującego działania w imieniu użytkownika. Oficjalna prezentacja tych zmian ma nastąpić podczas konferencji WWDC, która rozpocznie się 8 czerwca. Decyzja ta wymusi na twórcach AI jeszcze ostrzejszą walkę o miejsce w kieszeniach milionów ludzi, zmieniając Siri w uniwersalny interfejs dla najpotężniejszych modeli językowych na świecie.
Strategia Apple w obszarze sztucznej inteligencji przechodzi fundamentalną transformację. Gigant z Cupertino, który przez lata utrzymywał Siri w szczelnym, autorskim ekosystemie, decyduje się na otwarcie drzwi dla konkurencji. Według najnowszych doniesień Marka Gurmana z Bloomberg, nadchodząca aktualizacja iOS 27 wprowadzi rewolucyjną funkcję o nazwie Extensions. Rozwiązanie to pozwoli użytkownikom na bezpośrednie połączenie Siri z zewnętrznymi chatbotami AI, co całkowicie zmieni sposób, w jaki wchodzimy w interakcję z iPhone'ami, iPadami oraz komputerami Mac.
Decyzja ta jest kontynuacją ścieżki wytyczonej przez wcześniejszą integrację z OpenAI’s ChatGPT. Tym razem jednak Apple nie ogranicza się do jednego partnera. System "Extensions" umożliwi wybór spośród szerokiego wachlarza modeli językowych dostępnych w App Store. Oznacza to, że Siri, zamiast polegać wyłącznie na własnych algorytmach lub jednym zewnętrznym dostawcy, będzie mogła delegować zapytania do takich potęg jak Google’s Gemini czy Anthropic’s Claude.

Koniec monopolu i era rozszerzeń AI
Wprowadzenie systemu Extensions to sygnał, że Apple rozumie ograniczenia własnych modeli w starciu z wyspecjalizowanymi chatbotami. Użytkownicy zyskają pełną kontrolę nad tym, które narzędzia AI mają dostęp do ich asystenta głosowego. W ustawieniach systemowych pojawi się możliwość włączania i wyłączania poszczególnych chatbotów, co przypomina mechanizm zarządzania uprawnieniami aplikacji. Dzięki temu Siri stanie się inteligentnym pośrednikiem (hubem), który potrafi pobierać odpowiedzi z najbardziej kompetentnego w danej chwili źródła.
Czytaj też
Co szczególnie istotne, integracja ta nie będzie ograniczać się jedynie do prostego przekazywania pytań. Nowe "Extensions" mają współpracować z planowaną przez Apple samodzielną aplikacją dla odświeżonej wersji Siri. Ten nowy asystent ma posiadać zdolność do podejmowania działań w imieniu użytkownika wewnątrz różnych aplikacji. Kluczowe cechy nadchodzącego systemu obejmują:
- Pełna integracja z Google's Gemini oraz Anthropic's Claude bezpośrednio przez interfejs Siri.
- Możliwość zarządzania chatbotami na poziomie systemowym (włączanie/wyłączanie poszczególnych modeli).
- Wsparcie dla urządzeń z ekosystemu iPhone, iPad oraz Mac.
- Wykorzystanie zewnętrznych modeli do wykonywania złożonych zadań wewnątrz aplikacji firm trzecich.
Z perspektywy branżowej, ruch ten jest niezwykle pragmatyczny. Apple, zamiast próbować przegonić Google czy OpenAI w wyścigu na wielkość modeli językowych, tworzy platformę, na której ci giganci muszą ze sobą konkurować o uwagę użytkownika iOS. To klasyczna strategia "walled garden", w której Apple zachowuje kontrolę nad interfejsem użytkownika, jednocześnie oferując mu najlepsze technologie dostępne na rynku.
Sojusz z Google i trening modeli
Choć otwarcie na wielu dostawców jest nowością, fundamentem zmian w Siri wydaje się być zacieśniająca się współpraca z Google. Raporty z początku roku wskazywały, że Apple testuje wykorzystanie technologii Gemini do napędzania kluczowych funkcji asystenta. Najnowsze informacje od The Information rzucają na to nowe światło: umowa między gigantami ma obejmować nie tylko dostarczanie odpowiedzi przez chatbota, ale również prawo Apple do wykorzystania Gemini do trenowania własnych, mniejszych modeli AI.

To strategiczne partnerstwo pozwala Apple na dwutorowy rozwój. Z jednej strony firma buduje własne, zoptymalizowane pod kątem prywatności modele działające lokalnie na urządzeniach (on-device AI). Z drugiej – zapewnia użytkownikom dostęp do potężnych, chmurowych modeli typu Claude czy Gemini, gdy zadanie wymaga większej mocy obliczeniowej lub specyficznej wiedzy. Taki hybrydowy model wydaje się być jedyną drogą do stworzenia asystenta, który jest jednocześnie bezpieczny i rzeczywiście inteligentny.
Apple zamierza zaprezentować najnowsze wersje swoich systemów operacyjnych podczas konferencji Worldwide Developers Conference (WWDC), która rozpocznie się 8 czerwca. To właśnie wtedy poznamy finalne szczegóły dotyczące iOS 27 i sposobu, w jaki "Extensions" zmienią codzienną pracę z urządzeniami tej marki.
Nowy paradygmat asystenta głosowego
Przekształcenie Siri w bota bardziej przypominającego ChatGPT to proces, który trwał od miesięcy. Apple musiało nadrobić dystans do konkurencji, która w 2023 i 2024 roku zrewolucjonizowała pojęcie interakcji z komputerem. Przecieki o iOS 27 sugerują, że Siri przestanie być jedynie narzędziem do ustawiania przypomnień i sprawdzania pogody. Dzięki integracji z zewnętrznymi modelami, asystent zyska zdolność do głębokiej analizy kontekstu, generowania kodu, pisania tekstów czy zaawansowanej edycji danych w aplikacjach biurowych.
Dla deweloperów z Anthropic czy Google, obecność w systemie "Extensions" to ogromna szansa na dotarcie do miliardów użytkowników bez konieczności walki o to, by użytkownik ręcznie otwierał ich dedykowaną aplikację. Dla Apple to z kolei sposób na uniknięcie zarzutów o praktyki monopolistyczne – dając wybór między Claude, Gemini a ChatGPT, firma pozycjonuje się jako neutralna platforma dostarczająca najlepsze rozwiązania AI.
Wszystko wskazuje na to, że Apple nie zamierza już walczyć o miano twórcy "najlepszego AI na świecie". Zamiast tego, firma chce stworzyć "najlepszy interfejs dla AI". Otwarcie Siri na zewnętrzne rozszerzenia w iOS 27 to przyznanie, że w świecie generatywnej sztucznej inteligencji kluczem do sukcesu nie jest izolacja, lecz orkiestracja wielu różnych modeli. Jeśli doniesienia o czerwcowej premierze na WWDC się potwierdzą, czeka nas najbardziej znacząca zmiana w historii iPhone'a od czasu wprowadzenia App Store. Siri, jaką znamy, przechodzi do historii, ustępując miejsca elastycznemu ekosystemowi inteligentnych rozszerzeń.
Więcej z kategorii Sztuczna inteligencja

Debiut Gemini 3.1 Flash Live sprawi, że trudniej będzie odróżnić bota od człowieka

ChatGPT nie będzie flirtować: „niegrzeczny tryb” odstrasza inwestorów wedle raportu

Luka w umiejętnościach AI staje się faktem – power userzy zyskują przewagę






