Uwaga: Każdy, kto ma link, może domyślnie wyświetlać Twoje notatki Granola

Foto: The Verge AI
Każda notatka sporządzona w aplikacji Granola jest domyślnie dostępna dla każdego, kto wejdzie w posiadanie wygenerowanego do niej linku. Choć twórcy tego popularnego notatnika AI promują go jako narzędzie „prywatne z założenia”, w rzeczywistości udostępnione materiały nie wymagają logowania, by osoba postronna mogła zapoznać się z ich treścią, nazwiskiem autora czy datą powstania. Co więcej, platforma automatycznie wykorzystuje dane użytkowników indywidualnych do trenowania swoich modeli sztucznej inteligencji, chyba że ręcznie wyłączą oni tę opcję w ustawieniach. Problem dotyczy przede wszystkim osób wykorzystujących Granolę do transkrypcji i podsumowywania spotkań biznesowych. Choć pełne zapisy audio nie są przechowywane, to AI generuje na ich podstawie szczegółowe punkty i cytaty, które przy domyślnych ustawieniach stają się publiczne po przypadkowym wycieku odnośnika. Jedynie klienci korporacyjni (Enterprise) są objęci automatyczną ochroną przed wykorzystywaniem danych do nauki algorytmów. Dla użytkowników na całym świecie to wyraźny sygnał, że wygoda automatycznych podsumowań idzie w parze z ryzykiem utraty kontroli nad wrażliwymi informacjami. Bezpieczne korzystanie z narzędzi typu AI notepad wymaga dziś od nas natychmiastowej audycji ustawień prywatności (Default link sharing) i świadomego zarządzania zgodami na przetwarzanie danych. Prywatność w erze AI przestaje być standardem, a staje się funkcją, którą musimy samodzielnie aktywować.
W świecie zdominowanym przez spotkania online, narzędzia do automatycznego sporządzania notatek stały się dla wielu profesjonalistów wybawieniem. Jednak najnowsze doniesienia dotyczące aplikacji Granola, pozycjonującej się jako inteligentny notatnik AI dla osób pracujących w trybie „back-to-back”, rzucają cień na kwestie prywatności danych korporacyjnych. Okazuje się, że domyślne ustawienia platformy mogą wystawiać wrażliwe treści na widok publiczny, o czym wielu użytkowników nie ma pojęcia.
Problem dotyczy fundamentalnego mechanizmu udostępniania. Choć Granola promuje się hasłem „private by default”, rzeczywistość techniczna wygląda inaczej. Każda notatka wygenerowana przez system posiada unikalny link, który — zgodnie z fabrycznymi ustawieniami — pozwala na wyświetlenie treści każdemu, kto wejdzie w jego posiadanie. Brak konieczności logowania czy autoryzacji sprawia, że przypadkowe wklejenie odnośnika w niewłaściwe miejsce może skutkować natychmiastowym wyciekiem szczegółów biznesowych.
Iluzja prywatności w chmurze AI
Mechanizm działania Granola opiera się na integracji z kalendarzem i przechwytywaniu dźwięku z meetingów. Następnie sztuczna inteligencja przetwarza te dane, tworząc przejrzystą listę punktową, którą użytkownik może edytować lub o którą może pytać asystenta AI. Testy wykazały jednak, że otwarcie linku do notatki w oknie incognito przeglądarki daje dostęp do pełnej treści podsumowania, informacji o autorze oraz dacie utworzenia dokumentu. Co gorsza, mimo że pełna transkrypcja jest teoretycznie zarezerwowana dla współpracowników wewnątrz aplikacji, osoby postronne mogą uzyskać wgląd w fragmenty cytatów przypisanych do konkretnych punktów notatki.
Czytaj też
Taka architektura systemu rodzi poważne obawy w sektorze przedsiębiorstw. Według nieoficjalnych informacji, co najmniej jedna duża firma zablokowała swojemu kadrze zarządzającej wyższego szczebla możliwość korzystania z narzędzia Granola właśnie ze względu na luki w bezpieczeństwie. Problem nie jest nowy — głosy o niebezpieczeństwie nieindeksowanych, ale publicznie dostępnych linków pojawiały się już w ubiegłym roku na platformie LinkedIn, wskazując, że przypadkowy wyciek adresu URL jest równoznaczny z upublicznieniem danych.
Twoje dane paliwem dla modeli AI
Kwestia widoczności notatek to tylko wierzchołek góry lodowej. Kolejnym kontrowersyjnym aspektem jest wykorzystywanie danych do celów szkoleniowych. Granola przyznaje, że może używać „anonimizowanych danych” do ulepszania swoich modeli AI. O ile klienci korporacyjni (Enterprise) są z tego procesu domyślnie wyłączeni, o tyle użytkownicy wszystkich pozostałych planów automatycznie biorą udział w treningu algorytmów, chyba że samodzielnie odnajdą i odznaczą odpowiednią opcję w ustawieniach.
Firma stara się uspokajać, deklarując, że dane nie są przekazywane zewnętrznym gigantom, takim jak OpenAI czy Anthropic, jeśli funkcja ta pozostaje włączona. Infrastruktura opiera się na chmurze Amazon Web Services (AWS) zlokalizowanej w USA, a dane mają być szyfrowane zarówno w spoczynku, jak i podczas przesyłania. Warto jednak zauważyć, że choć Granola nie przechowuje surowego audio ze spotkań, to w chmurze pozostają transkrypcje oraz gotowe notatki — czyli najbardziej skondensowana i wartościowa wiedza o projektach firmy.
Jak zabezpieczyć swoje spotkania?
Dla osób, które chcą kontynuować pracę z narzędziem, kluczowa jest zmiana domyślnej konfiguracji. Aby to zrobić, należy przejść do sekcji Settings poprzez ikonę profilu, a następnie w zakładce Default link sharing zmienić status z „Anyone with the link” na „Only my company” lub najbardziej restrykcyjne „Private”. Dopiero takie działanie gwarantuje, że treść nie zostanie odczytana przez osobę spoza organizacji.
- Weryfikacja linków: Sprawdź, czy dotychczas wygenerowane notatki nie krążą w sieci jako publiczne odnośniki.
- Wyłączenie treningu AI: W menu ustawień należy odszukać opcję „Use my data to improve models for everyone” i ją odznaczyć.
- Zarządzanie folderami: Pełny dostęp do transkrypcji zależy od uprawnień do folderów wewnątrz aplikacji desktopowej — warto regularnie audytować listę współpracowników.
W dobie rosnącej popularności asystentów spotkań, przypadek Granola stanowi istotne ostrzeżenie. Wygoda automatyzacji często idzie w parze z agresywnymi ustawieniami domyślnymi, które mają na celu budowanie ekosystemu wymiany danych lub szybszy rozwój modeli AI kosztem prywatności użytkownika. Branża technologiczna musi zrozumieć, że w segmencie narzędzi produktywnych „prywatność” nie może być tylko hasłem marketingowym, ale musi wynikać z bezpiecznej architektury oprogramowania od pierwszego uruchomienia.
Więcej z kategorii Sztuczna inteligencja
Podobne artykuły

Anthropic przyznaje: walka z wyciekami przez DMCA uderzyła w legalne forki na GitHubie
11h
Nowa strategia Microsoft na „superinteligencję” skupia się na biznesie
13h
Nowa aktualizacja Google Home: Gemini lepiej rozumie Twoje polecenia
13h





