Granola: AI bilješke koje svatko može pročitati

Granola: AI bilješke koje svatko može pročitati📷 © Tech&Space
- ★Privatno po defaultu, javno po linku
- ★AI trenira na bilješkama bez opt-outa
- ★Poduzetnici moraju ručno osigurati privatnost
Granola, AI aplikacija za bilježenje sastanaka, reklamira se kao alat koji čuva privatnost 'po defaultu'. No, stvarnost je drukčija: svatko s linkom može pročitati vaše bilješke, a tvrtka ih koristi za treniranje AI modela, osim ako korisnik eksplicitno ne odustane.
Istraživanje The Vergea otkriva da je riječ o sustavnom problemu koji pogađa sve korisnike koji nisu poduzetnički klijenti. Granola automatski pohranjuje bilješke u AWS oblaku, šifrirane pri prijenosu i mirovanju, ali to ne sprječava pristup putem generiranih linkova.
Tvrtka tvrdi da linkovi nisu indeksirani, no to je slaba utjeha ako se link slučajno proslijedi ili procurio. Za korisnike koji ne prate postavke, rizik je realan: bilješke s osjetljivim informacijama mogu postati javne bez ikakve namjere.
Još je problematičnije što Granola koristi bilješke za treniranje AI modela, osim za poduzetničke korisnike. To znači da korisnici koji nisu svjesni ove postavke dopuštaju tvrtci da koristi njihove podatke za poboljšanje algoritama – što je praksa koja postaje sve češća u svijetu AI alata, ali rijetko transparentno komunicirana.
Marketinški privatan, tehnički javno dostupan
Za razliku od konkurencije poput Notiona ili Ottera, Granola ne nudi jasnu obavijest o ovim postavkama prilikom registracije. Korisnici moraju sami pronaći opciju za promjenu dijeljenja na 'Samo moja tvrtka' ili 'Privatno', što je korak koji mnogi preskaču.
Istraživanje pokazuje da većina korisnika ne mijenja defaultne postavke, što Granolu stavlja u nezgodan položaj: alat koji je dizajniran za produktivnost postaje potencijalna prijetnja sigurnosti. Poduzetnički klijenti imaju bolju zaštitu – oni su automatski isključeni iz AI treninga, a dijeljenje je ograničeno na tvrtku.
No, za individualne korisnike i male timove, situacija je manje jasna. Tvrtka je u odgovoru na kritike najavila promjene u postavkama, ali zasad je na korisnicima da sami provjere što dijele i s kim.
Ovo nije prvi slučaj da AI alat podcjenjuje privatnost u ime praktičnosti. No, Granolin slučaj posebno je ilustrativan jer pokazuje kako se marketing 'privatnosti po defaultu' sukobljava s tehničkom stvarnošću.
Pravo pitanje nije samo što Granola radi, već koliko još sličnih alata ima skrivene postavke koje korisnici ne vide – ili ne razumiju.
Granolin slučaj pokazuje koliko je važno da korisnici budu informirani i aktivni u zaštiti svoje privatnosti. Korištenje AI alata može biti korisno, ali samo ako se korisnici sami pobrine da njihove informacije ne budu kompromitirane. Zbog toga je važno da se nastavljaju istraživanja i rasprave o etici i sigurnosti AI alata kako bi se osigurala zaštita korisnika.