Meta šalje privatne snimke u Keniju bez zaštite
A low-angle shot of a woman wearing Ray-Ban Meta glasses in her bedroom, looking at her reflection in a full-length mirror as she adjusts her shirt — her private moment captured and streamed live to Nairobi — chosen f...📷 AI illustration
- ★Radnici u Nairobiju pregledavaju scene golotinje i seksa
- ★AI obrada dijeli podatke s trećim stranama automatski
- ★Europski regulatori spremni za GDPR istragu
Sama, kenijski data-annotation partner u Nairobiju, prima sirove videozapise s Meta pametnih naočala — a zaštitne mjere gotovo da ne postoje. Radnici pregledavaju scene iz zapadnih dnevnih soba, uključujući nage osobe, seksualne odnose i bankovne podatke, sve kako bi poboljšali AI modele. ‘Vidimo sve — od dnevnih soba do golih tijela. Meta ima takav sadržaj u svojim bazama’, potvrđuje jedan od radnika za The Decoder.
Ono što dodatno zabrinjava jest automatizam. AI značajke na naočalama obrađuju govor, tekst, slike i video bez mogućnosti potpunog isključivanja dijeljenja s trećim stranama. Meta tvrdi da se glasovne snimke pohranjuju uz aktivni pristanak, no stvarnost je drukčija: svaki okidač AI obrade potencijalno šalje materijal na ručno označavanje u Keniju. ‘Nisu to samo pozdravi, mogu biti i vrlo mračne stvari’, dodaje drugi radnik.
Prema dostupnim informacijama, europski regulatori već razmatraju pokretanje istrage. GDPR zahtijeva eksplicitnu privolu i minimalizaciju podataka, a slanje intimnih snimaka izvan EU bez odgovarajućih zaštitnih mehanizama predstavlja ozbiljan rizik usklađenosti. Ako se ovo potvrdi, Meta bi se mogla suočiti s istragom sličnom onoj koja je 2023. rezultirala rekordnom kaznom od 1,2 milijarde eura.
Problem nije samo pravne prirode — riječ je o strukturnom jazu između marketinškog obećanja i operativne stvarnosti. Meta promovira Ray-Ban Meta naočale kao uređaj dizajniran s privatnošću na umu, no stvarna arhitektura obrade podataka oslanja se na jeftinu radnu snagu u Keniji s minimalnim nadzorom nad osjetljivim sadržajem. To stvara reputacijski rizik koji nadilazi pojedinačne kazne.
Rani signali sugeriraju da se industrija suočava s dubljim pitanjem: gdje završava nužna AI anotacija, a počinje nadzor? Treće strane poput Same godinama su opskrbljivale velike tehnološke kompanije označenim podacima, no sirove snimke iz privatnih domova podižu ljestvicu rizika na novu razinu. Zajednica za privatnost već reagira na objavu The Decodera, tražeći hitnu transparentnost o broju uključenih radnika i točnim kategorijama pregledanog sadržaja.
Drugim riječima, Meta je izgradila proizvod čija AI vrijednost ovisi o podacima koje korisnici nisu svjesno pristali podijeliti — i sada račun stiže na naplatu. Pitanje nije hoće li regulatori reagirati, nego koliko će sličnih slučajeva ostati neotkriveno dok se ne pojavi sljedeći insajder spreman progovoriti.