Claudeov kod postaje mamac za krađu podataka

Claudeov kod postaje mamac za krađu podataka📷 © Tech&Space
- ★Vidar i GhostSocks šire se preko lažnih GitHub repozitorija
- ★Anthropicov propust postaje oružje za socijalni inženjering
- ★Desetke tisuća preuzimanja – ali tko je meta?
Hakeri nisu čekali da se prašina slegne nakon propušta koda Claude 3 – veće su ga pretvorili u ključ za širenje malwarea. Prema analitičarima s BleepingComputera, lažni GitHub repozitoriji koji nude „izvorni kod Claudea“ zapravo instaliraju Vidar infostealer i GhostSocks proxy malware.
Razlika između demo verzije i stvarne prijetnje: dok je Anthropic još uvijek gušio požar oko curenja, zlonamjernici su već imali gotove kampanje. Korisnici koji traže „claude-3-source-leak“ na GitHubu dobivaju repozitorije s impozantnim brojem zvjezdica i commitova – sve dok ne pokrenu setup.exe.
Vidar, infostealer koji krađe lozinke, kriptovalute i podatke o karticama, ovdje dolazi u paketu s GhostSocksom, alatom za pretvaranje zarženih uređaja u proxy mrežu.

Između curenja koda i krađe identiteta: tko zapravo iskorištava kaos📷 © Tech&Space
Između curenja koda i krađe identiteta: tko zapravo iskorištava kaos
Ironično, dok se Anthropic bori s optužbama za prebrzo iznošenje proizvoda na tržište, njihova nespretnost sada ubrzava druge poslovne modele – one kriminalaca. Čudno je da je upravo GitHub, platforma koja se hvali transparentnošću, postala glavno žarište napada.
Prema podacima s GitHub Advisories, lažni repozitoriji su preuzeti desetke tisuća puta u manje od tjedan dana, uglavnom od razvojaša koji traže „brzi pristup“ Claudeovim modelima. Pravi signal ovdje nije samo u broju zaraza, već i u tome kako se vjerodostojnost AI curenja pretvara u valutu za phishing.
Anthropicov odgovor na krizu – objavljen 27. ožujka – usredotočio se na „jačanje interna sigurnosnih protokola“, ali je prešutio ključno pitanje: zašto su njihovi korisnici postali primarna meta.
U ovom kontekstu, važno je za korisnike biti svjesni potencijalnih rizika kada preuzimaju i koriste otvorene AI modele. Potrebno je da kompanije poput Anthropica preuzmu odgovornost za sigurnost svojih proizvoda i da transparentno komuniciraju s korisnicima o potencijalnim rizicima. Tek tako možemo spriječiti dalje širenje malwarea i zaštiti korisnike od nepotrebnih rizika.