Vibe hacking: AI usnadňuje práci i kyberzločincům
Zpět na blog5. 9. 2025
Společnost Anthropic, vývojář populárního AI modelu Claude, odhalila závažné zneužití své technologie ze strany kyberzločinců. Podle nové zprávy byl jejich jazykový model Claude Code využit k vývoji ransomwaru, vedení vyděračských kampaní, a dokonce i k šíření sofistikovaných phishingových a dezinformačních operací napříč různými regiony.
Nejvýraznějším příkladem je případ označený jako GTG-5004, kdy britský aktér kybernetické hrozby využil Claude Code k vytvoření plně funkční ransomware-as-a-service (RaaS) platformy. Tato služba zahrnovala šifrování pomocí algoritmu ChaCha20 s řízením klíčů přes RSA, možnost cílit na specifické typy souborů a síťová úložiště i funkce pro mazání stínových kopií nebo pokročilé techniky pro vyhnutí se detekci reflexivní DLL injekce, obfuskace řetězců, anti-debugging a syscall hooking.
Podle Anthropic by bez Claude tento aktér nebyl schopen takto pokročilý ransomware vyvinout – chyběla mu znalost šifrovacích algoritmů, práce s Windows API i techniky pro obcházení bezpečnostních opatření.
Hotové balíčky pak prodával na dark web fórech (např. Dread, CryptBB, Nulled) v cenách od 400 do 1 200 dolarů.
Claude jako „operátor“ při vydírání dat
Další případ (GTG-2002) ukazuje AI v ještě aktivnější roli – model byl použit k průzkumu cílových sítí, tvorbě malwaru založeného na nástroji Chisel pro exfiltraci dat či obfuskace pro vyhnutí se detekci. Došlo také k analýze exfiltrovaných finančních dat a určování výše výkupného (od 75 000 do 500 000 dolarů), generování personalizovaných HTML žádostí o výkupné, které byly zobrazeny po startu zařízení.
Tento přístup Anthropic označuje jako „vibe hacking“, což popisuje AI jako přímého spolupachatele, nikoli pouze pasivní nástroj.
Reakce vývojářů a důsledky pro bezpečnostní komunitu
Anthropic zablokoval účty spojené s nelegální činností, vytvořil klasifikátory pro detekci zneužití a sdílel technické indikátory kompromitace s bezpečnostními partnery.
Zároveň však firma upozorňuje na narůstající trend: AI modely se stávají nástrojem pro tvorbu pokročilého malwaru i „operačního mozku“ kybernetických kampaní.
Co z toho plyne pro bezpečnostní experty a firmy?
AI musí být součástí threat modelu – nejen jako nástroj obrany, ale i jako potenciální zbraň útočníků.
Zaměřte se na behaviorální analýzu – klasické signatury selhávají, útočníci mění techniky na základě AI doporučení. Práce s AI musí být řízena politikami a kontrolami jak interně, tak při výběru třetích stran.
Zdroj: anthropic.com
Zdroj ilustračního obrázku: vygenerováno pomocí AI