Stane se ChatGPT pomocníkem kyberzločinců?
Zpět na blogZ nedávné studie společnosti BlackBerry vyplývá, že osm z deseti decision makerů plánuje do roku 2025 investovat do kybernetické bezpečnosti založené na AI, ale tři čtvrtiny z nich AI zároveň považují za vážnou hrozbu pro bezpečnost. Mnoho z nich se domnívá, že ChatGPT bude do roka stát za úspěšným kybernetickým útokem a že některé státy využívají AI k nekalým aktivitám.
Aktéři hrozeb rychle zjistili, že mohou ChatGPT využít ke svým praktikám a je jen otázkou času, kdy tohoto a další chatboty využijí ke kybernetickým útokům.
„Není to otázka ‘jestli’, ale spíše ‘jak často’ nebo ‘v jakém měřítku’, protože aktéři hrozeb jsou obvykle o krok napřed, pokud jde o zavádění nových technologií,“ řekl Shiran Grinberg, ředitel výzkumu a kybernetických operací společnosti Cynet, když byl dotázán na pravděpodobnost, že chatboti budou hrát stále větší roli v kybernetických útocích.
„Aktéři hrozeb mohou využívat modely umělé inteligence k testování vlastního vytvořeného malwaru v různých prostředích, což jim umožní lépe porozumět detekčním opatřením, která se snaží obejít nebo překonat,“ uvedl Grinberg pro Security Boulevard. „Díky takto efektivnímu modelování svých útoků si mohou po nasazení v reálném útoku zajistit přesný nebo masivní dopad, v závislosti na svém cíli.“
Cílové vektory útoku
Chatboti budou pravděpodobně nejúčinnější při kybernetických útocích založených na sociálním inženýrství.
„ChatGPT již dnes dokáže napsat lepší lákadla pro phishing, cast-netting nebo spear-phishing než řada aktérů hrozeb. S určitým specifickým školením by se mohl posunout o několik kroků dál a vytvořit velmi přesvědčivý skript pro sociální inženýrství živého cíle,“ řekl Mike Parkin, senior technický inženýr ve společnosti Vulcan Cyber pro Security Boulevard.
Z tohoto důvodu Parkin uvedl, že očekává bezprostřední hrozbu útoků sociálního inženýrství, které by mohly přijít prostřednictvím e-mailových kampaní nebo ve skriptech živé konverzace, protože interakce s lidmi jsou oblastí, kde tyto nástroje poskytují výhodu. ChatGPT má mít ochranná opatření, která mají zabránit tomu, aby tato technologie byla použita ke způsobení škody, ale jak Parkin upozornil, stačí jen pečlivá formulace, aby se tato ochranná opatření obešla. Následně je snadné, aby ChatGPT vytvořil přesvědčivé úvodní e-maily, které by mohl aktér hrozeb použít k zahájení útoku pomocí sociálního inženýrství.
„Model GTP-3, na kterém je ChatGPT postaven, je navržen tak, aby vytvářel přesvědčivé konverzace, a má za sebou obrovskou znalostní základnu,“ řekl Parkin. „Je připraven pro situace, které se zaměřují na interakci s lidmi. I když existují náznaky, že aktéři hrozeb využívají techniky umělé inteligence také k vývoji pokročilého malwaru, který může proklouznout stávajícími obrannými systémy.“
Někteří výzkumníci se rozhodli vyzkoušet, jak snadné je zosnovat útok pomocí ChatGPT. Tým společnosti Check Point podle článku Tech Monitor napsal podvodný e-mail. Ale tím to zdaleka nekončí a umělá inteligence dokáže napsat i škodlivé skripty.
A jak je možné, že to například ChatGPT toleruje, přestože si jeho tvůrci zakládají na tom, že veškeré škodlivé požadavky chatbot neodbavuje? Protože prostě neví, že to, co dělá, využijí zadavatelé k nekalým cílům: „Útočníci mohou oklamat modely umělé inteligence, aby si myslely, že chování při útoku není škodlivé, a to vložením legitimních souborů, které napodobují malware, nebo inženýrskými vzorci chování, které se ukáží jako falešně pozitivní. Aktéři hrozeb hledají a vždy budou hledat lepší způsoby, jak pochopit, jak obejít, obejít a obejít stávající bezpečnostní řešení,“ řekl Grinberg ze společnosti Cynet.
„Využitím modelů umělé inteligence k mapování svých útoků pomocí signatur, příznaků, detekcí, vzorců chování a zanechaných stop zvyšují aktéři hrozeb šanci, že jejich útoky přinesou požadovaný výsledek a zároveň zůstanou nepovšimnuty.“
Zdroj: Security Boulevard
17. 2. 2023