Intel představil FakeCatcher, detektor deepfakes s 96% přesností

Zpět na blog

FakeCatcher je podle Intelu prvním detektorem deepfakes pracujícím v reálném čase. Intel tvrdí, že produkt má 96% přesnost a funguje na základě analýzy jemného „krevního oběhu“ v pixelech videa, aby vrátil výsledky v řádu milisekund.

Ilke Demir, vedoucí pracovnice výzkumu v laboratořích Intel, navrhla FakeCatcher ve spolupráci s Umurem Ciftcim ze Státní univerzity New York v Binghamtonu. Produkt využívá hardware a software společnosti Intel, běží na serveru a propojuje se prostřednictvím webové platformy.

PPG signály

Na rozdíl od většiny detektorů deepfakes založených na hlubokém učení, které zkoumají surová data, aby určily neautentičnost, se FakeCatcher zaměřuje na stopy v rámci skutečných videí. Je založen na fotopletysmografii neboli PPG, metodě měření množství světla, které je absorbováno nebo odraženo krevními cévami v živé tkáni. Když srdce pumpuje krev, proudí do žil, které mění barvu.

„Na vlastní oči to nevidíte, ale výpočetně je to odhalitelné,“ řekla Demir serveru VentureBeat. Signály PPG jsou známé, ale dosud je nikdo nepoužil v souvislosti s detekcí deepfakes. Pomocí nástroje FakeCatcher se shromažďují PPG signály z 32 míst na obličeji, vysvětlila Demir, a poté se z časových a spektrálních složek vytvoří PPG mapy. „Vezmeme tyto mapy a nad nimi vycvičíme konvoluční neuronovou síť, která je klasifikuje jako falešné a skutečné,“ řekla Demir. „Díky technologiím společnosti Intel, jako je framework Deep Learning Boost pro inferenci a Advanced Vector Extensions 512, to pak můžeme spustit v reálném čase a až 72 souběžných detekčních proudů.“

Detekce jako obrana proti hrozbám

Podle nedávného výzkumného dokumentu Erica Horvitze, vědeckého ředitele společnosti Microsoft, je detekce deepfakes stále důležitější. Hrozbu představují například interaktivní deepfakes, které nabízejí iluzi rozhovoru se skutečnou osobou, a kompoziční deepfakes, kdy může prakticky kdokoliv vytvářet „syntetickou historii“.

Nejvíce byly medializovány případy deepfaků týkající se celebrit. V deníku Wall Street Journal se objevily zprávy o deepfakes Toma Cruise, Elona Muska, Emmy Watson, Leonarda DiCapria a dalších.

Na druhou stranu existuje mnoho zodpovědných a autorizovaných případů použití deepfakes. Společnosti jako Hour One a Synthesia nabízejí deepfakes pro podniková prostředí – například pro školení zaměstnanců, vzdělávání a elektronické obchodování. Nebo mohou deepfakes vytvářet uživatelé, jako jsou celebrity a vedoucí pracovníci firem, kteří chtějí využít syntetická média k „outsourcingu“ virtuálního dvojníka. V těchto případech existuje naděje, že se objeví způsob, jak zajistit plnou transparentnost a původ syntetických médií.

Demir uvedla, že společnost Intel provádí výzkum, který je však teprve v počáteční fázi. „FakeCatcher je součástí většího výzkumného týmu společnosti Intel s názvem Trusted Media, který se zabývá detekcí manipulovaného obsahu – deepfakes – odpovědným generováním a původem médií. V kratším časovém horizontu je detekce vlastně řešením deepfakes – a my vyvíjíme mnoho různých detektorů založených na různých stopách autenticity, jako je například detekce pohledu.“

Dalším krokem poté bude detekce zdroje neboli nalezení modelu GAN, který stojí za každým deepfakem. Ideálním výsledkem celého výzkumu je mít soubor všech těchto modelů AI a následně poskytnutí algoritmického konsenzu o tom, co je a co není skutečné.

Historie problémů s detekcí deepfakes

Detekce deepfakes není vůbec snadná. Podle výzkumu Univerzity Jižní Kalifornie z roku 2021 mohou některé datové sady používané k trénování systémů pro detekci deepfakes nedostatečně reprezentovat osoby určitého pohlaví nebo s určitou barvou pleti. Toto zkreslení může být v detektorech zesíleno, uvedli spoluautoři výzkumu, přičemž některé detektory vykazují až 10,7% rozdíl v chybovosti v závislosti na rasové skupině. A v roce 2020 výzkumníci ze společnosti Google a Kalifornské univerzity v Berkeley ukázali, že i ty nejlepší systémy umělé inteligence vycvičené k rozlišování mezi skutečným a syntetickým obsahem jsou náchylné k útokům protivníka, které je vedou ke klasifikaci falešných obrázků jako skutečných.

Zdroj: VentureBeat

25. 11. 2022