Podle nedávného průzkumu AI Security Report lidé už nedokáží spolehlivě rozlišit mezi skutečnými hlasy a zvukem generovaným umělou inteligencí. Na hackerských fórech se také stále častěji diskutují komplexní kriminální telefonní systémy. Na darknetu je řada reklam, ve kterých hackerské skupiny hledají odborníky, kteří by implementovali umělou inteligenci do telefonních podvodů.
„Telefonní systémy využívající AI jsou dokonce již v prodeji a používají se především ke krádežím přihlašovacích údajů a ověřovacích hesel a kódů. AI boti volají potenciálním obětem a podle předem připravených scénářů získávají hesla, většinou k finančním účtům a službám,“ vysvětluje Petr Kadrmas, Security Engineer, Email Security z kyberbezpečnostní společnosti Check Point Software Technologies.
Umělá inteligence (AI) mění mnoho průmyslových odvětví a zároveň stírá hranici mezi pravdou a lží v digitálním světě. Kyberzločinci využívají generativní AI a velké jazykové modely (LLM) k ničení důvěry, takže není možné věřit ničemu, co vidíte, slyšíte nebo čtete online. AI navíc umožňuje obcházet i ty nejsofistikovanější systémy pro ověřování identity.

AI a sociální inženýrství
Kyberzločinci mohou s pomocí AI vytvářet přesvědčivé texty, audio-vizuální materiály i interaktivní chatboty, kteří jsou schopni komunikovat s oběťmi. Precizně zfalšovat něčí hlas při telefonních podvodech nebo dokonce tvář při videohovorech už dnes není problém. Rozpoznání známé tváře nebo hlasu tedy nestačí na ověření identity. Je potřeba hledat další autentizační prvky.
Nedávno jsme měli možnost vidět přesvědčivý podvod napodobující hlas italského ministra obrany Guida Crosetta. Cílem se stalo několik významných osobností, včetně návrháře Giorgia Armaniho. Podvodníci tvrdili, že prostředky jsou nutné k propuštění rukojmích, a minimálně jedna oběť, která ministra znala, byla podvedena a poslala útočníkům významnou sumu peněz.
Mohlo by vás zajímat
Zlodějna za pár dolarů
„Pokročilejší platformy nabízejí flexibilní konverzační struktury, které přizpůsobují scénáře v reálném čase na základě dynamické analýzy reakcí obětí. V lednu byla například spuštěna služba, která dokazuje, jak tyto systémy dokáží plynule zvládat mnoho jazyků a zpracovávat více souběžných interakcí, čímž zvyšují možnost úspěchu ve srovnání s tradičními telefonními podvody spoléhajícími na lidské operátory. Podvodníci vytvoří jen kostru debaty, podle které AI oběť vede. A kyberzločinci avizují, že AI je schopná se odchýlit od scénáře a zvládnout neočekávané situace u jakéhokoli tématu, v jakémkoli oboru, jakémkoli jazyce a jakýmkoli hlasem,“ varuje Kadrnas.
„Tyto pokročilé AI telefonní platformy se prodávají asi za 20 000 dolarů, včetně školení a podpory, nebo je možné si je pronajmout za vstupní poplatek 500 dolarů a 1,50 dolaru za minutu. K telefonním podvodům tak nejsou potřeba ani operátoři, ani znalost technologií a schopnost tyto systémy vytvořit. Kyberzločin jako služba dává i začátečníkům do rukou obrovsky nebezpečné zbraně,“ konstatuje Petr Kadrmas.