Kyberzločinci stále častěji využívají i speciální AI služby pro hackery
Chcete vytvořit nějaký obrázek, zjistit více o zajímavém tématu, napsat článek nebo text na sociální sítě? Se vším pomohou AI nástroje, jako například ChatGPT. Ale podobné chytré nástroje mají k dispozici i kyberzločinci. Mohou tak vytvářet ještě efektivnější útoky a snadněji analyzovat ukradené informace nebo využít AI k vytvoření a vylepšení hrozeb a útočných taktik. Například FraudGPT, XXXGPT nebo WolfGPT jsou ukázkou, jak lze umělou inteligenci zneužít ke škodlivým účelům.
„Tyto nástroje ukazují, že kyberzločinci mohou umělou inteligenci přizpůsobit tak, aby výrazně zvýšili účinnost svých útoků a efektivitu krádeží dat. Je tedy nutné přehodnotit stávající kyberbezpečnostní strategie a zaměřit se na etický rámec, kterým se řídí vývoj a používání umělé inteligence,“ upozornil Pavel Krejčí, Security Engineer z kyberbezpečnostní společnosti Check Point Software Technologies.
FraudGPT
FraudGPT představuje milník v oblasti škodlivého využívání AI technologií, protože jde o platformu, kterou si lze předplatit jako jakoukoli jinou službu a umožňuje vytvářet falešné identity, účinné phishingové e‑maily, malware nebo využít sociální inženýrství k oklamání uživatelů. Vše navíc na velmi vysoké úrovni. I osoby s minimálními technickými dovednostmi tak mohou provádět komplexní útoky.
XXXGPT
Nástroj XXXGPT s oblibou využívají zločinci pro generování RAT kódů, které umožňují vzdáleně ovládnout zařízení oběti a nepozorovaně krást citlivá data nebo je v tichosti změnit či poškodit. Může také vytvářet spyware, ransomware, keyloggery a speciální kódy pro cílené útoky. Nebo vytvářet a šířit nejrůznější dezinformace či kompromitující materiál určený k vydírání a šikaně.
WolfGPT
WolfGPT je známý svou komplexností a architekturou postavenou na programovacím jazyce Python. Dokáže vytvářet šifrovaný malware a přesvědčivé phishingové kampaně. Navíc umožňuje vytvářet široký arzenál kybernetických zbraní, včetně botnetů, trojanů pro vzdálený přístup, keyloggerů nebo nástrojů pro krádeže dat a kryptoměn. Kyberzločinci jej využívají i pro přípravu škodlivých kódů, zaměřených na pokladny a pro cílené útoky na bankomaty. případně pro praní špinavých peněz a identifikaci slabých míst v podnikových sítích.
Důsledky pro kybernetickou bezpečnost a etický rozměr
Vzestup pokročilých AI modelů, jako jsou FraudGPT, XXXGPT a WolfGPT, vyžaduje nový přístup k bezpečnosti. Konvenční obrana je totiž proti komplexním, adaptivním hrozbám nedostačující. Současně je nutné řešit i etické otázky týkající se odpovědnosti tvůrců AI a jak celkově zabránit zneužití umělé inteligence. Noříme se totiž do éry AI, kdy je dvojí využití těchto technologií stále zřetelnější.
Je potřeba zvážit několik oblastí:
- Regulace a legislativa: Zavedení zákonů a regulací, zaměřených na kontrolu a dohled nad vývojem a použitím AI technologií.
- Vzdělávání: Zvýšení povědomí veřejnosti o rizicích spojených s AI a poskytování nástrojů a informací pro ochranu proti podvodům a zneužití.
- Technologická opatření: Vývoj pokročilých bezpečnostních systémů a algoritmů, které dokáží detekovat a paralyzovat nebezpečné AI služby.
- Mezinárodní spolupráce: Spolupráce mezi vládami, mezinárodními organizacemi a technologickými společnostmi k vytvoření globálních standardů a protokolů pro vývoj bezpečné umělé inteligence.
„Zneužívání AI služeb představuje vážnou hrozbu, kterou nelze ignorovat. Je nezbytné, aby vlády, regulační orgány a technologické společnosti spolupracovaly na vývoji a implementaci opatření, která by zneužívání AI technologií omezila,“ uzavřel Krejčí.