Kiberbiztonság a mesterséges intelligencia korában: Az evolúciós veszélyek új forrása
A ChatGPT bonyolítja a modern informatikai biztonságot azzal a képességével, hogy olyan változó jellegű, nemkívánatos szoftvert hoz létre, amelyet nehéz azonosítani végpontfelismerési és válaszadó (EDR) rendszerekkel.
A ChatGPT a megfelelő irányítás mellett már sokszor szolgáltatott humoros, szórakoztató vagy akár tanulságos tartalmakkal is. Azonban az AI-nak van egy sokkal sötétebb oldala is, amely komolyan bonyolítaná az IT jövőjét. Néhány IT szakértő nemrég bemutatta a ChatGPT veszélyes potenciálját, és azt, hogy képes olyan polimorfikus kártékony szoftvereket létrehozni, amelyeket szinte lehetetlen elkapni az EDR használatával.
Az EDR egy olyan kiberbiztonsági módszer, melynek segítségével felismerhetők a nemkívánatos szoftverek. Ugyanakkor szakértők szerint ez a hagyományos eljárás nem állhatja ki a versenyt a ChatGPT által okozott lehetséges veszélyekkel szemben. A mutálódni képes kód – itt kerül sor a polimorf jelző alkalmazására – sokkal nehezebben észlelhető.
A többségében a nyelvtanulási modellek, így a ChatGPT is, olyan módon vannak megtervezve, hogy beépített szűrőikkel kivédjék a készítők által nemkívánatosnak tartott tartalmak generálását. Ez specifikus témáktól a kártékony kódig terjedhet. Azonban nem tartott sokáig, mire a felhasználók módszereket találtak ezeknek a szűrőknek a kijátszására. Ez a taktika teszi a ChatGPT-t különösen sebezhetővé azok számára, akik kártékony szkripteket szeretnének létrehozni.
Jeff Sims a HYAS InfoSec biztonsági mérnöke, ez egy olyan cég, amely az IT-biztonságra koncentrál. Sims még márciusban bemutatatott egy bizonyítékokon alapuló projektet, amit BlackMamba-nak nevez. Ez az eszköz egy polimorfikus keylogger, ami minden egyes futtatáskor API hívásokat küld a ChatGPT felé.
"Ezekkel az új módszerekkel egy potenciális támadó képes összekombinálni számos tipikusan könnyen felismerhető viselkedésformát szokatlan módon, és képes elkerülni a detektálást a modell azon képtelenségének kihasználásával, hogy ezt káros mintaként azonosítsa" - fejtette ki Sims.
A CyberArk, egy kiberbiztonsági vállalat, nemrég demonstrálta a ChatGPT képességét, hogy polimorfikus nemkívánatos szoftvereket hozzon létre, Eran Shimony és Omer Tsarfati blogbejegyzésében. A cikkben bemutatják, hogyan teszi lehetővé a ChatGPT-ből származó kódinjekció a szkriptek megváltoztatását aktiválásuk után, így kerülve el a legújabb detekciós technikákat, amelyeket a nemkívánatos viselkedés felismerésére alkalmaznak.
Jelenleg csupán ezeket az példákat tudjuk bizonyítékként felhozni - de remélhetőleg ez a tudatosság több fejlesztéshez vezet majd, amelyek megelőzik a károkat, amit ez a típusú evolúciós kód okozhat a valós környezetben.
Forrás:
Eran Shimony és Omer Tsarfati blogbejegyzése