Palo Alto Networks Unit 42-də təhlükəsizlik tədqiqatçıları böyük dil modellərinin (LLM) JavaScript zərərli proqram təminatında demək olar ki, qeyri-məhdud modifikasiyalar yarada bildiyini və eyni zamanda kodu daha az tanınan hala gətirdiyini aşkar ediblər. Nümunə olaraq, süni intellekt, 88% aşkarlanmayan 10.000-dən çox kod nüsxəsini yaradıb. Beləliklə, alimlərin yeni araşdırması ilə süni intellekt dil modellərinin antiviruslardan yayınan viruslar hazırlaya bildiyi məlum olub.
“LLM-lər sıfırdan zərərli proqram yaratmaqda çətinlik çəksələr də, cinayətkarlar onlardan asanlıqla mövcud zərərli proqram təminatının üzərinə yazmaq və ya gizlətmək üçün istifadə edə bilər ki, bu da onları aşkar etməyi çətinləşdirir” deyə Palo Alto Networks Unit 42-dən olan tədqiqatçılar yeni hesabatda yazıblar. Onların sözlərinə görə cinayətkarlar LLM-ləri daha təbii görünüşlü transformasiyalar həyata keçirməyə vadar edə bilər ki, bu da belə proqram təminatının aşkarlanmasını çətinləşdirir.
Əslində isə dil modellərinin hazırlayan tərtibatçılar modellərin dağıdıcı məqsədlər üçün istifadə edilməsinin qarşısını almaq üçün təhlükəsizlik tədbirləri görürlər. Lakin təcavüzkarlar inandırıcı fişinq e-poçtlarının yaradılmasını və yeni zərərli proqramların hazırlanmasını avtomatlaşdırmaq üçün artıq WormGPT kimi vasitələrdən istifadə etməyə başlayıblar. Palo Alto Networks araşdırmasında süni intellekt 10 min növ kod yaradıb. Hansı ki, bu kodlar Innocent Until Proven Guilty (IUPG) və PhishingJS kimi alətlər tərəfindən aşkar edilə bilmir. Bundan əlavə, zərərli kod standart obfuscator.io mexanizmindən istifadə edərək dəyişdirilmiş koddan daha təbii və zahirən zərərsiz görünür.