Bir çox texnoloji inqilablarda olduğu kimi, süni intellekt də faydaları ilə yanaşı, zərərlərini də həyatımıza gətirəcək. Son məlumatlara görə, fırıldaqçılıqda süni intellektin yaratdığı klonlaşdırılmış səslər istifadə edir. “Washington Post” qəzetinin yazdığına görə, bir neçə ailə hər bir ailənin etdiyi kimi müxtəlif səbəblərdən onlardan kömək istəyən övladlarına pul göndərib. Lakin valideynlərin fərqində olmadığı bir problem var imiş. Danışdıqları şəxs onların uşaqları deyil, süni intellekt ilə yaradılmış fırıldaqçıların səsi olub.
Əlbəttə ki, klonlaşdırılmış səslər fırıldaqlarda rastlaşdığımız yeni bir şey deyil. ABŞ Federal Ticarət Komissiyasının məlumatları göstərir ki, keçən il insanların özlərini dost və ya ailə kimi təqdim edən cinayətkarlar tərəfindən aldadıldığına dair 36.000 məlumatdan 5.100-dən çoxu telefonda baş verib. Bir insanın səsini təqlid etmək əvvəllər saatlarla səs kəşfiyyatı ilə mümkün idi. Lakin indi süni intellekt tərəfindən yaradılan səs imitasiyaları üçün cəmi bir neçə dəqiqə lazımdır. Məlumatlara görə, bir cütlük övladının səsini təqlid edən fırıldaqçılara 15.449 dollar göndərib və qurbanlar təkcə onlar deyil.
Məsələn, Microsoft-un Vall-E süni intellekti yalnız 3 saniyəlik səs klipləri ilə çox real və ardıcıl səs imitasiyasına imkan verir. Üstəlik, hətta bu kiçik səs klipindən fərqli tonlar (hirsli, həyəcanlı və s.) çıxara bilir. Oxşar alət ElevenLabs daha real səslər çıxara bilər.
Bu məqamda bu cür saxtakarlıq və ya sui-istifadə hallarına qarşı kompleks tədbirlərin görülməsi zəruri görünür. Buna sadəcə fırıldaq kimi baxmaq olmaz. Bu cür süni intellektlə klonlaşdırılmış səslər Deepfake videoları ilə birləşərək xüsusilə inanılmaz dərəcədə ciddi problemlərə səbəb ola bilər. Bankların səsə əsaslanan təhlükəsizlik xüsusiyyətlərindən yayınmaq olar. Buna görə də, sosial media platformaları onlara yüklənən videolarda və ya şəkillərdə süni intellekt aşkar edən alətlər daxil edə bilər. Hazırda ChatGPT kimi mətn yaradan AI-ləri aşkar edən DetectGPT kimi modellər hazırlanır.