Süni intellekt dünyası bir müddətdir ki, səssizcə böyüyən, lakin indi göz ardı etmək qeyri-mümkün olan ciddi problemlə üz-üzədir. Bu problem isə “yalan”-dır. Yəni dil modelləri fakta əsaslanmayan məlumatları inamla təqdim edir. Bundan əlavə, süni intellekt modelləri daha ağıllı olduqca bu yalan problemi azalmaq əvəzinə daha da artır. Qeyd edək ki, bu problem ilk generativ AI-lərdən bəri davam edir.

Keçən il süni intellekti Axillesin dabanı ilə müqayisə etdik və bu nöqtədə problemlər kiçilməkdənsə böyüyüb. Xatırlayacağınız kimi, OpenAI, Anthropic, Google və DeepSeek kimi texnoloji nəhənglər tərəfindən hazırlanmış “mülahizə” üzərində fokuslanan yeni nəsil süni intellekt modelləri daha dəqiq və ardıcıl cavablar vermək iddiası ilə yola çıxıb. Ancaq bu məqamda görünən odur ki, bu modellər əvvəlki versiyalara nisbətən daha çox səhvə yol verir və hər şeyi düzəldir. New York Times-ın bu yaxınlarda dərc etdiyi hesabata görə, OpenAI-nin keçən ay elan edilən “o3” və “o4-mini” adlı yeni modelləri, şirkətin daxili qiymətləndirmələrində bəzi testlərdə müvafiq olaraq 33% və 48% nisbətində halüsinasiyalar meydana gətirib.
Bu rəqəmlər əvvəlki modellərlə müqayisədə demək olar ki, iki dəfə artım deməkdir. Yəni, süni intellekt gücləndikcə onun dəqiq məlumat vermək qabiliyyəti artmaq əvəzinə azalır. Vəziyyət OpenAI ilə məhdudlaşmır. Google və DeepSeek kimi rəqib şirkətlərin modelləri də oxşar problemlə üzləşirlər. Çünki problem modellərdə deyil, onların necə işləməsindədir. Bu səbəbdən süni intellekt sənayesində ortaya çıxan adlardan biri olan Vectara CEO Amr Awadallah, nə etsək də, “Onlar həmişə halüsinasiyalar görəcəklər. Bu heç vaxt keçməyəcək” deyir. Mütəxəssislərin fikrincə, bu problem təkcə istifadəçilər üçün deyil, texnologiyaya sərmayə qoyan şirkətlər üçün də böyük risk yaradır. Yanlış cavablar verən süni intellekt sistemi istifadəçilərin inamını sarsıtmaqla yanaşı, həm də mühüm biznes qərarlarının yanlış qəbul edilməsinə səbəb ola bilər.
Ümumiyyətlə, süni intellekt şirkətlərinin yeni modellərin hazırlanmasında istifadə edəcəyi real dünya məlumatları keçən il tükənib. Bununla belə, mövcud model qurma prosesləri daha təkmil model üçün daha çox məlumat tələb edir. Yeni məlumatlara daxil olmaq üçün biz sintetik məlumatlara, yəni süni intellektin istehsal etdiyi məlumatlara müraciət etməyə başladıq. Çünki süni bir model tərəfindən istehsal olunan məlumatlarla öyrədilmiş bir model səhvləri eksponent olaraq artıra bilər. Hətta elə şirkətlər var ki, onlar yalnız bu problemin həllinə diqqət yetirir və bu sahədə fəaliyyət göstərirlər. Əslində, sənaye bu problemin mövcud olduğunu əvvəldən bilirdi. Lakin həll yolu göründüyü qədər asan deyil.