Proqram təminatı mühəndisləri, proqram tərtibatçıları və akademiklər OpenAI-ın Whisper transkripsiya alətindən narazıdırlar. Belə ki, istifadəçilər OpenAI-ın səsdən mətn yaradan aləti Whisper-in real olmayan məlumatlra verdiyini düşünürlər.
Ümumiyyətlə, Süni intellektin populyarlaşması ilə həyatımıza daxil olan anlayışlardan biri də halüsinasiyalar olub. Xüsusilə dil modelləri sualları cavablandırarkən mövcud olmayan məlumatları realmış kimi təqdim edə bilir. Bəzən hətta mövcud olmayan akademik mənbələri də sanki realmış kimi bizlərə təqdim edir. Süni intellektin “bir şeyi uydurması” olduqca mübahisəli bir mövzudur, lakin ən azı texniki baxımdan başa düşüləndir. Fərqli anlayışlar arasında əlaqə qurduqda və ya düzgün məlumat əldə edə bilmədikdə fərqli həllər tapmaq süni intellektin yaratdığı mətnlər üçün problem yarada bilər. Digər tərəfdən, problemin akademiklər və proqram təminatı mühəndisləri tərəfindən ən çox istifadə edilən Whisper alətində aşkarlanması gözlənilməz olub.
Associated Press-in məlumatına görə, OpenAI-nin transkripsiya aləti Whisper söhbətləri mətnə köçürərkən çoxlu real olmalayan məlumatlardan istifadə edir. Bu məlumat irqçiliklə bağlı şərhlərdən tutmuş tibbi müalicələrə qədər bir çox fərqli sahədə problemlər yaradır. Tədqiqatçılar bunun xüsusilə xəstəxanalarda və digər tibbi araşdırmalarda böyük problemlər yaradacağını bildirirlər. Michigan Universitetindən bir tədqiqatçı aləti araşdırarkən məlum olub ki, yaratdığı 10 mətndən 8-də hallüsinasiyalar var. Bir maşın öyrənmə mühəndisi, 100 saatdan çox davam edən bir araşdırmada mətnlərin ən azı yarısının halüsinasiyalar olduğunu və ya real olmadığını bildirib.