TechCrunch xəbər verir ki, Apple tədqiqatçıları ChatGPT kimi böyük dil modellərinin məntiqi düşünmə qabiliyyətinə malik olmadığını və tapşırığa aidiyyatı olmayan təfərrüatlar əlavə etməklə asanlıqla çaşdırıldığını aşkar ediblər. Beləliklə, Apple araşdırması göstəriri ki, süni intellekt modelləri düşünmür, sadəcə düşünməyi təqlid edirlər.

“Böyük dil modellərində riyazi mülahizələrin məhdudiyyətlərini anlamaq” başlıqlı dərc olunmuş məqalə süni intellektin məntiqi düşünmə qabiliyyətinə dair sualı gündəmə gətirir. Tədqiqat nəticəsində məlum olub ki, böyük dil modelləri (LLM) sadə riyazi problemləri həll edə bilir, lakin daha az dəyərli məlumatların əlavə edilməsi səhvlərə gətirib çıxarır. Məsələn, model aşağıdakı problemi həll edə bilər: “Oliver, cümə günü 44 kivi seçdi. Sonra şənbə günü 58 kivi topladı. O, bazar günü cümə günündən iki dəfə çox kivi yığıb. Oliverin neçə kivisi var?”. Bununla belə, problem vəziyyətinə “Bazar günü bu kivilərdən 5-i orta ölçüdən bir qədər kiçik idi” ifadəsini əlavə etsəniz, kivinin ölçüsü saya təsir etməsə də, model çox güman ki, həmin 5 kivini ümumi cəmdən çıxaracaq.
Tədqiqatın həmmüəllifi Mehrdad Farajtabar izah edir ki, bu cür səhvlər süni intellekt modellərinin tapşırığın mahiyyətini anlamadığını, sadəcə olaraq təlim məlumatlarında nümunələri təkrar istehsal etdiyini göstərir. Məqalədə qeyd deyilir ki, “Biz güman edirik ki, performansdakı bu azalma müasir LLM-lərin həqiqi məntiqi düşünmə qabiliyyətinə malik olmaması ilə əlaqədardır”. Yəni nəticə etibari ilə tədqiqatçıları süni intellekt modellərinin düşünmədiklərini və bunu sadəcə təqlid etdiklərini aşkar ediblər.