Massaçusets Texnologiya İnstitutunun (MIT) tədqiqatçıları süni intellekt sahəsində mühüm uğur əldə ediblər. Qurumun yeni texnikası, SEAL (Özünü Uyğunlaşdıran LLMs), böyük dil modellərinə (LLM) özünü təkmilləşdirməyə, sintetik məlumatlar yaratmağa və ondan istifadə edərək özlərini yenidən hazırlamağa imkan verir. Bu, ChatGPT kimi sistemlərin əsasını təşkil edən bu modellərə insan müdaxiləsi tələb etmədən performanslarını yaxşılaşdırmağa imkan verir.

SEAL metodu ilk dəfə iyun ayında nəşr olunan akademik məqalədə elan edildi. Bununla belə, kağızın əhəmiyyətli dərəcədə genişləndirilmiş və yenilənmiş versiyası keçən ay buraxıldı. Metod həmçinin MIT Lisenziyası altında GitHub-da açıq mənbə kimi buraxılıb. MİT-in Improbable AI Lab-dan olan tədqiqatçılar – Adam Zweiger, Jyothish Pari, Han Guo, Ekin Akyürek, Yoon Kim və Pulkit Agrawal – bu yaxınlarda NeurIPS 2025-də SEAL sistemini nümayiş etdirən işlərini təqdim etdilər. Özünü təkmilləşdirən sistemlərə doğru
Son aylarda ortaya çıxan SEAL əvvəlcə sadəcə konseptual çərçivə idi. Məqsəd dil modellərinin davamlı olaraq öz yaradılan məlumatlarından öyrənmələrini təmin etmək və yerləşdirmədən sonra əvvəlcədən öyrədilmiş modellərin yaşadığı “məlumat durğunluğunu” aradan qaldırmaq idi. Yeni versiya ilə SEAL artıq yalnız nəzəri bir təklif deyil. Tədqiqatçılar nümayiş etdirdilər ki, model ölçüsü artdıqca sistem daha effektiv şəkildə miqyaslanır, gücləndirici öyrənməni daha səmərəli inteqrasiya etməklə “fəlakətli unutmanı” azaldır və ikili dövrəli arxitekturanı təkrar istehsal oluna bilir.

Bu o deməkdir ki, modellərlə bağlı ən fundamental problemlərin bəziləri həll edilə bilər və miqyaslılıq davam etdirilə bilər. Dizayn arxitekturasına daxili döngədə nəzarət edilən incə sazlama və xarici döngədə gücləndirici optimallaşdırma daxildir. Yenilənmiş məqalədə həmçinin müxtəlif operativ formatlı testlər, öyrənmə dövrü ərzində artan sabitlik və real həyatda tətbiq oluna bilmə ilə bağlı praktiki problemlər də təfərrüatlıdır. Bu gün istifadə etdiyimiz ChatGPT və Əkizlər kimi modellər mətn, şəkillər və videolar hazırlamaqda heyrətamizdir. Bununla belə, onlar internetə qoşulduqda və yeni məlumat əldə etməyə başlayanda tez-tez əl ilə yeniləmələr tələb olunur. SEAL bu məhdudiyyəti aradan qaldıraraq modellərə “öz-özünə redaktələr” adlanan öz redaktələrini yaratmağa imkan verir. Bu redaktələr modelin hansı çəkiləri və necə yeniləməli olduğunu təbii dildə müəyyən edən çıxışlardan ibarətdir. Bu nəticələrə əsasən, model özünü yenidən hazırlayır. Prosesi idarə edən gücləndirici öyrənmə mexanizmi öz mükafat siqnalını modelin tapşırıq performansındakı təkmilləşdirməsindən alır. Bu paraqraf bir az çaşdırıcı görünürsə, bənzətmədən istifadə edək. Tələbə məlumatı daha yaxşı qavramaq üçün mühazirə qeydlərini yenidən təşkil etdiyi kimi, SEAL məlumatı yenidən strukturlaşdırır və daha dərindən daxililəşdirməyə imkan verir. Bu baxımdan, o, əlavə xarici məlumatlarla passiv yenilənən ənənəvi modellərdən əhəmiyyətli dərəcədə fərqlənir.
Tədqiqat qrupu SEAL-ı iki sahədə sınaqdan keçirdi: biliklərin əldə edilməsi və bir neçə nümunə ilə öyrənmə. Bilik əldə etmə testləri modelin SQuAD-a (Stanford Sualına Cavab Verən Verilənlər Kütləsi) oxşar keçidlərdən yeni məlumatları nə dərəcədə effektiv şəkildə mənimsədiyini ölçdü. SQuAD, Wikipedia əsaslı sual-cavab cütlərindən ibarət oxuyub-anlama verilənlər toplusudur. Bilik əldə etmə testlərində SQuAD verilənlər bazasına oxşar keçidlərdən model tərəfindən yaradılan sintetik nəticələrdən istifadə edilmişdir. Bu üsul modelin dəqiqliyini 33,5 faizdən 47 faizə yüksəldib, hətta GPT-4.1 tərəfindən yaradılan məlumatlarla əldə edilən nəticələri də üstələyib.














































