Beyin-kompüter interfeysləri (BCI) sahəsində əsaslı yeni inkişaf amiotrofik yanal skleroz (ALS) olan iflic xəstəsinə təkcə danışmaq deyil, həm də sadə melodiyalar oxumağı mümkün etmişdir. Kaliforniya Universitetinin (UC Davis) tədqiqatçıları tərəfindən hazırlanmış BrainGate2 sistemi, beyin siqnallarını real vaxtda səsə çevirərək demək olar ki, gecikməsiz ünsiyyət təmin edir.

Tədqiqatın bir hissəsi olaraq, nitq istehsalına cavabdeh olan beyin bölgəsinə cərrahi olaraq implantasiya edilmiş dörd mikroelektrod sırası ilə xam sinir siqnalları tutulub. Bu siqnallar süni intellekt tərəfindən dəstəklənən analiz modeli ilə işlənib və yüksək dəqiqliklə sintez edilmiş nitqə çevrilib. Sistem istifadəçinin düşündüklərini deyil, nitq əzələlərini aktivləşdirməyə çalışarkən istehsal etdiyi beyin siqnallarını təhlil edir. Ən diqqət çəkən xüsusiyyətlərdən biri də sistemin ALS xəstəliyindən əvvəl qeydə alınan səs nümunələri üzərində öyrədilmiş səs klonlama alqoritmi sayəsində istifadəçinin öz səsi ilə danışa bilməsidir. Xam sinir məlumatlarının ələ keçirilməsindən nitqin sintezinə qədər vaxt cəmi 10 millisaniyədir, yəni eyni vaxtda ünsiyyət deməkdir.
Maraqlısı budur ki, sistem təkcə nitqi deyil, həm də melodik intonasiyanı tanıya bilir. İştirakçı üç müxtəlif ton arasında keçid edərək sadə melodiyalar oxuya bilib. O, həmçinin “aah”, “ooh” və “hmm” kimi cavabları düzgün şəkildə verə bildi. Sistem hətta cümlənin sual və ya ifadə olduğunu tanıdı və vurğulanmış sözləri də aşkar edib. Komanda, AI dekoderinin təlim məlumatlarından kənarda yaradılmış sözləri uğurla təkrarladığını söylədi. Bütün bunlar, əvvəlki sistemlərə nisbətən daha ifadəli olan sintetik nitqlə nəticələnir. UC Davis tədqiqatçıları, tədqiqatlarının tək bir iştirakçı ilə aparıldığını və gələcək tədqiqatlarda bu nəticələri başqa səbəblərdən danışma qabiliyyətini itirmiş daha çox subyektlə təkrarlamağa çalışacaqlarını qeyd ediblər.