ChatGPT  niyə hərdən yalan uydurur? - Alimlər səbəbi izah edir
21 oktyabr 2025 14:21 (UTC +04:00)

ChatGPT niyə hərdən yalan uydurur? - Alimlər səbəbi izah edir

0

Yeni OpenAI araşdırması ChatGPT və digər süni intellekt dil modellərinin bəzən faktları “uydurmasının” səbəblərini izah edir. Məqalə göstərir ki, bu, sadəcə təlim səhvləri deyil, mətn generasiyasının riyazi cəhətdən qaçılmaz nəticəsidir. Hətta ideal təlim məlumatları olduqda belə, modellər söz proqnozlaşdırma üsulu və səhvlərin yığılması səbəbilə səhv edə bilər.

Lent.az bu barədə ətraflı xarici mediaya istinadla xəbər verir.

Süni intellekt niyə səhv cavablar verir?

Araşdırma göstərir ki, hallüsinasiyalar problemi müasir təlim alqoritmlərinin yan təsiri deyil, riyazi cəhətdən qaçılmaz bir haldır. İdeal təlim məlumatları belə bu problemi tamamilə aradan qaldırmır.

Əsas səbəb dil modellərinin mətni necə yaratmasındadır. Onlar hər sözü bir-bir proqnozlaşdırır və bunu ehtimallara əsasən edirlər. Bu isə o deməkdir ki, səhvlər cümlə ərzində yığılır və uzun cavablar yaradarkən səhv ehtimalı sadə “bəli/xeyr” tipli suallardan ən azı iki dəfə çox ola bilər.

Təlim məlumatlarının keyfiyyəti niyə həlledicidir?

Model təlim zamanı nə qədər az məlumat görürsə, səhv ehtimalı bir o qədər artır.
Məsələn, əgər məşhur şəxslərin doğum günləri yalnız 20% hallarda təlim məlumatlarında varsa, model sorğuların ən azı 20%-də səhv edəcək.

Qiymətləndirmə tələsi

Tədqiqatçılar göstərirlər ki, Google və OpenAI də daxil olmaqla, mövcud süni intellekt meyarları modelləri qeyri-müəyyənlik əvəzinə təxmin etməyə təşviq edir.
Model “bilmirəm” deyəndə səhv cavabla eyni bal alır. Buna görə də optimal strategiya həmişə təxmin etməkdir ki, bu da hallüsinasiyaların artmasına səbəb olur.

OpenAI-nin təklif etdiyi həll yolları

OpenAI təklif edir ki, modellər cavab verməzdən əvvəl öz inam səviyyəsini nəzərə alsınlar. Məsələn, yalnız 75%-dən yüksək əminlik olduqda cavab versinlər, çünki səhvlər doğru cavablardan daha çox cəzalandırılır.

Riyazi analiz göstərir ki, bu yanaşma modellərə təxmin etmək əvəzinə qeyri-müəyyənliyi göstərməyə imkan verəcək və hallüsinasiyaları azaldacaq. Lakin istifadəçilər buna alışmamış ola bilərlər: əgər ChatGPT halların 30%-də “bilmirəm” deməyə başlasa, bu auditoriyanı məyus edə bilər.

Süni intellektdə qaçılmaz reallıq

OpenAI məqaləsi əsas ziddiyyəti vurğulayır. Biznes motivləri sürətli və inamlı cavabları təşviq edir, dəqiqliyi yox.
Bu stimullar dəyişmədikcə, dil modellərində hallüsinasiyalar qaçılmaz olaraq qalacaq.

1 2 3 4 5 İDMAN XƏBƏRLƏRİ
0
# 482

Oxşar yazılar