Bunu etsəniz,  süni intellekt  sizə yalan danışa bilər - DİQQƏT
28 avqust 2025 14:21 (UTC +04:00)

Bunu etsəniz, süni intellekt sizə yalan danışa bilər - DİQQƏT

Süni intellekt modellərinin qiymətləndirilməsi üçün kompleks bençmark hazırlayan "Giskard" şirkətinin araşdırması maraqlı bir paradoksu üzə çıxarıb: əgər çat-botdan mümkün qədər qısa cavab vermək tələb olunarsa, onda “halüsinasiyaların” (uydurma və ya yanlış məlumatların) yaranma ehtimalı artır.

Lent.az xəbər verir ki, bu barədə şirkətin bloqunda məlumat verilir.

Mütəxəssislər qeyd edirlər ki, bu xüsusiyyət xüsusilə ən qabaqcıl sistemlərdə — məsələn, OpenAI-nin GPT-4o, Mistral Large və Claude 3.7 Sonnet modellərində daha qabarıq görünür. Onlardan lakonik cavab tələb olunanda, onlar daha çox səhvlərə yol verir və qeyri-dəqiq məlumat təqdim edirlər.

Araşdırmaya görə, bunun səbəbi qısa cavab formatının neyroşəbəkəni məlumatı izah etmək, dəqiqləşdirmək və ya təkzib etmək imkanından məhrum etməsidir. Keyfiyyətli faktiki təkzib demək olar ki, həmişə daha geniş izah tələb edir.

Araşdırmanın müəllifləri yazır:

“Sistemdən son dərəcə yığcam cavab istənildikdə, o, qaçılmaz olaraq dəqiqliyi qısalığa qurban verir. Bu isə o deməkdir ki, hətta “qısa cavab verin” kimi zərərsiz göstərişlər belə modelin dezinformasiyanı düzəltmə qabiliyyətini ciddi şəkildə azalda bilər”.

Bundan əlavə, hesabatda başqa bir məqam da vurğulanır: əgər yanlış iddia özünəinamlı şəkildə ifadə olunarsa, bir çox modellər onu təkzib etməyi üstün tutmur. Bu isə tərtibatçılar qarşısında çətin seçim qoyur — istifadəçi rahatlığı daha önəmlidir, yoxsa cavabların etibarlılığı?

Halüsinasiyalar — yəni uydurma və ya səhv məlumatların yaradılması problemi — hələ də ən müasir İİ sistemləri üçün tam həll edilməyib. Hətta qeyd olunur ki, OpenAI o3 kimi ən son məntiqi modellər bəzən əvvəlkilərlə müqayisədə daha çox belə səhvlərə yol verirlər.

1 2 3 4 5 İDMAN XƏBƏRLƏRİ
# 280

Oxşar yazılar