OpenAI, süni zəka modellərinin növbəti nəsli ilə bioloji silahların hazırlanması riskinin ciddi şəkildə arta biləcəyindən narahatdır.
Lent.az xarici KİV-ə istinadən xəbər verir ki, bu texnologiya elmi təhsili olmayan şəxslərə belə bir imkan verə bilər. OpenAI-in təhlükəsizlik sistemləri üzrə rəhbəri Johannes Heidecke bildirib ki, “bizim o3 (məntiq yürüdə bilən model) modelimizin bəzi davamçıları bu səviyyəyə çata bilər”. Bu səbəbdən OpenAI təhlükəsizlik testlərini gücləndirir. Şirkət, getdikcə daha güclü süni zəka modellərinin yaratdığı riskləri qiymətləndirmək və azaltmaq üçün sistem hazırladığını açıqlayıb. Məqsəd, bu modellərdən cinayətkarlar və terrorçular tərəfindən istifadə olunma ehtimalını azaltmaqdır. Əgər risklərin azaldılmasına dair tədbirlər görülməzsə, bu modellər tezliklə yeni bir səviyyəyə çata bilər və nəticədə məhdud elmi biliyə sahib insanlar belə təhlükəli silahlar yarada bilərlər.
“Biz hələ tamamilə yeni, əvvəllər mövcud olmayan və bioloji təhdidlər yaradan bir şeyin mövcud olduğu bir dünyada yaşamırıq. Biz daha çox ekspertlərin artıq yaxşı tanıdıqları şeylərin yenidən yaradılması imkanlarından narahatıq” - deyə Heidecke bildirib. Əsas çətinlik ondan ibarətdir ki, həyati vacib tibbi irəliləyişlərə səbəb ola biləcək alətlər eyni zamanda pis niyyətli şəxslər tərəfindən təhlükəli məqsədlərlə istifadə oluna bilər. Məhz buna görə də aparıcı süni zəka laboratoriyalarının yüksək dəqiqlikli test sistemlərinə ehtiyacı var. “Bu, məhsuldarlığın 99% olduğu və ya hər 100 000 haldan birində səhvin qəbul edilə biləcəyi sahə deyil. Bizə əsasən demək olar ki, qüsursuz bir şey lazımdır” - deyə Heidecke qeyd edib.
OpenAI bu məsələdə – yəni modellərinin silah hazırlanmasında qanunsuz istifadəsi ilə bağlı narahatlıq keçirən yeganə şirkət deyil. Süni zəka modelləri daha təkmil olduqca, onların cinayət məqsədilə istifadə potensialı da artır. Bir neçə müddət əvvəl Anthropic şirkəti əvvəlki modellərlə müqayisədə daha sərt təhlükəsizlik protokollarına sahib olan inkişaf etmiş Claude Opus 4 modelini təqdim etmişdi. Şirkət bu modeli ABŞ hökumətinin bioloji təhlükə səviyyələri (BSL) əsasında hazırlanmış məsuliyyətli miqyaslandırma siyasətinə uyğun olaraq süni zəka üçün üçüncü “təhlükəsizlik səviyyəsi” (AI Safety Level), yəni ASL-3 ilə qiymətləndirib. Anthropic-in əvvəlki bütün modelləri isə ASL-2 səviyyəsinə aid edilib.
ASL-3 səviyyəsi, silah hazırlanmasında yardımçı olmaq və ya süni zəka sistemlərinin yaradılmasını avtomatlaşdırmaq kimi ciddi risklər yarada biləcək qədər güclü modellərə aiddir. Bir müddət əvvəl Claude Opus 4 modeli, ciddi nəzarət altında keçirilən bir test zamanı söndürülməmək üçün mühəndisi şantaj etməyə cəhd göstərdiyi üçün mediada manşetlərə çıxdı. Modelin əvvəlki versiyaları isə təhlükəli təlimatları - məsələn, terror aktlarının planlaşdırılması kimi - yerinə yetirməyə hazır idi. Şirkət ictimaiyyəti əmin edib ki, bu problem təlim məlumatları bazasına edilən dəyişikliklər sayəsində aradan qaldırılıb.