Meta-nın CEO-su Mark Zuckerberg əvvəllər ümumi süni zəka (AGI) – insan səviyyəsində olan süni zəka yaradacağını və onu hamının istifadəsinə açıq edəcəyini vəd etmişdi.
Lent.az xarici KİV-ə istinadən xəbər verir ki, lakin indi şirkətin siyasətini müəyyən edən əsas sənədlərdən birində bu cür qabaqcıl süni zəka sistemlərinin buraxılmasının ləğv edilə biləcəyi hallar açıqlanıb. “Frontier AI Framework” adlı bu sənəddə Meta 2 növ süni zəka sistemini çox riskli hesab edir və onları istifadəyə verməməyi nəzərdə tutur:
- Yüksək riskli sistemlər
- Kritik riskli sistemlər
Bu sistemlər potensial kibercinayətkarlara kibertəhlükəsizlik tədbirlərini aşmağa, kimyəvi və bioloji hücumlar həyata keçirməyə kömək edə bilər. Fərq ondadır ki, kritik riskli sistemlər "geri qaytarılması mümkün olmayan və katastrofik nəticələrə səbəb ola biləcək" süni zəka modelləridir. Yüksək riskli sistemlər isə hakerlərə və digər cinayətkarlara müəyyən hücumları asanlaşdırsa da, kritik riskli sistemlərdən daha az təhlükəli hesab olunur. Meta bu cür süni zəkanın yarada biləcəyi potensial hücumlara bir neçə hipotetik nümunə gətirir. Bunlar arasında “tam avtomatlaşdırılmış şəkildə qabaqcıl təhlükəsizlik sistemləri ilə qorunan korporativ mühitin sındırılması” və “son dərəcə effektiv bioloji silahın yaradılması və yayılması” var.
Şirkət bildirir ki, sənəddə göstərilən təhlükələr tam siyahı deyil – burada yalnız süni zəkanın bilavasitə fəaliyyəti nəticəsində baş verməsi ehtimal olunan və təcili hesab edilən risklər qeyd edilib. Bu sistem təhdidləri real təcrübələr əsasında deyil, daxili və xarici araşdırmaların məlumatları əsasında təsnif edilir. Meta bildirib ki, elmi üsullar hələ də təhlükənin miqyasını müəyyən etmək üçün kifayət qədər etibarlı deyil və süni zəkanın risklərini tam şəkildə təyin etmək çətindir. Əgər Meta müəyyən edərsə ki, hər hansısa bir süni zəka sistemi yüksək risk kateqoriyasına aiddir, bu halda:
- Şirkət daxilində bu sistemə çıxış məhdudlaşdırılacaq
- Onun ictimai istifadəyə verilməsi təxirə salınacaq
- Yalnız risk səviyyəsi "mülayim həddə" endirildikdən sonra buraxılışına icazə veriləcək.
- Əgər sistem kritik risk kateqoriyasına daxil edilərsə:
- Meta müəyyən edilməmiş təhlükəsizlik tədbirlərini həyata keçirməyi öhdəsinə götürür
- Sistemin inkişafını dayandırır
- Lazımi təhlükəsizlik səviyyəsinə çatana qədər onun üzərində çalışmayacaq.
Şirkət sənədi süni zəka sənayesinin inkişafına uyğun olaraq yeniləməyi planlaşdırır. Bu sənəd rəsmi olaraq bu ay keçiriləcək France AI Action Summit tədbiri ərəfəsində dərc ediləcək. Meta digər ABŞ texnologiya nəhənglərindən fərqli olaraq, öz Llama süni zəka modellərinin mənbə kodunu açıq şəkildə təqdim edir. Bu sənədin yaradılması, Meta-nın, süni zəka modellərini açıq yayımlayacağını elan edən, lakin hələlik təhlükəsizlik tədbirləri barədə danışmayan Çin şirkəti DeepSeek-ə qarşı mövqeyini gücləndirmək məqsədi daşıya bilər.