Finss.az xəbər verir ki, OpenAI süni intellekt modellərinin kiber imkanlarının sürətlə genişlənməsi fonunda təhlükəsizlik tədbirlərini daha da sərtləşdirir. Şirkətin açıqlamasına görə, GPT-nin yeni versiyalarının kibertəhlükəsizlik yarışlarında göstərdiyi performans kəskin şəkildə yüksəlib.
OpenAI bildirir ki, modellərin “bayraq ələ keçirmə” (CTF) yarışlarındakı nəticələri 2025-ci ilin avqustunda GPT-5 üçün olan 27%-dən, 2025-ci ilin noyabrında GPT-5.1-Codex-Max modelində 76%-ə qədər yüksəlib. Bu, süni intellektin kiber əməliyyatlarda daha mürəkkəb tapşırıqları yerinə yetirmə qabiliyyətinə malik olduğunu göstərir.
Şirkət həmçinin qeyd edib ki, gələcək modellərin daha güclü kiber imkanlara sahib olması ehtimalı artır. Bu da onların yaxşı qorunan sistemlərə qarşı sıfır günlük (zero-day) istismarlar hazırlaya, habelə mürəkkəb infiltrasiya əməliyyatlarına texniki dəstək göstərə biləcəyi anlamına gəlir.
Bu riskləri idarə etmək üçün OpenAI çoxmərtəbəli təhlükəsizlik yanaşmasını tətbiq edir. Tədbirlərə aşağıdakılar daxildir:
- modellərin zərərli sorğuları rədd etməsi üçün xüsusi təhlükəsizlik təlimləri,
- potensial təhlükəli fəaliyyətləri izləmək üçün aşkarlama sistemlərinin yerləşdirilməsi,
- genişmiqyaslı “red teaming” testlərinin aparılması,
- yalnız qanuni müdafiə ssenarilərini dəstəkləyən AI istifadəsinin təşviqi.
OpenAI vurğulayıb ki, məqsəd süni intellektin kiber müdafiə sahəsində faydalı tətbiqlərini gücləndirmək, eyni zamanda onun zərərli məqsədlər üçün sui-istifadəsinin qarşısını almaqdır.
