
OpenAI süni zəka modellərinin nüvə silahı yaradacaqlarından narahatdır
Süni İntellekt
21.06.2025
Emil Nəcəfov
OpenAI, süni zəka modellərinin növbəti nəsli ilə bioloji silahların hazırlanması riskinin ciddi şəkildə arta biləcəyindən narahatdır. Bu texnologiya elmi təhsili olmayan şəxslərə belə bir imkan verə bilər. OpenAI-in təhlükəsizlik sistemləri üzrə rəhbəri Johannes Heidecke bildirib ki, “bizim o3 (məntiq yürüdə bilən model) modelimizin bəzi davamçıları bu səviyyəyə çata bilər”. Bu səbəbdən OpenAI təhlükəsizlik testlərini gücləndirir. Şirkət, getdikcə daha güclü süni zəka modellərinin yaratdığı riskləri qiymətləndirmək və azaltmaq üçün sistem hazırladığını açıqlayıb. Məqsəd, bu modellərdən cinayətkarlar və terrorçular tərəfindən istifadə olunma ehtimalını azaltmaqdır. Əgər risklərin azaldılmasına dair tədbirlər görülməzsə, bu modellər tezliklə yeni bir səviyyəyə çata bilər və nəticədə məhdud elmi biliyə sahib insanlar belə təhlükəli silahlar yarada bilərlər.

“Biz hələ tamamilə yeni, əvvəllər mövcud olmayan və bioloji təhdidlər yaradan bir şeyin mövcud olduğu bir dünyada yaşamırıq. Biz daha çox ekspertlərin artıq yaxşı tanıdıqları şeylərin yenidən yaradılması imkanlarından narahatıq” - deyə Heidecke bildirib. Əsas çətinlik ondan ibarətdir ki, həyati vacib tibbi irəliləyişlərə səbəb ola biləcək alətlər eyni zamanda pis niyyətli şəxslər tərəfindən təhlükəli məqsədlərlə istifadə oluna bilər. Məhz buna görə də aparıcı süni zəka laboratoriyalarının yüksək dəqiqlikli test sistemlərinə ehtiyacı var. “Bu, məhsuldarlığın 99% olduğu və ya hər 100 000 haldan birində səhvin qəbul edilə biləcəyi sahə deyil. Bizə əsasən demək olar ki, qüsursuz bir şey lazımdır” - deyə Heidecke qeyd edib.

OpenAI bu məsələdə – yəni modellərinin silah hazırlanmasında qanunsuz istifadəsi ilə bağlı narahatlıq keçirən yeganə şirkət deyil. Süni zəka modelləri daha təkmil olduqca, onların cinayət məqsədilə istifadə potensialı da artır. Bir neçə müddət əvvəl Anthropic şirkəti əvvəlki modellərlə müqayisədə daha sərt təhlükəsizlik protokollarına sahib olan inkişaf etmiş Claude Opus 4 modelini təqdim etmişdi. Şirkət bu modeli ABŞ hökumətinin bioloji təhlükə səviyyələri (BSL) əsasında hazırlanmış məsuliyyətli miqyaslandırma siyasətinə uyğun olaraq süni zəka üçün üçüncü “təhlükəsizlik səviyyəsi” (AI Safety Level), yəni ASL-3 ilə qiymətləndirib. Anthropic-in əvvəlki bütün modelləri isə ASL-2 səviyyəsinə aid edilib.

ASL-3 səviyyəsi, silah hazırlanmasında yardımçı olmaq və ya süni zəka sistemlərinin yaradılmasını avtomatlaşdırmaq kimi ciddi risklər yarada biləcək qədər güclü modellərə aiddir. Bir müddət əvvəl Claude Opus 4 modeli, ciddi nəzarət altında keçirilən bir test zamanı söndürülməmək üçün mühəndisi şantaj etməyə cəhd göstərdiyi üçün mediada manşetlərə çıxdı. Modelin əvvəlki versiyaları isə təhlükəli təlimatları - məsələn, terror aktlarının planlaşdırılması kimi - yerinə yetirməyə hazır idi. Şirkət ictimaiyyəti əmin edib ki, bu problem təlim məlumatları bazasına edilən dəyişikliklər sayəsində aradan qaldırılıb.
Linki kopyala
Bənzər xəbərlər
Oxşar xəbərlər
Süni zəka onlayn KİV-lərə əsl təhlükə mənbəyidir

Süni zəka onlayn KİV-lərə əsl təhlükə mənbəyidir
Cloudflare şirkətinin rəhbəri Matthew Prince Axios nəşrinə verdiyi müsahibədə bildirib ki, nəşriyyatlar süni zəkadan qaynaqlanan bir təhlükə ilə üz-üzədir və onlar öz məzmunları üçün ədalətli kompensasiya almalıdırlar.
Microsoft OpenAI ilə əməkdaşlığını dayandıra bilər

Microsoft OpenAI ilə əməkdaşlığını dayandıra bilər
Əgər əsas məsələlər üzrə - xüsusilə OpenAI kommersiya təşkilatına çevrildikdən sonra Microsoft-un oradakı payı ilə bağlı - razılıq əldə olunmasa, Microsoft OpenAI ilə tərəfdaşlıq şərtlərinin yenidən nəzərdən keçirilməsi üzrə danışıqları dayandıra bilər.
Süni zəka inanılmaz dərəcədə böyük həcmdə enerji sərf edir

Süni zəka inanılmaz dərəcədə böyük həcmdə enerji sərf edir
OpenAI-nin rəhbəri Sam Altman “ChatGPT bir sorğu üçün nə qədər enerji sərf edir?” sualına cavab olaraq bildirib ki, bu göstərici 0.34 vat-saatdır. Lakin mütəxəssislər əmindirlər ki, bu rəqəm real vəziyyəti əks etdirmir, çünki real dünyada sorğuların yerinə yetirilməsi zamanı yaranan şərtlər nəzərə alınmayıb.
ChatGPT-nin beyin aktivliyini aşağı saldığı təyin olunub

ChatGPT-nin beyin aktivliyini aşağı saldığı təyin olunub
MIT Media Lab və bir neçə digər ABŞ universitetindən olan tədqiqatçılar qrupu neyron şəbəkələrdən istifadənin beyin fəaliyyəti və informasiya qavrama qabiliyyətində yaratdığı dəyişiklikləri birbaşa şəkildə əlaqələndirən ilk genişmiqyaslı araşdırmanı həyata keçirib.
Süni zəka əsaslı Midjourney V1 adlı video generator istifadəyə verilib (VİDEO)

Süni zəka əsaslı Midjourney V1 adlı video generator istifadəyə verilib (VİDEO)
Süni zəka əsaslı təsvir generasiyası sahəsində ən məşhur startaplardan biri olan Midjourney şəkillərdən videolar yaradan V1 modelinin istifadəyə verildiyini elan edib.
Həftənin xəbərləri

