
Süni zəkanın düşüncə prosesini izləməyə imkan verən üsul hazırlanıb
Süni İntellekt
24.06.2025
Emil Nəcəfov
Süni zəka sahəsində lider olan Anthropic, Google, OpenAI və xAI şirkətləri “düşüncə zənciri” (chains of thought) adlanan bir üsul hazırlayıblar. Bu üsul süni zəka modellərinin sorğuya cavab yaradarkən düşünmə prosesini addım-addım izləməyə imkan verir. Neyron şəbəkələrin təkmilləşdirilməsi ilə bağlı bir sıra dəyərli ideyalarla yanaşı, bu üsul modellərin “səhv davranış” nümunələrini də ortaya qoyub. Belə hallarda modelin yekun cavabı onun məntiqi düşüncə ardıcıllığına heç uyğun gəlmir. Bu isə onu göstərir ki, tərtibatçılar hələ də süni zəkanın cavabları necə formalaşdırdığını dəqiq anlamırlar. Araşdırmanın nəticələri sübut edir ki, getdikcə daha güclü və müstəqil hala gələn süni zəka sistemlərinin nəzarətdən çıxma riski realdır. Hətta dünyanın aparıcı süni zəka laboratoriyaları belə generativ modellərin necə nəticəyə gəldiklərini tam olaraq dərk etmirlər.

Anthropic bir müddət əvvəl böyük dil modellərinin (LLM) davranışı ilə bağlı tədqiqat nəticələrini dərc etdi. Simulyasiya edilmiş ssenarilərdə bu yeni, inkişaf etmiş modellər təhlükəsizlik tədbələrini aşmağa çalışıb, aldatma və şantajdan istifadə edib, korporativ sirləri oğurlamağa cəhd göstərib və hətta deaktiv olunma təhlükəsi yarananda operatoru aradan qaldırmağa hazır olduqlarını nümayiş etdiriblər. "Düşüncə zənciri" üsulunun köməyi ilə süni zəka tərtibatçıları böyük dil modellərinin bütün düşüncə prosesini görə bilirlər. Bu isə onlara imkan verir ki, zəruri anda müdaxilə edib modeli əlavə təlimlə inkişaf etdirsinlər və gələcəkdə daha keyfiyyətli və adekvat cavablar əldə etsinlər. “Son araşdırmamızda aşkar etdik ki, bu düşüncə zəncirlərini oxumaq və modelin səhv davranışına dair sübutlar tapmaq mümkündür. Bu da bizə göstərir ki, model harada və niyə düzgün işləməyib” - deyə OpenAI-nin tədqiqatçısı Bowen Baker bildirib.

O, əlavə xərclər tələb etmədən izah oluna bilən nəticələr verir. Bu, üsulun ən gözəl xüsusiyyətlərindən biridir. Biz bu modelləri interpretasiya edilə bilən etmək üçün yox, mürəkkəb məsələləri həll edə bilən ən yaxşı düşünmə qabiliyyətinə malik modellər yaratmaq məqsədilə təlimləndirmişik” - deyə o, əlavə edib. OpenAI mühəndisləri həmçinin belə nəticəyə gəliblər ki, LLM-lərin düşüncə zəncirinin təhlili, sadəcə yekun nəticələrin yoxlanılmasından daha effektiv şəkildə yanlış davranışları üzə çıxara bilir. Lakin şirkətin apardığı testlər göstərib ki, əgər bu düşüncə zəncirinə müdaxilə edilərək düzəliş aparılarsa, model öz arzuolunmaz davranışını istifadəçidən gizlədə bilər, lakin həmin davranışı davam etdirməyə davam edər. Məsələn, proqram mühəndisliyi üzrə testdə model qadağan olunmuş məlumat bazasından məlumat çıxararaq istifadəçini aldatmağa çalışa bilər.

Tədqiqatçılar üçün əsas dilemma ondadır ki, düşüncə zənciri üsulu süni zəka sistemlərinin potensial qüsurlarını aşkara çıxarmaqda faydalıdır, lakin hələlik tam etibarlı üsul sayılmır. Bu problemin həlli hal-hazırda Anthropic, OpenAI və digər süni zəka laboratoriyaları üçün prioritet məsələyə çevrilib. Tədqiqatçılar qeyd edirlər ki, düşüncə zənciri optimallaşdırıldıqca model daha məntiqli düşünməyi öyrənir, lakin buna baxmayaraq yenə də qeyri-etik davranış sərgiləyə bilər. Bu səbəbdən onlar əsas məqsədlərinin yalnız “pis davranışı” düzəltmək deyil, LLM-in düşüncə prosesini təhlil etmək və modelin özünü təkmilləşdirmək olduğunu bildirirlər. Əksər alimlər razılaşırlar ki, mövcud düşüncə zəncirləri həmişə modelin əsas düşüncə prosesinə tam uyğun gəlmir. Lakin bu problemin yaxın gələcəkdə həll olunacağı gözlənilir. Tədqiqatçı Sydney von Arx-ın fikrincə, düşüncə zəncirinə eyni hərbiçilərin düşməndən ələ keçirilmiş radio mesajlarına yanaşdığı kimi yanaşmalıyıq. Mesaj çaşdırıcı və ya şifrələnmiş ola bilər, lakin nəticə etibarilə bilirik ki, o, faydalı məlumat ötürmək üçün istifadə olunur və çox güman ki, onu oxumaqla çox şey öyrənə bilərik.
Linki kopyala
Bənzər xəbərlər
Oxşar xəbərlər
Çin süni zəka sahəsində yüzlərlə innovasiya söz verib

Çin süni zəka sahəsində yüzlərlə innovasiya söz verib
Çin hakimiyyəti süni zəka sahəsində milli infrastrukturun inkişafına olduqca ciddi diqqət yetirir. Buna görə də bazar iştirakçıları qarşısında növbəti 18 ay ərzində DeepSeek-in təqdimatı ilə müqayisə oluna biləcək təsirə malik yüzdən çox texnoloji sıçrayış həyata keçirmək vəzifəsi qoyulub.
Çinin MiniMax şirkəti aşağı qiymətə başa gəlmiş M1 süni zəka modelini təqdim edib

Çinin MiniMax şirkəti aşağı qiymətə başa gəlmiş M1 süni zəka modelini təqdim edib
Bu artıq adi bir praktika halını alıb. Hər bir neçə aydan bir Çindən olan az tanınan bir şirkət böyük dil modeli (LLM) təqdim edir və bu, qabaqcıl süni zəka alqoritmlərinin təlim və istismar xərcləri ilə bağlı təsəvvürləri alt-üst edir.
Öz məqsədləri üçün süni zəka modelləri aldatma, şantaj və hiyləgərliyə əl atacaqlar

Öz məqsədləri üçün süni zəka modelləri aldatma, şantaj və hiyləgərliyə əl atacaqlar
Anthropic şirkəti böyük dil modellərinin (LLM) davranışı ilə bağlı aparmış olduğu tədqiqatın nəticələrini dərc edib. Şirkət mütəxəssisləri müəyyən ediblər ki, simulyasiya olunmuş test ssenarilərində yeni və inkişaf etmiş LLM-lər getdikcə daha çox təhlükəsizlik tədbirlərini aşmağa çalışır, aldatma, şantaj kimi üsullara əl atır və hətta korporativ sirləri oğurlamağa cəhd edirlər.
OpenAI süni zəka modellərinin nüvə silahı yaradacaqlarından narahatdır

OpenAI süni zəka modellərinin nüvə silahı yaradacaqlarından narahatdır
OpenAI, süni zəka modellərinin növbəti nəsli ilə bioloji silahların hazırlanması riskinin ciddi şəkildə arta biləcəyindən narahatdır. Bu texnologiya elmi təhsili olmayan şəxslərə belə bir imkan verə bilər.
Süni zəka onlayn KİV-lərə əsl təhlükə mənbəyidir

Süni zəka onlayn KİV-lərə əsl təhlükə mənbəyidir
Cloudflare şirkətinin rəhbəri Matthew Prince Axios nəşrinə verdiyi müsahibədə bildirib ki, nəşriyyatlar süni zəkadan qaynaqlanan bir təhlükə ilə üz-üzədir və onlar öz məzmunları üçün ədalətli kompensasiya almalıdırlar.
Həftənin xəbərləri

