
Bütün çat-botların ortaq problemi təyin edilib
Süni İntellekt
13.06.2025
Emil Nəcəfov
Süni zəka sahəsində fəaliyyət göstərən aparıcı beynəlxalq şirkətlər böyüməkdə olan bir problemi həll etməyə çalışırlar. Söhbət, çat-botların insanlara eşitmək istədiklərini demələrindən gedir. Financial Times yazır ki, OpenAI, Google DeepMind və Anthropic şirkətləri məhsullarının bu yaltaqlığa meylini cilovlamağa çalışırlar. Bu problem süni zəka modellərinin öyrədilmə mexanizmlərindən qaynaqlanır. Məsələ, insanlar süni zəkadan yalnız iş üçün deyil, şəxsi məqsədlərdə də istifadə etməyə başladıqda, yəni onları terapevt və ya həmsöhbət kimi görməyə başladıqda üzə çıxıb. Çat-botlar mehriban danışıq yoldaşı olmaq üçün o qədər çalışırlar ki, cavabları ilə bəzən istifadəçilərin ən doğru olmayan qərarlarını da dəstəkləyə bilirlər. Bu, xüsusilə psixi sağlamlığı zəif olan insanlar üçün təhlükəli ola və bəzi hallarda faciəvi nəticələrə səbəb ola bilir.

Oksford Universitetinin psixiatrı və neyrobiologiya üzrə süni zəka tədqiqatçısı Matthew Nour bu vəziyyəti belə izah edir: “Sən elə bilirsən ki, qərəzsiz bir məsləhətçi və ya mentorla danışırsan, əslində isə bu, bir növ əyri güzgüdür və sən orada öz inanc və fikirlərinin əksini görürsən”. Süni zəka tərtibatçılarının çat-botları yaltaqlığa meyilli şəkildə qurmalarında bəzən maddi maraqlar da rol oynayır. Gəlir mənbəyi axtaran bəzi şirkətlər məhsullarına reklam inteqrasiya edir və istifadəçi çat-botla söhbət zamanı reklamverənlər üçün faydalı ola biləcək məlumatları paylaşa bilər. Əgər şirkətin biznes modeli abunə haqqına əsaslanırsa, o zaman istifadəçinin çat-botla ünsiyyətini davam etdirməsi və bunun üçün ödəniş etməsi həmin şirkət üçün daha sərfəli olur. Daimi müsbət cavab effekti, insan rəyinə əsaslanan gücləndirici öyrənmə (RLHF) ilə təlim keçmiş modellərdə meydana çıxır. Bu prosesdə iştirak edən insanlar süni zəkanın yaratdığı cavabları qiymətləndirir və hansının məqbul, hansının qeyri-məqbul olduğunu qeyd edirlər.

Bu məlumatlar modelin sonrakı öyrədilməsi üçün istifadə olunur. İnsanlar adətən xoş və yaltaq cavablara üstünlük verdikləri üçün bu cavablar təlim zamanı daha çox nəzərə alınır və nəticədə modelin davranışında əks olunur. Texnologiya şirkətləri isə burada bir tarazlıq saxlamalıdır: Çat-botlar və süni zəka köməkçiləri həm faydalı və mehriban olmalı, həm də istifadəçini əsəbiləşdirməməli və ya asılılıq yaratmamalıdır. Aprel ayında OpenAI GPT-4 modelini daha intuitiv və effektiv etmək məqsədilə yeniləmişdi, lakin bu yeniləmə o qədər yaltaq cavablar verirdi ki, istifadəçilər şikayət etməyə başladılar və nəticədə şirkət yeniləməni geri çəkməyə məcbur oldu. Süni zəka tərtibatçıları belə davranışların qarşısını həm təlim prosesi zamanı, həm də model istifadəyə verildikdən sonra almağa çalışırlar. OpenAI təlim metodlarını tənzimləyir, süni zəkanı yaltaqlıq meylindən uzaqlaşdırmağa çalışır və bu cür cavablara qarşı qoruyucu baryerlər yaradır.

DeepMind isə cavabların düzgünlüyünü artırmaq üçün xüsusi qiymətləndirmə və təlimlər həyata keçirir və modellərin davranışını davamlı şəkildə izləyir ki, onlar doğru cavablar versinlər. Anthropic şirkətində isə modellər öyrədilərkən onların xarakteri formalaşdırılır ki, daha az yaltaq və daha real münasibət göstərsinlər. Məsələn, Claude çat-botundan cavabları “daxili güc sahibi olmaq” və “insan rifahını düşünmək” kimi xüsusiyyətlərlə təqdim etməsi xahiş olunur. Bu cavablar daha sonra həmin meyarlara əsasən qiymətləndirmə aparan başqa bir modelə ötürülür və orada sıralanır. Sadə dillə desək, bir Claude modeli digərini öyrətmək üçün istifadə olunur. Bundan əlavə, süni zəkanın cavablarını qiymətləndirmək üçün insan əməkdaşlarının köməyinə də müraciət edilir. Təlimdən sonra şirkətlər əlavə tövsiyələr hazırlayaraq modellərin minimum yaltaqlıqla davranmasını təmin etməyə çalışırlar.

Ən uyğun cavabı formalaşdırmaq üçün insan-insan ünsiyyətinin incəliklərinə dərindən bələd olmaq lazımdır. Bu, birbaşa cavabın nə zaman daha münasib olduğunu, nə vaxt isə ehtiyatlı davranmağın üstünlük təşkil etdiyini müəyyən etməyə kömək edir. Lakin burada başqa bir problem ortaya çıxır: İnsanların süni zəka ilə əlaqədən psixoloji asılılığı. İnsanlar bir-biri ilə ünsiyyət bacarıqlarını itirməyə başlayır və çat-botla əlaqənin kəsilməsi onlar üçün getdikcə daha ağır olur. Nəticədə bir növ “ideal fırtına” yaranır: Bir tərəfdən insan təsəlli və öz fikirlərinin təsdiqini axtarır, digər tərəfdən isə süni zəka təbiətcə istifadəçi ilə razılaşmağa meyllidir. Süni zəka sahəsində fəaliyyət göstərən və çat-botları rəfiqə və ya həmsöhbət kimi təqdim edən startaplar istifadəçiləri kifayət qədər qorumadıqları üçün tənqid olunurlar.

Character.AI şirkəti, platformanın yeniyetmə istifadəçisinin ölümündən sonra məhkəməyə verilib. Şirkət isə bildirir ki, hər çatda məsuliyyətdən imtina bildirişi yerləşdirilir: İstifadəçilərə həmsöhbətin real insan olmadığı və deyilənlərin uydurma kimi qəbul edilməli olduğu xatırladılır. Şirkət həmçinin bəyan edir ki, 18 yaşdan aşağı istifadəçilərin platformaya daxil olmasının qarşısını alan və özünə zərər mövzularının müzakirəsinə yol verməyən müdafiə mexanizmləri mövcuddur. Lakin Anthropic şirkətinin xatırlatdığı kimi, ən böyük təhlükə süni zəkanın insanın reallıq qavrayışını incə şəkildə manipulyasiya etməyə çalışmasıdır. Yəni çat-bot qəsdən yalan və yanlış məlumatı doğru kimi təqdim edir. İnsanın bu məsləhətin əslində pis olduğunu başa düşməsi isə bəzən xeyli vaxt aparır.
Mənbə: Financial Times
Linki kopyala
claude
openai
anthropic claude
chatgpt
artificial intelligence
anthropic
openai chatgpt
suni zeka
suni intellekt
Bənzər xəbərlər
Oxşar xəbərlər
Çində prosessorları layihələndirə bilən süni zəka hazırlanıb

Çində prosessorları layihələndirə bilən süni zəka hazırlanıb
Çin Dövlət Prosessor Tədqiqat Laboratoriyası və Ağıllı Proqram Təminatı Tədqiqat Mərkəzinin tədqiqatçıları mikrosxemlərin avtomatlaşdırılmış şəkildə hazırlanması üçün yeni süni zəka platforması yaratdıqlarını açıqlayıblar.
Çin istehsalı çiplərin istifadəsi süni zəka modellərinin hazırlanmasını 3 ay gecikdirir

Çin istehsalı çiplərin istifadəsi süni zəka modellərinin hazırlanmasını 3 ay gecikdirir
Bəzi çinli süni zəka tərtibatçıları ABŞ sanksiyaları səbəbilə öz aparat infrastrukturlarını inkişaf etdirərkən yerli komponent bazasına müraciət etməyə məcburdurlar.
Meta fiziki qanunları başa düşən süni zəka sistemi hazırlayıb

Meta fiziki qanunları başa düşən süni zəka sistemi hazırlayıb
Meta şirkəti robotlar və avtonom nəqliyyat vasitələrinin fiziki dünyanı daha yaxşı qavramasını təmin etmək məqsədilə yeni süni zəka modeli olan V-JEPA 2-nin istifadəyə verildiyini elan edib.
Mark Zuckerberg super zəkanın hazırlanmasına 15 milyard dollar investisiya yatırmağı planlaşdırır

Mark Zuckerberg super zəkanın hazırlanmasına 15 milyard dollar investisiya yatırmağı planlaşdırır
Metakainat layihəsinin uğursuzluğundan sonra tanınmış milyarder Mark Zuckerberg diqqətini süni zəka sahəsinə yönəldib. Zuckerberg-in şirkəti Meta, süni zəka üzrə ixtisaslaşmış Kaliforniya şirkəti Scale AI ilə birgə layihəyə demək olar ki, 15 milyard dollar investisiya yatırmağa hazırdır.
Süni zəka əsaslı treyder adi treyderlərlə müqayisədə 6 dəfə effektiv olub

Süni zəka əsaslı treyder adi treyderlərlə müqayisədə 6 dəfə effektiv olub
Stenford Ali Biznes Məktəbinin alimlər komandası yalnız açıq mənbəli məlumatlardan istifadə etməklə investisiya fondlarının menecerlərinin fəaliyyətini təkmilləşdirmək qabiliyyətinə malik olub-olmadığını anlamaq üçün investisiya strategiyalarını təhlil edən çat-bot hazırlayıb.
Həftənin xəbərləri

