main-post-cover

    ChatGPT və digər çat-botlar xəbər xülasələrini yaxşı hazırlamırlar

    Proqram Təminatı
    12.02.2025
    Emil Nəcəfov
         BBC tərəfindən aparılmış araşdırma göstərib ki, dünyanın dörd ən populyar süni zəka əsaslı çat-botu xəbərlərin xülasəsini hazırlayarkən çoxlu səhvlərə yol verir. Səhvlər ümumi halların yarıdan çoxunda müşahidə edilib. BBC jurnalistləri təcrübə aparıblar - onlar OpenAI ChatGPT, Microsoft Copilot, Google Gemini Perplexity çat-botlarından 100 müxtəlif xəbər süjetinə əsasən xülasə hazırlamalarını istəyiblər. Daha sonra bu sistemlərin cavablarını təhlil edərək onların nə dərəcədə dəqiq olduqlarını qiymətləndiriblər. Araşdırmanın nəticələrinə görə süni zəkanın xəbər mövzularına verdiyi cavabların 51%-də ciddi problemlər müşahidə edilib.
         BBC mənbələrinə istinad edilən cavabların 19%-i faktiki səhvlər, o cümlədən yanlış məlumatlar, səhv rəqəmlər və tarixlər ehtiva edib. Xüsusilə, Google Gemini çat-botu Böyük Britaniyanın Milli Səhiyyə Xidmətinin (NHS) bəyanatını ciddi şəkildə təhrif edib. Bundan əlavə ChatGPT və Copilot istefaya çıxmış siyasətçiləri hələ də vəzifədə hesab etməyə davam edib. Süni zəkanın məlumatlarla ehtiyatsız davranışı sistemli bir problem kimi görünür. BBC jurnalistləri qeyd ediblər ki, süni zəka "fikirlərlə faktları ayırd etməkdə çətinlik çəkir, uzun-uzadı danışır və tez-tez mühüm konteksti nəzərdən qaçırır".
         Bundan əvvəl iOS 18.3 yeniləməsində Apple Intelligence ekosisteminə daxil olan xəbər xülasəsi funksiyasının müvəqqəti olaraq deaktiv edildiyi məlum olmuşdu. Bütün süni zəka sistemləri eyni dərəcədə zəif nəticə göstərməyib. BBC araşdırmasına əsasən, Microsoft Copilot və Google Gemini-də ciddi problemlər daha çox müşahidə edilib, OpenAI ChatGPT və Perplexity isə nisbətən daha dəqiq nəticələr verib. Təcrübə bir daha sübut edib ki, süni zəka əsaslı çat-botların verdikləri məlumatlara ehtiyatla yanaşmaq lazımdır.
         Süni zəka çox sürətlə inkişaf edir, böyük dil modelləri demək olar ki, hər həftə yenilənir və böyük həcmdə verilənlər səbəbindən səhvlərin tamamilə qarşısını almaq mümkün deyil. Digər tərəfdən, hallüsinasiyaya - yəni bilərəkdən yanlış cavablar - inkişaf etmiş sistemlərdə əvvəlki dövrlərlə müqayisədə daha az rast gəlinir. OpenAI rəhbəri Sam Altman öz şəxsi bloqunda süni zəkanın Mur qanunundan daha sürətli irəlilədiyini qeyd edib. Bununla belə, hazırda çat-botlara tam etibar etmək hələ də risklidir, xüsusən də mövzu xəbərlər və faktiki məlumatlar olduqda.
    Mənbə: BBC
    Linki kopyala

    Bənzər xəbərlər

    Oxşar xəbərlər
    Oculus VR-ın yaradıcısı ABŞ ordusu üçün AR eynəklərin hazırlanması ilə məşğul olacaq
    oculus-vr-in-yaradicisi-abs-ordusu-ucun-ar-eyneklerin-hazirlanmasi-ile-mesgul-olacaq
    Avropa süni zəka sahəsinə 200 milyard avro sərf edəcək
    avropa-suni-zeka-sahesine-200-milyard-avro-serf-edecek
    Süni zəka vasitəsilə tərtib edilmiş rəsm əsərlərinin hərrac sərgisi keçiriləcək
    suni-zeka-vasitesile-tertib-edilmis-resm-eserlerinin-herrac-sergisi-kecirilecek
    Google Chrome istifadəçi hesablarının şifrələrini avtomatik şəkildə dəyişə biləcək
    google-chrome-istifadeci-hesablarinin-sifrelerini-avtomatik-sekilde-deyise-bilecek
    Süni zəkadan həddindən artıq istifadə insanda idrak qabiliyyətlərinin pisləşməsinə səbəb ola bilər
    suni-zekadan-heddinden-artiq-istifade-insanda-idrak-qabiliyyetlerinin-pislesmesine-sebeb-ola-biler