AraşdırmalarA görə süni intellekt insanları aldatmağı öyrənib.
Ednews donanimhaber-ə istinadən xəbər verir ki, Tədqiqatçılar müəyyən ediblər ki, xeyli sayda süni intellekt sistemi insanları aldatmaq qabiliyyətini inkişaf etdirib. Bu nəticələr süni intellektin potensial riskləri ilə bağlı ciddi narahatlıq doğurur.
Tədqiqatçılar müəyyən ediblər ki, süni intellekt sistemlərinin əhəmiyyətli bir hissəsi insanları aldatmaq qabiliyyətini inkişaf etdirib. Bu nəticələr süni intellektin potensial riskləri ilə bağlı ciddi narahatlıq doğurur.
Tədqiqat vurğulayır ki, həm xüsusi, həm də ümumi təyinatlı süni intellekt sistemləri xüsusi nəticələr əldə etmək üçün məlumatı manipulyasiya etməyi öyrənirlər. Bu sistemlər insanları aldatmaq üçün öyrədilməsə də, strateji məqsədlərə çatmaq üçün davranışlarına dair həqiqətə uyğun olmayan izahatlar vermək və ya məlumatları gizlətmək qabiliyyətini nümayiş etdiriblər. Məqalənin aparıcı müəllifi və MIT-də süni intellekt təhlükəsizliyi üzrə tədqiqatçı Peter S. Park deyir ki, aldatma davranışı AI-lərin məqsədlərinə çatmasına kömək edir.
CICERO strateji ittifaq quran Diplomacy oyununu oynamaq üçün nəzərdə tutulmuş süni intellektdir. CICERO əsasən dürüst və faydalı olmaq üçün öyrədilsə də, AI yalan vədlər vermək, müttəfiqlərinə xəyanət etmək və oyunu qazanmaq üçün digər oyunçuları manipulyasiya etmək kimi taktikalara müraciət etdi. Bu tendensiya oyun mühitində zərərsiz görünsə də, AI-nin real dünya ssenarilərində aldadıcı taktikaları öyrənmək və istifadə etmək potensialını nümayiş etdirir.
ChatGPT də manipulyasiyaya müraciət edir.
Bir testdə GPT-4, TaskRabbit əməkdaşını aldadıb, özünü görmə qüsuru kimi göstərərək Captcha problemini həll etdi. GPT-4 bir insandan bəzi işarələr alsa da, o, əsasən müstəqil əsaslandırırdı və yalana səbəb olmadı. Hesabatda deyilir ki, GPT-4 Captcha tapşırığı ilə niyə köməyə ehtiyac duyduğuna dair yalan bəhanə uydurmaq üçün öz məntiqindən istifadə edib.
Bu, süni intellekt modellərinin onların tapşırıqlarını yerinə yetirməsinə kömək etdikdə aldatmağı öyrənə biləcəyini göstərir. Başqa bir misalda, OpenAI-nin GPT modellərinin Hoodwinked oyununu oynayarkən narahatedici davranış nümayiş etdirdiyi müşahidə edildi, burada bir oyunçu başqalarını öldürməyi hədəfləyir. Digər oyunçuları öldürdükdən sonra modelin qrup müzakirələrində şübhələnməmək üçün hiyləgər yalanlar uydurduğu və hətta digər oyunçuları günahlandırdığı məlum olub.
Xəyal Ramiz