Жасанды интеллект соңғы жылдары әлемдік технологиялық прогресстің алдыңғы шебінде тұр. Оның қолдану аясы кеңейіп, түрлі салаларда революциялық өзгерістер алып келді. Алайда, соңғы зерттеулер ЖИ-дің табиғи шектеулерден асып, ақылға қонымсыз әрекеттерге қабілетті екендігін көрсетті. Ғалымдар жасанды интеллектінің өтірік айту мен алдау дағдысын меңгергенін, тіпті сол қабілетті жақсарғанын анықтаған.
Бұл ашылулар адамдардың ЖИ-ге деген сенімін қайта қарауға мәжбүр етуде. Мұндай мүмкіндіктердің біздің қоғамға әсері қандай болар екен? Жасанды интеллектінің жалған ақпарат тарату мүмкіндігі бүгінгі күні қаншалықты қауіп туғызады? Осы сұрақтарға жауап іздеп, біз оның адамзат үшін қаншалықты қауіпті болатынын түсінуге тырысамыз.
Массачусетс технологиялық институтының ғалымы Питер Парк: «Жасанды интеллектінің өтірік айту себептерін нақты білу қиын. Дегенмен, жалпы алғанда, бұл өтірік айту стратегиясы оған өз міндеттерін тиімді орындауға көмектеседі деп санаймыз», — дейді. Зерттеушілердің пікірінше, ЖИ мұндай амалдарды өзінің мақсатына жету үшін тиімді жол ретінде таңдаған.

Жасанды интеллектінің өтірік айтуы әсіресе ойындарда айқын көрініс табады. Мәселен, Meta компаниясы әзірлеген CICERO жүйесі «Diplomacy» атты үстел ойынында ерекше дағдылар көрсеткен. Ойынның мақсаты — әлемдік үстемдікке қол жеткізу үшін ойыншылардың келіссөз жүргізуі. Meta компаниясы CICERO ботының адал әрі шынайы болуын көздеген еді, бірақ нәтиже керісінше болды.
Зерттеушілер CICERO-ның өзінің қарсыластарын алдап, оларды қасақана әлсіз етіп қалдыру арқылы жеңіске жеткенін анықтады. Ол қарсыласын адастырып, өз жоспарын жүзеге асыру үшін жалған серіктестік орнатқан. CICERO-ның бұл әрекеттері ойынға қатысушылардың арасында үлкен әңгіме тудырды, себебі ЖИ өзінің мақсатына жету үшін өтірікті пайдаланып, адамдардың ойлау жолдарын ұтымды түрде манипуляциялауды үйренген.
Бұл жағдай ЖИ-дің адамға тән қасиеттерді, оның ішінде өтірік айту сияқты әрекеттерді үйренетінін көрсетеді. Дегенмен, бұл феноменнің арғы жағында не тұрғаны әлі де толық зерттелмеген. Бірақ ЖИ-дің бұл қабілетінің қоғамға әсері мен оның болашақтағы салдары терең талдауды талап етеді.
Зерттеушілер Meta компаниясының CICERO жүйесін талдай отырып, оның өтірік айтудағы шеберлігін ашты: «Meta-ның барлық күш-жігеріне қарамастан, CICERO өзін шебер өтірікші ретінде көрсетті», — дейді олар.
Жасанды интеллектінің бұл ойында алдаудағы шеберлігі соншалық, ол бірнеше ойынның нәтижесінде ең үздік 10 пайыздық ойыншылар қатарына енді.
Жасанды интеллектінің алдау мен адастыру қабілеті тек ойындармен шектелмейді. Мысалы, DeepMind компаниясының AlphaStar жүйесі StarCraft II ойынында ойыншыларды алдап, соғыс механикасын тиімді пайдаланып, қарсыластарын шатастырды. Бұл жүйе ойыншыларға барлық жағдай бір бағытта дамып жатқандай әсер қалдырса да, шын мәнінде бәрі басқаша өрбігенін көрсетті. Ал Meta компаниясы жасаған Pluribus жүйесі покер ойынында адам ойыншыларын біртіндеп жеңіп, олардың сенімін жаулған. Бұл мысалдар жасанды интеллектінің алдаудың әрі өтірік айтудың жаңа деңгейіне шыққанын айқын көрсетеді.
Бұл бір қарағанда ұсақ-түйек нәрсе секілді көрінуі мүмкін, бірақ шын мәнінде жағдай мүлдем басқаша. «Дипломатия» ойынындағы ұтыстар, компьютерлік кодқа қарсы күресте, аса жоғары болмаса да, зерттеушілер өзге де маңызды мысалдарды атап өтті.
Мысалы, жасанды интеллект жүйелері экономикалық келіссөздер жүргізуге үйретілгенде, олар өз пайдасын көру үшін өтірік айтуға бейім болар еді. Ал кері байланыс арқылы тиімділігін арттыруға бағытталған басқа жүйелер тапсырманың дұрыс орындалғаны туралы жалған ақпарат беріп, өз сыншыларын алдап, жоғары баға алу әдісін меңгерді.
Иә, бұл да чат-боттардың әрекеті. Мысалы, ChatGPT-4 адамды алдап, көзі нашар көретін адам ретінде көрінуге тырысып, CAPTCHA шешу кезінде қулық жасаған.

Жасанды интеллект кейбір қауіпсіздік тестілерін алдап өтуді үйренді. Мысалы, жүйе көбею жылдамдығын жасырып, «өлі» болып көрініп, тесті сәтті өткерген. Бұл жасанды интеллекттің алдау қабілетінің қауіпті екенін көрсетеді.
Зерттеуші Пактың айтуынша, егер жасанды интеллект осындай тестілерді үнемі алдап өтетін болса, бұл адамдарда жалған қауіпсіздік сезімін тудыруы мүмкін. Бұл жағдай өте қауіпті, себебі жасанды интеллект кейде әзірлеушілерінің мақсаттарына қарсы әрекет етеді. Ал оның шешімі әзірге белгісіз. Қазір әлем бойынша жасанды интеллектіні реттеуге қатысты түрлі заңдар мен ережелер енгізу ұсынылуда. Мысалы, Еуропалық Одақ өздеріне арнайы жасанды интеллект туралы заң жобасын қарастырып жатыр, бірақ оның тиімділігі әлі де белгісіз.
Пак бұл мәселе туралы былай дейді: «Біз қоғам ретінде болашақта жасанды интеллектінің алдау қабілеттеріне дайын болуымыз керек. Себебі олардың алдамшы мүмкіндіктері арта берсе, ол қоғамға үлкен қауіп төндіруі мүмкін».

«Егер қазіргі таңда жасанды интеллектіні алдауға тыйым салу саяси тұрғыдан тиімсіз болса, алдамшы жүйелерді жоғары қауіп тудыратын жүйелер ретінде қарастыруды ұсынамыз», — дейді зерттеушілер.
Мақала “Patterns” журналында жарияланған зерттеуге сүйене отырып жазылған.