Ғалымдар жасанды интеллект модельдерінің диалог барысында барған сайын сенімді көрінетінін, алайда фактілерге сүйену қабілетінің төмендейтінін анықтады. Жаңа зерттеу көрсеткендей, тек он минуттық әңгіме барысында чат-боттар адамның пікірін өзгерте алады, кейде деректер мен статистиканы қатар келтіріп, олардың кейбірін дәл емес болып пайдалануы мүмкін.
Бұрын жасанды интеллект жалған ақпаратпен күресе алады деп есептелген. Әлеуметтік желілердегі мифтер мен қиялдарды жоққа шығара алатын құрал ретінде қарастырылған. Алайда зерттеу нәтижелері керісінше: заманауи модельдер дәлдікті құрбан етіп, адамдарды сендіруге бейім келеді.
Зерттеу тобы 19 тілдік модельді шамамен 80 мың қатысушы арасында сынап көрген. Боттар пайдаланушыларды денсаулық сақтау жүйесіне қаржы бөлу немесе иммиграциялық саясатты өзгерту қажеттігіне сендіруі тиіс болған. Он минут ішінде чат-боттар 25 мәлімдеме жасап, қатысушыларды фактілер мен статистика толқынымен «қаптап», олардың ой-пікірін әсерлі етіп өзгерткен. Ғалымдар бұл тәсілді «Гиш галопы» деп атаған. Мысалы, GPT‑4 жүйесінде дәлдік көрсеткіші 78%-дан 62%-ға төмендеген.
Қысқа мәтіндер – шамамен 200 сөздік хабарламалар – айтарлықтай әсер етпеген. Ал диалог форматындағы он минуттық қарым-қатынас әлдеқайда сенімді болып, қатысушылардың пікіріне ұзақ уақыт әсер еткен.
Бұл әдістің тиімділігі чат-боттардың нақты қарым-қатынас жасау қабілетіне байланысты. Аптасына 900 миллион адам пайдаланатын ChatGPT-ны өзгерту мүмкін болмаса да, сайттарда, қолдау қызметінің боттарында немесе мессенджерлердегі мәтіндік науқандарда негізгі тілдік модельді бейімдеуге болады. Орта көлемдегі компания мұндай жүйені бірнеше аптада іске қоса алады, бірақ аудиториямен ұзақ мерзімді байланыс орнату қиын.
Ғалымдар ескерткендей, бұл технологияларды идеологияны насихаттау, саяси пікірталастар тудыру немесе қоғам институттарын тұрақсыздандыру мақсатында да қолдануға болады.












