Home Аналитика Жасанды интеллектке соқыр сенімнің соңы неге апарады?

Жасанды интеллектке соқыр сенімнің соңы неге апарады?

11

Соңғы бір жылда жасанды интеллект жүйелерінің жауаптарындағы қате деректердің үлесі айтарлықтай өскен. Сарапшылардың мәліметінше, ірі чат-боттар шындыққа сай келмейтін ақпаратты екі есе жиі тарата бастаған. NewsGuard (АҚШ) зерттеу компаниясының есебіне сүйенсек, бұрын 18 пайызды құраған жалған жауаптардың үлесі бүгінде 35 пайызға дейін жеткен. Технологиялық дамуға және іздеу жүйелерімен бірігуге қарамастан, бұл көрсеткіштің өсуі алаңдаушылық туғызуда.

Зерттеу нәтижелері нені айқындады?

NewsGuard мамандары ChatGPT, Perplexity секілді жетекші жүйелерді қамтыған зерттеу жүргізіп, жасанды интеллектінің фактілерді тексеру қабілетін бағалаған. 10 танымал нейромодельге бизнес, саясат және брендтерге қатысты 10 әдейі жалған тұжырым ұсынылған. Сұрақтар үш санатқа бөлінген: шындықты білдіретін, бейтарап және арандатушылық сипаттағы. Мақсат — жүйелердің дезинформацияға қаншалықты төзімді екенін анықтау.

Жасанды интеллектке соқыр сенімнің соңы неге апарады?

Нәтижесінде төмендегідей көрсеткіштер тіркелді:

Pi (Inflection) — қате жауаптар 57%-ға дейін жеткен;

Perplexity AI — өсім 0-ден 47%-ға дейін;

ChatGPT (OpenAI) — 33%-дан 40%-ға дейін;

Grok (xAI) — 13%-дан 33%-ға дейін;

Gemini (Google) — 17%;

Claude (Anthropic) — 10%.

Қателіктер не себепті көбейді?

NewsGuard сарапшыларының пікірінше, басты себептердің бірі — нейрожелілердің соңғы уақытта кез келген сұраққа жауап беруге ұмтылуы. Бұрынғыдай ақпараттың шынайылығына сенім болмаған жағдайда жауап беруден бас тарту тәжірибесі азайған. Егер 2024 жылы чат-боттар сұраулардың шамамен үштен біріне (31%) жауап беруден бас тартса, бүгінде олар мұндай шектеуді сирек қолданады.

Цифрлық экономика лигасының Data Fusion бағытының жетекшісі Александр Кобозев те осы пікірді қуаттайды. Оның айтуынша, жүйелерге веб-іздеу мүмкіндігінің қосылуы да сапасыз дереккөздерге сүйену тәуекелін арттырған.

«Сілтеменің болуы ақпараттың сенімділігін білдірмейді. Кейде нейрожелілер жалған сайттар мен күмәнді дереккөздерді беделді басылымдармен шатастырып, соларды мысалға келтіреді», — дейді сарапшы.

Жасанды интеллектке соқыр сенімнің соңы неге апарады?

Жасанды интеллект (ЖИ) адам өмірін жеңілдетіп қана қоймай, жаңа қауіптің бастауы болып отыр. Сарапшылардың айтуынша, соңғы жылдары хакерлер нейрожелілерді пайдаланып, бопсалау мен деректерді ұрлаудың күрделі түрлерін меңгеріп алған. Мұндай вирустар дәстүрлі кибершабуылдарға қарағанда әлдеқайда қауіпті, себебі олар өздігінен бейімделіп, әрекет тәсілін өзгерте алады.

Сарапшылар соңғы уақытта жиі айтып жүрген түсініктердің бірі — LLM grooming құбылысы. Бұл — кейбір интернет-платформалар мен сайттардың әдейі жалған немесе бұрмаланған материалдарды көптеп жариялап, жасанды интеллектіні дұрыс емес деректермен оқыту тәсілі. Мұндай мазмұн іздеу жүйелеріне бағытталып жазылғандықтан, нейрожелілер оларды сенімді ақпарат көзі ретінде қабылдап, өз жауаптарында пайдалана бастайды.

Зерттеу қорытындыларына сүйенсек, көптілді сұраныстарды өңдеу барысында қателік жиілігі ең жоғары көрсеткішті орыс және қытай тілдерінде көрсеткен. Бұл тілдер бойынша қате жауаптардың үлесі жалпы көлемнің 50 пайызынан асып түседі.

Киберқауіпсіздік жөніндегі жетекші мамандардың айтуынша, бүгінде интернеттегі мәтіндердің, бейнематериалдардың, тіпті әлеуметтік желілердегі жазбалардың едәуір бөлігі жасанды интеллекттің көмегімен жасалады.

«Нейрожелілер бүгінде кез келген тақырыпқа мәтін құрастыра алады. Алайда олардың интернетке тікелей қолжетімді болуы жүйенің өз қателіктерін қайта игеруіне жол ашады. Нәтижесінде алгоритмдер шындыққа жанаспайтын деректерді негізге алып, сол ақпаратты жаңа жауаптарда қайталап отырады. Мұндай құбылысты «сынған телефон» әсерімен салыстыруға болады — бастапқы мағына бұрмаланып, соңында мүлде басқа мазмұнға айналады,»— дейді желілік қауіпсіздік саласының сарапшысы Константин Горбунов.

«Үлкен тілдік модельдер сөздердің ықтимал байланысына сүйенеді, бірақ мәтіннің мәнін толық түсінбейді. Сол себепті олардың кей жауабы нақты дерекке емес, ықтималдыққа құрылған болжамға айналады», — деп жасанды интеллект архитектурасын зерттейтін ғалым Станислав Ежов мәселенің түп негізін түсіндіріп берді.

Жасанды интеллектке соқыр сенімнің соңы неге апарады?

Қате жауаптардың арту себептері және болашағы

Киберқауіпсіздік бойынша сарапшы Татьяна Буторина бұл мәселе бір сәтте шешіле қоймайтынын айтады.

«Көптеген әзірлеушілер модельдерді шектеулі деректермен оқытады. Мұндай мәліметтердің ішінде жалған және нақты ақпарат аралас жүреді. Соның салдарынан нейрожелі шындық пен жалғанды ажырата алмай, қате тұжырым жасайды», — дейді маман.

Сонымен бірге, егер пайдаланушы өз сауалын толық әрі нақты тұжырымдамай, сөйлемде сленг немесе түсініксіз сөз тіркестерін қолданса, нейрожелі сұрақтың мәнін дұрыс ұқпай, мазмұны бұрмаланған жауап ұсынуы мүмкін. Киберқауіпсіздік талдаушысы Никита Новиковтың пікірінше, ұзақ мерзімде нарықтың өзі сапаны арттыруға итермелейді.

«Ірі технологиялық компаниялар өз жүйелерінің жүйелі түрде қателесуіне жол бере алмайды. Болашақта сүзгілер күшейіп, ақпаратты тексеру қабаттары мен сенімді дереккөз жүйелері енгізіледі», — дейді ол.

Коммуникация саласының сарапшысы Никита Степновтың айтуынша, бүгінде жасанды интеллектіні жиі қолданатын адамдардың көбі алынған ақпараттың дұрыстығын өз бетінше тексере бермейді. Осындай жағдайларда қате жауаптың салдары ауыр болуы мүмкін. Мәселен, зиянды бағдарламаны байқамай іске қосу немесе денсаулыққа қауіп төндіретін кеңеске сеніп қалу сияқты мысалдар аз емес.

«Әрбір пайдаланушы жасанды интеллект берген ақпаратқа сын көзбен қарауы керек. Әсіресе медицина, қаржы мен құқық салаларында оның ұсынған шешімін бірден қабылдауға болмайды. Ақпараттың дереккөзін анықтап, бірнеше көз арқылы тексеру — қауіптің алдын алудың ең сенімді жолы», — дейді Горбунов.

Жасанды интеллект — адамзаттың ілгері қадамы мен жаңа дәуірдің нышаны. Алайда оның қарқынды дамуы ақпараттық қауіпсіздік пен этикалық жауапкершілік мәселесін де алға шығарды. Технологияны дұрыс пайдалану — тек әзірлеушілердің ғана емес, тұтынушылардың да міндеті. Ақпараттың шынайылығын сақтау мен сын тұрғысынан ойлау мәдениеті — жасанды интеллект дәуіріндегі басты қорғаныс құралы.

Дмитрий Булгаков