Home Робот пен дрондар,ЖИ Жасанды интеллект дәуіріндегі сенім дағдарысы және оның себептері

Жасанды интеллект дәуіріндегі сенім дағдарысы және оның себептері

17

Жасанды интеллектіні тәжірибеде қолдану барысында орын алған сәтсіздіктер оның тек шектеулі тиімділігін ғана емес, кей жағдайда нақты зиян келтіруі мүмкін екенін де көрсетіп отыр. Мұнда сөз күрделі ғылыми есептер туралы емес, ең қарапайым ақпараттық сұраныстардың өзі дұрыс орындалмайтын жағдайлар жөнінде болып отыр.

Мәселен, Google Gemini жүйесі 1904–1905 жылдардағы орыс-жапон соғысын аяқтаған Портсмут келісімін нақты сипаттаудың орнына, тарихи шындыққа мүлде сәйкес келмейтін деректер ұсынған. Жасанды интеллект әзірлеушілері мұндай құбылысты «галлюцинация» деп атайды. Алайда мәні жағынан бұл – деректі бұрмалау. Жүйенің жауабында жапон делегациясы 1905 жылы Петербургке келіп, Ресейдің тізе бүгу актісіне қол қойғаны туралы айтылған. Сонымен қатар 1855 жылы дәл осы қалада Симода келісімі жасалды деген мәлімет те келтірілген. Мұндай деректер тарихи шындыққа қайшы келеді.

ЖИ арқылы интернетте терең іздеу жүргізу мүмкіндігі де күткендей нәтиже бермейді. Ашық дереккөздерде аталған тұлғалар туралы мәліметтерді жинақтау қажет болған жағдайда, жүйе нақты ақпарат ұсынбаған. Керісінше, бірнеше рет жүгінген әртүрлі модельдер бұл адамдардың әлеуметтік желілерде мүлде парақшасы жоқ деген қорытынды жасаған. Алайда қарапайым іздеу жүйесі арқылы олардың парақшаларын табу көп уақытты қажет етпеген. Бұл жағдай ЖИ жүйелерінің дерекпен жұмыс істеудегі шектеулерін айқын көрсетеді.

Бұл тәжірибелер жасанды интеллектінің практикалық құндылығына қатысты күмәнді күшейте түседі. Сонымен бірге технологияның нақты мүмкіндіктерінен гөрі, оның айналасында қалыптасқан маркетингтік реңк басым екені байқалады. Осыны анықтау мақсатында ChatGPT жүйесіне арнайы сұрақ қойылған. Жүйе өз мүмкіндігін бағалай отырып, жасанды интеллекттің формальды белгілер тұрғысынан көпірік сипаттарына жақын екенін мойындайды.

Оның көрсетуінше, бұл құбылыстың негізгі белгілері – шынайы мүмкіндіктерден әлдеқайда жоғары уәде беру, интеллект ұғымының орнына қарапайым автотолтыру тәсілдерінің қолданылуы, тұрақты нәтижеден гөрі көрнекі мысалдарға сүйену, технологияның қай салада және қандай мақсатта тиімді екені толық айқындалмай тұрып жаппай енгізілуі, сондай-ақ агрессивті насихат пен пайдаланушылардың технологиялық үрдістен қалып қоюдан қауіптенуі. Бұған қоса, жасанды интеллект бұл үдерістің институционалдық деңгейде қолдау табатынын да атап өтеді. Яғни билік құрылымдары, инвестициялық қорлар мен ірі корпорациялар үшін мұндай көзқарасты сақтау белгілі бір деңгейде тиімді болып отыр.

ChatGPT пайымдауынша, жасанды интеллектінің сәтсіздігін нақты әрі біржақты тіркеу оңай емес. Мұндай жүйелердегі қателік белгілі бір тұлғаның жауапкершілігімен тікелей байланыстырылмайды, көбіне уақыт өте барып аңғарылады және нақты шекарасы айқын болмайды. Осыған байланысты қоғамдағы күтілім біртіндеп бәсеңдей бастайды. Алғашында жасанды интеллект ретінде ұсынылған технология уақыт өте көмекші құралға, одан әрі қарапайым автоматтандыру тетігіне айналады.

Соның салдарынан көптеген стартаптар нарықтан шеттеп, технология тар ауқымды инженерлік міндеттерді шешуге қайта бағытталады. Мұндай үрдіс бұрын блокчейн, виртуалды шындық және Web3 сияқты бағыттардың даму кезеңінде де байқалған еді.

Болжам бойынша, осы «үнсіз күйреуден» кейін кең ауқымды «жасанды интеллект» емес, тәуекелі төмен бағыттардағы мәтін генерациясы, бағдарламалау процесіне көмек көрсету сияқты шектеулі қызметтер ғана сақталуы мүмкін. Сонымен қатар, пайдаланушылардың көңілі қалып, ақпаратқа деген сенім деңгейі төмендейді. Бұл – ең қауіпті салдардың бірі. Жүйенің өзі де мұны мойындайды: мәселе технологияда емес, қоғамның шынайы түсінуді имитациямен алмастыруға бейімделуінде. Осылайша, жасанды интеллект дағдарысты туындатпайды, керісінше оны айқындап, жеделдетеді.

Болжамдарға сүйенсек, үнсіз түрде орын алатын құлдыраудан кейін кең ауқымды жасанды интеллект туралы түсінік емес, тәуекелі төмен салалардағы нақты қызметтер ғана сақталуы мүмкін. Олардың қатарында мәтін құрастыру, бағдарламалау үдерісіне жәрдемдесу секілді шектеулі мүмкіндіктер бар. Мұндай жағдайда пайдаланушылардың көңілі суып, ақпаратқа деген сенім әлсірейді. Бұл – ең алаңдатарлық салдардың бірі. Себебі мәселе технологияның өзінде емес, қоғамның шынайы түсінудің орнына жасанды бейнелеуге бейімделуінде жатыр. Осы тұрғыдан алғанда, жасанды интеллект дағдарысты тудырмайды, керісінше оны айқындап, үдете түседі.

Дегенмен бұл көзқарасты барлық сарапшы қолдай бермейді. Жасанды интеллект және генеративті нейрожелілер саласының маманы, Sherpa Robotics компаниясының негізін қалаушы Константин Артемьев мұндай пайымдауды біржақты деп санайды. Оның пікірінше, технологиялар тарихында асыра бағалау мен күтілімнің шамадан тыс өсуі жиі кездесетін құбылыс. XIX ғасырдың соңында теміржол саласы да дәл осындай кезеңді бастан өткерген. Алыпсатарлық пен құлдырауға қарамастан, теміржол жүйесі кейін жаһандық инфрақұрылымның ажырамас бөлігіне айналды. Сол сияқты интернет те бастапқы дағдарыстан өтіп, бүгінгі тұрақты дамудың негізіне айналды. Бұл жағдай кез келген инновацияның бастапқы кезеңінде әсіреленген үміттің болуы заңды екенін көрсетеді.

“РТК Софт Лабс” компаниясының бас директоры Евгений Семенов та осы пікірді қолдайды. Оның айтуынша, жасанды интеллектке салынған инвестициялар негізінен абстрактілі идеяларға емес, нақты инфрақұрылымға бағытталған. Яғни есептеу қуаты, деректер базасы, платформалар, бағдарламалық құралдар мен қауіпсіздік жүйелері дамытылуда. Сондықтан технология барлық үмітті ақтамаса да, бұл инвестициялар өз маңызын жоғалтпайды.

Сарапшы ЖИ-дің күрт күйреуі емес, керісінше оның даму кезеңінің өзгеруі орын алатынын айтады. Яғни технология хайп кезеңінен инфрақұрылымдық кезеңге өтеді. Бұл кезеңде оның шектеулері айқындалып, нақты талаптар күшейеді. Әсіресе қаржы, медицина, мемлекеттік басқару сияқты салаларда деректер сапасы, жүйе қауіпсіздігі, шешім қабылдаудың ашықтығы мен жауапкершілік мәселелері ерекше маңызға ие болады.

Осы тұрғыдан қарағанда, жасанды интеллекттің даму бағыты блокчейн технологиясының эволюциясымен үндес келеді. Алғашқы кезеңде оған ерекше үміт артылып, әмбебап шешім ретінде қабылданды. Алайда уақыт өте келе оның нақты қолдану шеңбері айқындалып, шынайы мүмкіндіктері саралана бастады. Сол сияқты жасанды интеллект те біртіндеп әсіреленген әсерден арылып, күнделікті цифрлық инфрақұрылымның табиғи әрі үйреншікті құрамдас бөлігіне айналуда.

Экономикалық тұрғыдан алғанда, ЖИ жобалары жоғары тәуекелмен қатар жоғары табыс әлеуетіне ие. КРОС компаниясының вице-президенті Ксения Касьянова бұл нарықта әртүрлі сападағы жобалардың көптігін атап өтеді. Олардың технологиялық негізі әрдайым ашық бола бермейді, ал инвестиция тарту көбіне жобаның шынайы тиімділігіне емес, оны қаншалықты тартымды ұсынуға байланысты.

Бұл жағдай нарықта белгілі бір теңгерімсіздік қалыптастырады. Стартаптар инвестиция тартуға ұмтылса, инвесторлар жоғары пайдаға үміттеніп, тәуекелді бағалау деңгейін төмендетеді. Соның нәтижесінде бірқатар жобалар күтілген нәтижеге жетпей, нарықтан кетеді. Осы кезеңде «көпірік» жарылып, баға төмендеп, инвесторлар шығынға ұшырауы мүмкін.

Дегенмен мұндай өзгерістерді апат ретінде емес, технологиялық дамудың табиғи кезеңі ретінде қарастырған жөн. Бұл – артық үміттен арылып, шынайы мүмкіндіктерді бағалауға көшу кезеңі.

Мәтінмен жұмыс істейтін адам үшін жасанды интеллект ұсынатын нәтижелер кейде мазмұн мен мағына арасындағы алшақтықты айқын көрсетеді. Жүйенің өзі де бұл мәселеге тоқталады: мәтінге деген сенімнің әлсіреуі оның мазмұндық құндылығына емес, шынайы мен жалған ақпаратты ажыратудың күрделенуіне байланысты. Алайда тарихи тұрғыдан алғанда, мәтін әрдайым адам еңбегінің жемісі болды. Сондықтан ақпаратқа деген сенім дағдарысы технологияның емес, оны қабылдау мәдениетінің өзгеруімен байланысты.

Осы тұрғыдан алғанда, жасанды интеллекттің болашағы оның толық жойылуында емес, нақты шектеулерін мойындап, тиімді әрі жауапты қолдану тетіктерін қалыптастыруда жатыр.