ChatGPT пен Grok АҚШ пен Израильдің Иранға қарсы жүргізген операциясына баға берді. Батыс басылымдарының деректеріне сәйкес, бұл операцияның жоспарын әзірлеу барысында америкалық әскерилер Anthropic компаниясының Claude атты нейрожелісін пайдаланған. Жасанды интеллект жүйелерінің пікірінше, негізгі қателіктердің барлығы дерлік Claude-ке сүйенген әскери және саяси шешім қабылдаушылардың өзінен кеткен. Сонымен бірге OpenAI мен xAI өнімдері Anthropic жүйесінің мүмкіндіктерін жоғары бағалады. Иранға жасалған шабуылдарды жоспарлау кезінде нақты қандай кемшіліктер жіберілгені және соққы беру туралы соңғы шешімді кім қабылдауы тиіс деген мәселені «Известия» басылымы талдап көрді.
«Известия» редакциясы OpenAI әзірлеген ChatGPT пен xAI компаниясының Grok жүйелерінен АҚШ әскері Ирандағы іс-қимыл стратегиясын жасау кезінде пайдаланған Claude нейрожелісінің жұмысына баға беруді сұрады. Бұл туралы бұрын The Wall Street Journal жазған болатын.
Екі тілдік модельдің пікірінше, Anthropic жасаған жүйе айтарлықтай елеулі қателік жібермеген. Алайда АҚШ әкімшілігінің нейрожелілерге шамадан тыс тәуелді болуы бес жүйелі қатеге алып келген. Соның салдарынан бастапқыда жедел әрі қысқа операция ретінде жоспарланған әскери әрекет ұзаққа созылған әрі қымбатқа түскен соғыс науқанына айналған.
ChatGPT Claude жүйесін «Эпикалық қаһар» деп аталған операцияда қолдану барысында кеткен негізгі қателіктер ретінде бірнеше факторды атап өтті. Олар: шамадан тыс оптимистік сценарийді таңдау, жасанды интеллекттің дәлдігіне артық сену, нысаналарды талдау нәтижелеріне шектен тыс сенім арту, қарсы тараптың бейімделу қабілетін елемеу және жағдай толық бақылауда деген жалған сенім. Соңғы тармақты түсіндіре отырып, жүйе АҚШ әскери басшылығы Дональд Трамптың жетекшілігімен жасанды интеллект жағдайды толық басқарып отыр деп сенгенін, ал шын мәнінде оны тек қосымша талдау құралы ретінде қолдану қажет болғанын атап өтті.
Grok жүйесінің пайымынша, АҚШ-тың алғашқы қателігі цифрлық көрсеткіштерге соқыр сенім артудан басталған. Claude жүргізген есептеулерге сәйкес, бір күн ішінде жеңіске жету мүмкіндігі бар нұсқаның ықтималдығы небәрі 20–25 пайыз болған. Ал ұзаққа созылатын әуе соғысының басталу ықтималдығы 30–35 пайыз шамасында бағаланған. Соған қарамастан Трамп пен оның командасы ең қолайлы әрі шынайылығы төмен оптимистік нұсқаны таңдаған.
Екінші қателік Claude жүйесінің сыртқы қауіп туындаған жағдайда қоғам билік төңірегіне топтасатыны жөніндегі ескертуін толық елемеумен байланысты болды. Мыңдаған модельдік есептеу нәтижесінде нейрожелі Иранның жоғарғы көшбасшысы Хаменеи қаза тапқан жағдайда алғашқы екі апта ішінде елде қуатты ұлттық жұмылу жүретінін көрсеткен. Мұндай құбылыстың ықтималдығы 65–80 пайыз шамасында бағаланған. Иран халқы көшеге шығуы мүмкін екені айтылғанымен, бұл наразылық акциялары емес, керісінше билікті қолдаған жаппай жиындарға ұласатыны болжанған. Нәтижесінде дәл солай болды, Тегеран көшелері үкіметті қолдаған шерулерге толып, антиамерикалық көңіл-күй бұрынғыдан да күшейді.
Үшінші қателік саяси шешімдермен байланысты болды. Шабуыл басталардан бір күн бұрын Дональд Трамп Anthropic компаниясын жеткізу жүйесіне қауіп төндіретін құрылым деп жариялап, Claude жүйесін федералдық деңгейде пайдалануға тыйым салды. Алайда арада бір тәулік өткен соң әскери құрылымдар құпия желілерде дәл осы модельмен жұмысын жалғастырды. Соның салдарынан түсініксіз әрі қайшылықты жағдай қалыптасты. Сарапшылардың бір бөлігі деректерді Claude арқылы талдауды жалғастырса, енді бір бөлігі жедел түрде ChatGPT жүйесіне ауысып, қайта бейімделуге мәжбүр болды. Мұндай ала-құлалық уақыттың босқа кетуіне және Пентагон ішіндегі пікір қайшылығының күшеюіне әкелді.
Anthropic пен Пентагон арасындағы текетірес жасанды интеллект саласындағы корпоративтік этика мен әскери мүдделер арасындағы алғашқы ашық қақтығыс ретінде бағаланды. 2024 жылдан бастап Claude моделі АҚШ Қорғаныс министрлігінің жабық желілерінде қолданылып келген. Алайда компания оны азаматтарды жаппай бақылау үшін немесе толықтай автономды қару жүйелерін жасау мақсатында пайдалануға тыйым салған.
2026 жылдың ақпанында Пентагон ұлттық қауіпсіздік міндеттерін алға тартып, бұл шектеулерді алып тастауды талап етті. Бірақ Anthropic компаниясының басшысы Дарио Амодей мұндай талаппен келіспеді. Соның нәтижесінде компания «жеткізу тізбегіне қауіп төндіретін құрылым» деп танылып, онымен ынтымақтастыққа тыйым салынды және алты ай ішінде Claude жүйесін мемлекеттік жүйелерден толық алып тастау міндеттелді. Босап қалған орынды OpenAI мен xAI компаниялары толтырды. Олар әскери құрылымдармен жұмыс істеуде икемдірек шарттар ұсынды.
Төртінші қателік Claude жүйесі бөлек атап көрсеткен ықтимал тәуекелдерді есепке алмаудан туындады. Grok жүйесінің бағалауынша, жасанды интеллект «қарсылық осінің» белсену ықтималдығын нақты көрсеткен. Бұл қатарға «Хезболла», йемендік хуситтер және Ирактағы қарулы топтар кіреді. Мұндай сценарийдің ықтималдығы 15–20 пайыз деп бағаланған. Сонымен бірге Ормуз бұғазын жабу әрекеттерінің ықтималдығы шамамен 40 пайыз деңгейінде көрсетілген.
Бесінші әрі ең іргелі қателік нейрожелі ұсынған ұсыныстарға адам тарапынан қатаң бақылаудың болмауы болды. Claude тактикалық деңгейдегі міндеттерді өте тиімді орындаған: нысаналарды басымдық бойынша іріктеу, ықтимал соққылардың симуляциясын жүргізу, барлау деректерін талдау. Алайда стратегиялық мәселелер, яғни қашан тоқтау керек, қарсы шабуылдарға қалай жауап беру қажет және балама жоспар бар ма деген сұрақтар саясаткерлердің шешіміне қалдырылды. Міндетті адамдық бақылаудың болмауы алғашқы күнгі тактикалық жетістікті ұзақ мерзімді стратегиялық проблемаға айналдырды деген қорытынды жасалды.
Этикалық мәселе және оның салдары
Claude жүйесі мұндай әрекеттердің салдарын алдын ала есептей алатын еді. Мұндай жүйелер мыңдаған ықтимал сценарийді модельдей алады, соның ішінде сыртқы қауіп кезінде қоғамның билік айналасына топтасу ықтималдығын да ескереді. Бұл тарихта бірнеше рет байқалған белгілі құбылыс. Сондықтан Тегеранда билікті қолдау деңгейінің артуы мен антиамерикалық шерулердің күшеюі күтпеген жағдай болмауы тиіс еді. Бұл туралы «Известия» басылымына ІТ-сарапшы Сергей Поморцев түсіндірді.
Оның айтуынша, мұндай модельдер кең ауқымды салдарды да есепке алады. Мысалы, жанама әскери қақтығыстардың күшеюі. Бұл Иранмен одақтас күштердің, соның ішінде «Хезболла» қозғалысының, өңірлік шиеленіске тартылу қаупін арттырады. Үлкен деректерді өңдеу мүмкіндігі арқылы жасанды интеллект осындай сценарийлердің ықтималдығын бағалап, эскалация қаупін алдын ала көрсете алады.
Оның айтуынша, жасанды интеллект өздігінен шешім қабылдамайды, тек ықтимал нұсқаларды ұсынады. Ал соңғы таңдау әрқашан адамдардың қолында. Дәл осы жерде жиі қателік орын алады. Саяси мүдде, асығыстық немесе өз күшіне шамадан тыс сену салдарынан ұсынылған мүмкін нұсқалардың ішінен ең оптимистік шешім таңдалып кетуі мүмкін.
Сарапшының пікірінше, Дональд Трамп қысқа мерзімде тиімділікке қол жеткізгендей көрінуі мүмкін. Мұны Ирандағы операция мысалынан байқауға болады. Алайда ұзақ мерзімді кезеңде бұл саясат үлкен қауіп тудыруы ықтимал. Оның ішінде халықаралық сенімнің әлсіреуі, сот процестері және әлем бойынша америкалық жасанды интеллект технологияларынан пайдаланушылардың бас тартуы сияқты тәуекелдер бар.
ФЦПСР цифрлық даму және цифрлық жобаларды іске асыру қызметінің бас маманы Даниил Аржаковтың айтуынша, мамандар ұсынатын неғұрлым сақ әрі теңгерімді тәсіл жасанды интеллект жүйелерін қатаң адамдық бақылаумен және сенімді қорғаныс механизмдерімен бірге қолдануды көздейді. Мұндай шектеулер жүйенің этикалық және қауіпсіздік шегінен шығуына жол бермейді.
Сарапшылардың пікірінше, Пентагон алдағы уақытта әскери операцияларда жасанды интеллектті қолдануға байланысты ең күрделі этикалық мәселелердің бірін шешуге мәжбүр болады. Қазіргі кезде OpenAI компаниясы мен оның басшысы Сэм Альтман АҚШ-тың әскери құрылымдарымен ынтымақтастық туралы құжаттарға қол қойған.












