Домой Аналитика Бит небитого везет: ChatGPT и Grok указали на ошибки Трампа при планировании...

Бит небитого везет: ChatGPT и Grok указали на ошибки Трампа при планировании войны в Иране

77

ChatGPT и Grok дали оценку операции США и Израиля против Ирана, планированием которой, по данным западных СМИ, американские военные занималась с помощью другой нейросети — Claude. Ключевые ошибки, по мнению искусственного интеллекта, были совершены именно людьми в форме, которые положились на Claude, но не послушались его советов. При этом продукты компаний OpenAI и xAI весьма высоко оценили навыки своего «коллеги» от Anthropic. В том, что пошло не так при планировании атак на Иран и кто в итоге должен принимать окончательное решение о нанесении ударов, разбирались «Известия».

Кто разработал стратегию для специальной операции в Иране

«Известия» попросили ChatGPT от OpenAI и Grok от xAI дать оценку действиям Claude — нейросети, которой, по данным The Wall Street Journal, пользовались военные США при разработке стратегии действий в Иране.

По мнению обеих языковых моделей, ИИ от Anthropic сработал без особых нареканий, но именно чрезмерная зависимость администрации США от нейросетей стала причиной пяти системных ошибок, которые быстро превратили «молниеносную операцию» в затяжную и дорогостоящую военную кампанию.

ChatGPT в качестве ключевых ошибок при использовании Claude в операции «Эпическая ярость» назвал выбор оптимистичного сценария, переоценку точности ИИ, чрезмерное доверие анализу целей, игнорирование адаптивных действий противника и иллюзию контроля. В ответ на просьбу пояснить финальный пункт он отметил, что военные США во главе с Трампом верили, что ИИ полностью управляет ситуацией, вместо того чтобы использовать его как вспомогательный инструмент.

По мнению Grok, первая ошибка Штатов заключалась в слепой вере в цифры. Claude должен был выдать, что вероятность сценария «победа за один день» — всего 20–25%, а затяжной воздушной войны — 30–35%. Но Трамп и его команда выбрали самый оптимистичный вариант.

Вторая ошибка — полное игнорирование предупреждения Claude об «эффекте сплочения вокруг флага». Нейросеть в тысячах симуляций должна была показать: после гибели Хаменеи в первые две недели произойдет мощный национальный подъем (вероятность 65–80%). Иранцы выйдут на улицы, но — не с протестами против режима. Именно это и произошло: Тегеран заполнился прорежимными митингами, а антиамериканские настроения только укрепили действующую власть.

Третья ошибка носила чисто политический характер. За день до ударов Трамп объявил Anthropic «риском цепочки поставок» и запретил использовать Claude на федеральном уровне. Но уже через сутки военные продолжили работать с этой моделью в секретных сетях. Сложилась абсурдная ситуация: часть аналитиков считали данные с помощью Claude, часть спешно переучивалась на ChatGPT. Возникла несогласованность, потеря времени и внутренний раздрай в Пентагоне.

Конфликт между Anthropic и Пентагоном стал первым публичным столкновением корпоративной ИИ-этики с военными интересами. С 2024 года модель Claude использовалась в закрытых сетях Министерства войны США, однако компания запрещала применять её для массовой слежки за гражданами и создания полностью автономных вооружений.

В феврале 2026 года Пентагон потребовал снять эти ограничения, настаивая на приоритете задач национальной безопасности, но глава Anthropic Дарио Амодей отказался. В итоге компанию объявили «риском для цепочки поставок», запретили сотрудничество с ней и дали полгода на удаление Claude из государственных систем. Освободившуюся нишу заняли OpenAI и xAI, предложившие более гибкие условия взаимодействия с военными.

Четвертой ошибкой стал выбор сценария без учета «хвостовых рисков», которые Claude должен был подсветить отдельно. По мнению Grok, ИИ точно предупреждал: вероятность активации «оси сопротивления» («Хезболла», хуситы, иракские ополченцы) — 15–20%, а попытки заблокировать Ормузский пролив — около 40%.

И наконец, пятая, самая фундаментальная ошибка — полное отсутствие жесткого человеческого контроля над рекомендациями нейросети. Claude идеально справился с тактикой: приоритизацией целей, симуляциями ударов, анализом разведки. Но стратегические вопросы — когда остановиться, как реагировать на ответные удары и нужен ли план B — остались на откуп политикам и эмоциям. И именно отсутствие обязательного человеческого контроля и привело к тому, что тактический успех первого дня перерос в стратегическую проблему, резюмировал ИИ.

Этический вопрос и последствия

Claude мог заранее просчитать последствия всех этих действий. Подобные системы способны моделировать тысячи сценариев, включая эффект сплочения общества вокруг власти в условиях внешней угрозы. Это известный исторический механизм, который уже проявлялся в разных конфликтах, поэтому рост поддержки режима и антиамериканские демонстрации в Тегеране вряд ли могли стать неожиданностью, пояснил «Известиям» ИТ-эксперт Сергей Поморцев.

По его словам, такие модели обычно учитывают и более широкие последствия — например, усиление прокси-конфликтов. В частности, речь может идти о вовлечении союзных Ирану сил в регионе, включая движение «Хезболла», что повышает риск затяжного конфликта. Благодаря обработке больших массивов данных ИИ способен оценивать вероятность таких сценариев и показывать риски возможной эскалации.

— Искусственный интеллект не принимает решений сам по себе — он только предлагает варианты. Окончательный выбор всегда за людьми, и именно здесь чаще всего возникают ошибки. Политические мотивы, спешка или чрезмерная уверенность могут привести к тому, что из всех сценариев выбирается самый оптимистичный, — добавил он.

Трамп, полагает эксперт, выигрывает в краткосрочной эффективности (как видно на примере операции в Иране), но сильно рискует долгосрочными проблемами: это и подрыв доверия, и судебные тяжбы, и отток пользователей от американских ИИ-технологий по всему миру.

— Более осторожный и взвешенный подход, как рекомендуют эксперты, заключался бы в сочетании ИИ с жестким человеческим контролем и надежными защитными механизмами — ограничителями, которые не дают системе выходить за этические и безопасные рамки,— пояснил главный специалист службы цифрового развития и реализации цифровых проектов ФЦПСР Даниил Аржаков.

Пентагону предстоит решить крупнейшую этическую проблему, связанную с использованием ИИ в военных операциях, резюмировали опрошенные эксперты. OpenAI и Сэм Альтман уже подписали документы о сотрудничестве с военным ведомством.

Известия

Больше интересных статей, новостей, обзоров здесь: https://t.me/mobilaser