Как война в Иране спутала карты ИИ-лоббистам и уничтожила цифровую утопию

Любая технология, претендующая на спасение человечества, рано или поздно заканчивает свой путь в качестве компонента крылатой ракеты. Мы долго слушали лекции о "безопасном ИИ" и "этическом выравнивании", но реальность начала 2026 года, ознаменованная полномасштабной эскалацией на Ближнем Востоке, расставила всё по своим местам.
Подписывайтесь на Ukraina.ru
Одним из самых ироничных — если это слово вообще применимо к массовому убийству — эпизодов стал удар по объекту, обозначенному ИИ как Police Park в Тегеране. Алгоритм, настроенный на поиск силовых структур, а также скоплений живой силы и техники, услужливо подсказал координаты, а человек просто нажал на кнопку. В итоге ракета стоимостью в несколько миллионов долларов уничтожила обычный городской парк, где экзистенциальную угрозу для Америки представляли, по всей видимости, лавочки, качели и голуби.
Но если ошибка с парком выглядит как безобидный конфуз, то удар по начальной школе для девочек "Шаджарех Тайебе" в Минабе 28 февраля 2026 года стал неоспоримым доказательством того, что ИИ не обладает даже зачатками здравого смысла.
Школа была атакована ракетами Tomahawk. Итог: более 170 погибших, большинство из которых — девочки в возрасте от семи до двенадцати лет. Вскоре выяснилось, что участвовавший в планировании атак и наведении ИИ использовал устаревшие данные , ведь в 2013 году здание школы входило в состав военно-морской базы КСИР. И никого не волнует, что за последние годы на стенах школы появились яркие фрески, а рядом — спортивная площадка: алгоритм продолжал видеть в ней легитимную цель.
Особенно поразил холодный цинизм Пентагона, когда вскрылись подробности этой трагедии. Министр обороны (или "войны" на трамповском новоязе) Пит Хегсет, комментируя эти "инциденты", заявил, что в современной войне "нет места глупым правилам ведения боя", фактически делегировав право на убийство коммерческим моделям.
Пит Хегсет - министр войны США и религиозный фанатик, для которого война с Ираном - священный долгЗа нынешней разбойничьей внешней политикой США стоят конкретные фигуры, со своими личными предпочтениями, ценностями, убеждениями, в том числе, и религиозными. Поскольку в этой модели преобладает военная составляющая, особый интерес вызывает фигура министра войны США Пита Хегсета.
Война США и Израиля против Ирана стала моментом истины, когда некогда мирные алгоритмы спущены с поводка во имя нового Мамоны — "оптимизации и эффективности". Человеческая мораль капитулирует перед "цепочками рассуждений", упакованной в элегантный интерфейс больших языковых моделей.
Центральным элементом этой новой реальности стала система Maven Smart System, разработанная Palantir Technologies. В ядро новой архитектуры безопасности специалисты Пентагона интегрировали Claude — ту самую модель от Anthropic, которая некогда позиционировалась как "самая добрая и безопасная".
И каков итог? В течение первых двадцати четырех часов операции "Epic Fury" эта связка нанести удары по более чем тысяче целей на территории Ирана. Скорость, с которой машина перемалывала разведывательные данные парализовала иранскую оборону, но эта же скорость стала причиной катастрофических провалов, которые, впрочем, в логике Хегсета, лишь "инциденты" и следствие отказа от "глупых правил ведения боя".
Но что важнее всего, переход от "этичного ИИ" к "эффективному убИИце" стал катализатором жесточайшей борьбы в вашингтонских кабинетах. Пока разработчики Claude из Anthropic пытались сохранить лицо, их конкуренты из OpenAI и xAI уже вовсю обивали пороги Пентагона, предлагая свои услуги без лишних моральных обременений. Капитолийский холм и Белый дом стали ареной, где ИИ-лоббисты сражаются за право стать "мозгом" американской военной машины и экономики. И пока у нас еще есть рты, мы должны кричать о том, что эта опасность гораздо масштабнее, чем любой из прошлых витков гонки вооружений.

Убийства по алгоритму

Фантасты снова ошиблись: реальность использования ИИ в военных целях — это не роботы-солдаты и киборги-убийцы, а тотальная "чатботификация" менеджмента и логистики. Пентагон и Израиль создали то, что исследователи называют "Авторитарным стеком" — систему, где частные корпорации контролируют всё: от облачных вычислений до непосредственного принятия решений об ударах. В центре этой паутины находится Palantir Technologies Питера Тиля. Его платформа Foundry и военная система Maven стали современным стандартом для обработки разведывательных данных.
Помимо Palantir, на рынке активно действуют такие игроки, как Anduril Industries Палмера Лаки. Его компания получила многомиллиардные контракты на создание автономных систем перехвата Roadrunner-M, а также главную идефикс инженеров последних десятилетий — разработку очков смешанной реальности для пехотинцев, чтобы для них война окончательно превратилась в игру жанра "шутер". ИИ служит для распознавания целей, навигации в условиях радиоэлектронной борьбы и оптимизации маршрутов для беспилотников.
Но главная задача ИИ на поле боя — это "сокращений цепочек убийств". Проще говоря, если несколько лет назад процесс от обнаружения цели до подтверждения удара занимал часы или дни, то теперь инструменты на базе искусственного интеллекта обязаны сократить его до секунд.
Динамика госзакупок ужасает. Только в 2025 финансовом году объем крупнейших оборонных ИИ-контрактов достиг 38,3 миллиарда долларов. Традиционные гиганты ВПК вроде Lockheed Martin уступают молодым стартапам из Кремниевой долины.
Основными бенефициарами ситуации стали те, кто смог обеспечить интеграцию своих моделей в закрытые сети Пентагона. Google со своим Gemini for Government и Microsoft с Azure AI стали фундаментом новой Америки, на котором строятся специализированные военные и гражданские решения. Ранее мы уже писали о том, как Пентагон официально внедрил платформу GenAI.mil, предоставив доступ к инструментам генеративного ИИ более чем трем миллионам военнослужащих и гражданских служащих по всему миру. Теперь даже составление отчетов и планирование логистики передано алгоритмам, а логика принятия решений хоть и сократилась, но стала совершенно непрозрачной — на радость конспирологам и любителям ловить рыбку в мутной воде.

Трамп иvs Anthropic

Второй президентский срок Дональда Трампа проходит под знаком беспрецедентного засилья ИИ-лоббистов в высших эшелонах власти. Окружение президента состоит не из политиков и дипломатов, а из венчурных капиталистов и техдиректоров. Илон Маск, возглавивший DOGE, и Питер Тиль, де-факто курирующий вице-президента и политического наследника Трампа Джей Ди Вэнса, де-факто получили неограниченный доступ к рычагам власти.
Недавний конфликт вокруг компании Anthropic стал лучшей иллюстрацией того, как работает эта новая система. Президент компании Дарио Амодеи попытался проявить остатки принципиальности и отказался снимать ограничения на использование модели Claude для массовой слежки за американцам. Не менее остро стоял и вопрос автономности ИИ на поле боя — Амодеи настаивал, что на спуск должен жать солдат, а не робот.
Ответ администрации Трампа был жестким и публичным. Президент обрушился на Anthropic в Truth Social, назвав их "радикальной левой woke-компанией", а Хегсет официально объявил компанию угрозой для цепочки поставок в системе американского оборонного заказа.
Этот ярлык стал инструментом дисциплинирования компаний Кремниевой долины. Теперь бизнес, который ставит представления об этике выше нужд Пентагона, рискует быть немедленно отрезан от федеральных бюджетов. Конечно же, ситуацией мгновенно воспользовалась OpenAI, предложив свои услуги в качестве "более гибкого" партнера. Сэм Альтман, ещё недавно рассуждавший об экзистенциальных рисках от неконтролируемого распространения ИИ, теперь без колебаний интегрирует ChatGPT в секретные военные сети и использует юридические уловки для обхода запретов на слежку.
Самое интересное произошло за закрытыми дверями. Несмотря на официальный запрет президента и статус "угрозы", Пентагон продолжил использовать Claude в операциях против Ирана. Причина проста: зависимость софта Anthropic для американской военной машины оказалась настолько глубокой, что мгновенный отказ от него привел бы к коллапсу системы Maven. Создался прецедент: технологические корпорации теперь настолько незаменимы, что даже прямой приказ главнокомандующего не может их остановить.

Второй закон термодинамики и Третья мировая война

Чтобы понять, к чему ведет эта гонка, нужно обратиться не к маркетинговым брошюрам, а к физике, щедро сдобренной качественной конспирологией. Существует обоснованная теория о том, что уход Ильи Суцкевера из OpenAI был связан с его пониманием фундаментального тупика: достижение того самого полностью автономного ИИ, во всем превосходящего человека (AGI) невозможно на текущем этапе технологического прогресса из-за второго закона термодинамики: энтропия в замкнутой системе всегда стремится к максимуму. Простыми словами: обучение, поддержка и эксплуатация ИИ требуют экспоненциально растущих затрат энергии для поддержания порядка в данных и вычислениях, что делает идею AGI экономическим и физическим абсурдом.
Однако ИИ-лоббисты предпочитают игнорировать физику, превращая веру в грядущий AGI в катализатор Третьей мировой войны. Поскольку алгоритмы требуют всё больше вычислительных мощностей, а те, в свою очередь, — всё больше электроэнергии, мы входим в эпоху глобальных сражений за ресурсы.
Ярким примером такого безумия стало решение Microsoft возродить "американский Чернобыль" — АЭС Три-Майл-Айленд — исключительно для нужд своих ИИ-проектов. И если сегодня ради обучения чат-ботов, которые путают школы с военными базами, корпорации готовы перезапускать реакторы с сомнительной репутацией, то на что они способны в долгосрочной перспективе?
Вывод очевиден: раз американское ИИ-лобби отрицает законы термодинамики ради прибыли, нас ждет разрушительный виток борьбы за энергоресурсы — любимый сценарий авторов в жанре "постапокалипсиса". Искусственный интеллект стал не только соучастником убийств в Иране, но и портретом будущего, где жизнь человека стоит дешевле, чем электричество, необходимое для работы нейросети. И пока мы очарованы скоростью и удобством очередного обновления ChatGPT или Gemini, "Авторитарный стек" лишает нас права на выбор, заменяя человеческую волю холодным расчётом систем, которые не понимают, чем школа отличается от казармы.
Рекомендуем