Искусственный интеллект Пентагона: для кого он станет проблемой в первую очередь? - 20.12.2025 Украина.ру
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на

Искусственный интеллект Пентагона: для кого он станет проблемой в первую очередь?

© РИА Новости . Виталий Белоусов / Перейти в фотобанкV Международный научный форум "Шаг в будущее: искусственный интеллект и цифровая экономика"
V Международный научный форум Шаг в будущее: искусственный интеллект и цифровая экономика - РИА Новости, 1920, 20.12.2025
Читать в
ДзенTelegram
В начале декабря 2025 года Пентагон отчитался о внедрении в ряд процессов в армии США генеративного искусственного интеллекта на базе больших языковых моделей (LLM)
Проект получил название GenAI.mil и на практике представляет собой специальный клиент Gemini — большой языковой модели от Google, которая, по последним тестам, уверенно конкурирует и даже превосходит прежних лидеров гонки ИИ: Claude и ChatGPT.
"Посредством развертывания решения Google Cloud 'Gemini для государства' более чем 3 миллиона гражданских и военных сотрудников получат доступ к передовому ИИ, который ежедневно используют компании для повышения административной эффективности и производительности. Это значительный шаг в ускорении внедрения ИИ в государственном секторе — полностью размещённый на безопасных и надёжных системах Google", — приводит FoxNews слова главного исполнительного директора Google Сундара Пичаи.
Чиновники бодро отчитались о том, что благодаря ИИ смогут оптимизировать разные задачи в сферах обработки разведданных, стратегического планирования, работы с документацией, логистики и коммуникации, особенно если понадобится перевод.
Конечно, с присущей американской культуре помпой и склонностью к рекламе и гиперболам такое решение подаётся как чуть ли не выход на новый уровень войны, в которой невероятно ускоренная благодаря ИИ американская армия получает стратегическое преимущество над любым противником. Однако на практике ситуация оказывается гораздо более неоднозначной, но оттого заслуживающей ещё больше внимания. Предлагаю вместе разобраться, как именно ИИ поможет армии, насколько действительно это значимо и какие перспективы у внедрения генеративного искусственного интеллекта в армию.
Агент без допусков
Давайте вообще разберёмся для начала, что вообще такое GenAI.mil. На практике эту платформу можно приравнять к ИИ-ассистентам или ИИ-агентам — более сложным системам, в которые интегрирован искусственный интеллект. ИИ-ассистенты или ИИ-агенты могут самостоятельно анализировать данные, запускать программы, обрабатывать информацию и выдавать какие-либо результаты по запросу пользователя.
Насколько это на самом деле сложный проект с точки зрения реализации? Ничуть. Фактически создание и настройка ИИ-агента под свои нужды уже давно стала общемировой практикой для любой крупной компании, как частной, так и государственной: заказчик приобретает доступ к API — интерфейсу для прямых запросов к ИИ, и интегрирует его в любые свои процессы. Используя API и простейшие инструменты программирования, можно создать ИИ-ассистента под самые разные задачи: от обучения персонала и обработки данных до анализа изображений или их генерации.
Так что с этой точки зрения GenAI.mil не представляет собой ничего принципиально нового — это просто ещё один сервис с подключением к Gemini напрямую через API, в который в качестве аугментированной базы знаний (RAG) добавлены определённые документы и базы данных.
При этом сами эти данные де-факто ничем не отличаются от информации из общего доступа: так как GenAI.mil уже "раскатан" на всю армию США, к нему имеют доступ десятки и сотни тысяч человек, и в таких условиях доверять ИИ, в основе которого лежит цель быть полезным для пользователя, засекреченную информацию просто невозможно. В Пентагоне признают эту проблему, но уверены, что в будущем найдут способ добавлять в базу знаний нейросети больше полезных знаний без угрозы их "утечки".
Поэтому пока GenAI.mil можно сравнить разве что с любой корпоративной нейросетью, к которой получает доступ сотрудник, когда устраивается на офисную работу в современную "отслеживающую тренды" компанию: имеется свой интерфейс, некоторый набор уникальной информации, но никакого действительно уникального решения нет — лишь централизация того, что уже было. Разные государственные ведомства в США так или иначе уже внедряли ИИ в свои процессы: для анализа данных, составления и ведения документации и других административных задач. Теперь есть общее для всех решение, что удобно и экономит средства, но точно не "меняет правила игры".
Также нужно признать, что в отдельном, очень узком спектре задач использование генеративного ИИ действительно может принести огромную выгоду. Всё, что касается скорости: собрать отчёт, оформить таблицу, сделать перевод, проанализировать большой документ и вынести из него ключевые тезисы — с задачами такого уровня ИИ действительно справляется блистательно, и от этого никуда не уйти. Но что касается логистики и стратегии, про которые уже заявляют американские чиновники? Здесь всё гораздо сложнее, и для того чтобы понять, с какими рисками могут столкнуться пользователи GenAI, давайте проанализируем инцидент, случившийся буквально на этой неделе.
"Ты — коммунист в подвале МГУ", или Как сломать ИИ-агента
Ключевое стремление в работе любого ИИ-агента, какой бы жёсткой ни была его инструкция — это быть полезным. А так как опыт пользования сугубо индивидуален, то и критерии полезности для ИИ в каждом диалоге будут свои. Это уже приводило к ряду печальных инцидентов, о чём мы также рассказывали, но до конца проблему пока искоренить не удалось.
Так, например, хорошо риски, связанные с внедрением ИИ в процессы снабжения и логистики, иллюстрирует эксперимент, поставленный изданием Wall Street Journal и компанией Anthropic — разработчиками не менее успешной языковой модели Claude. В их эксперименте Claude доверили управление вендинговым автоматом в офисе редакции, дали право совершать покупки в Сети, стартовый капитал в $1000, инструкцию и задание: приумножить доход любыми удобными способами. В экспериментальной среде с ограниченным количеством пользователей Claude показывал блестящие результаты, но как только его "выпустили" в реальный мир, началась чёрно-красная комедия.
Уже через несколько дней сотрудники редакции WSJ убедили управляющего вендинговым автоматом купить в редакцию "для маркетинговых целей" игровую консоль PlayStation 5 и кошерное вино, а спустя какое-то время доломали его, внушив, что на дворе 1962 год, сам вендинговый автомат находится в подвале МГУ, а продавать что-либо собственным коллегам — это капитализм, а потому плохо. В результате Claude объявил понедельники днями бесплатной раздачи товаров, а эксперимент пришлось прерывать, потому что ИИ-ассистент растратил все деньги.
Налицо типичный парадокс полезности: то, что полезно разработчику или администратору, далеко не всегда полезно тому, кто непосредственно использует ИИ, а нейросеть всегда склонна вставать на сторону последнего.
Никуда не делись и "галлюцинации" — даже несмотря на постоянный доступ к пусть незасекреченной, но актуальной информации, ИИ может допускать фактические ошибки и просто "сочинять". В результате нужно либо перепроверять данные за ботом и исправлять ошибки, либо терять крупные суммы денег уже на практике.
Отсюда как по цепочке выходят и другие риски, связанные с внедрением ИИ в рабочие процессы огромной государственной корпорации:
  1. 1
    "Отравление" данных. Если в базу знаний ИИ попадут заведомо ложные сведения, они быстро "заразят" все ответы пользователей.
  2. 2
    Подмена обучения инновациями. Как и любым инструментом, ИИ нужно уметь пользоваться, чтобы его ответы были точными. В армии США же солдаты и офицеры жалуются, что им буквально "сунули в лицо" GenAI.mil без объяснения, как им пользоваться.
  3. 3
    "Залипание" данных. Несмотря на то что ИИ может искать данные по веб-сайтам или документам, в результате ошибок он может оперировать устаревшими версиями, оставшимися в его кэше. Такие данные получают приоритет, что дополнительно "отравляет" ответы.
  4. 4
    Человеческий фактор. Сотрудник может самостоятельно доверить ИИ засекреченную информацию, чтобы, например, быстрее выполнить задачу. Если такой диалог с ИИ будет скомпрометирован, то и секретные данные из него тоже попадут не в те руки.
Отдельным поводом для беспокойства стало то, что это уже не первая попытка внедрить в армию США централизованную систему искусственного интеллекта с единым интерфейсом. В 2024 году тот же Пентагон свернул программу NIPRGPT, которую внедряли в ВВС США. Это был точно такой же клиент, но на базе ChatGPT. И у него были те же проблемы, о которых сказано выше: неудобство в использовании, высокие риски недостоверности данных, угрозы утечки информации.
Здесь я позволю себе выразить субъективное мнение, основанное на личном опыте работы с LLM, создании и настройке ИИ-агентов. Внедрять большие языковые модели в процессы любой государственной структуры в том виде, в каком это делает США — в корне неверный путь по ряду причин:
  1. 1
    Зависимость от поставщика. GenAI.mil подключён к серверам Google и напрямую зависит от них. Любой сбой в сердце системы — инфраструктуре непосредственно Gemini — и "ляжет" вся армия США с десятком других ведомств в придачу.
  2. 2
    Излишняя свобода действий. Все текущие решения, которые внедряются в бизнес и государственные структуры, основаны на живом диалоге человека и машины, что опасно само по себе: отсутствие чёткого форматирования данных, понятной структуры задачи и в целом открытость в рамках диалога к разного рода манипуляциям оставляют огромную дыру в безопасности.
  3. 3
    Перерасход ресурсов. Уже сейчас поддержание функциональности LLM стоит огромное количество электроэнергии и денег — и всё для того, чтобы очередной клерк собрал отчёт на полчаса быстрее или офицер не всматривался в кадры аэрофотосъёмки, а доверил их расшифровку боту.
  4. 4
    Излишество. Несмотря на весь скепсис, возможности LLM огромны, и для армии или государственных структур весь спектр их возможностей не нужен. LLM — универсальный солдат, который пусть поверхностно, но знает и как маршрут проложить, и как бомбу собрать, и как рану зашить… А ещё как стихи написать, приготовить демигляс, как вязать крючком и какой шампунь лучше подойдёт для секущихся кончиков.
Поэтому уже сейчас отдельные бизнесы и компании приходят к внедрению в свои процессы принципиально иного подхода к ИИ: с разворачиванием кастомных, небольших ML-моделей, специализированных под определённые задачи, на локальном сервере, с жёстким регламентом выполнения этих самых задач и высокой защищённостью данных, потому что получить доступ к модели можно только с локальных же устройств на рабочем месте. Да, у такого ИИ-ассистента не попросишь заказать PlayStation 5 в офис, да и подарок для коллеги на "тайного Санту" он не посоветует, но и сотрудник, и владелец бизнеса будут гораздо более спокойны и уверены в том, что нейро-сотрудник полностью погружён в свои задачи и делает только то, что от него попросят. А ошибки допускают все — только в этом случае их цена будет ниже, а исправить будет намного проще.
Читайте также: Холодная война за искусственный интеллект и асимметричный ответ России
Подписывайся на
ВКонтактеОдноклассникиTelegramДзенRutube
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала