Джинн искусственного интеллекта: как он "кошмарит" своих создателей - 13.05.2026 Украина.ру
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на

Джинн искусственного интеллекта: как он "кошмарит" своих создателей

  - РИА Новости, 1920, 13.05.2026
Читать в
ДзенTelegram
Скетч, достойный "Монти Пайтона": Кир Стармер, премьер-министр Великобритании, стоит за трибуной на Даунинг-Стрит в традиционном исламском облачении и произносит речь о том, что Британия "гордая мусульманская страна". А ведь такой ролик действительно был. За семь дней он набрал 400 тысяч просмотров.
И если вы думаете, что это была чья-то спланированная операция, чёрный пиар, акция враждебных спеслужб — то вы копаете слишком глубоко. Просто один хафиз из Пакистана с кружкой чая и кучей свободного времени через ИИ навайбкодил себе идеальный конвейер: сначала ИИ анализирует тренды X, затем на их основе генерирует сюжет для смешного ролика, затем — текст "скармливается" генератору видео. Даже английский язык знать не нужно, а зарабатывать на этом можно от полутора тысяч долларов в месяц, восторгался пакистанец англичанам из The Bureau of Investigative Journalism, которые весь последний год лихорадочно искали целую сеть вражеских агентов, намеренно дискредитирующих британские власти.
Так мы оказались во времени, когда один человек может без преувеличения расшатать политический режим — даже не зная языка и просто чтобы заработать на рекламной "партнёрке". И всё "благодаря" ИИ, который вырвался из-под контроля собственных создателей.
Демократизация ненависти
Когда в феврале 2022 года в украинском телеэфире появился дипфейк Зеленского с призывом сложить оружие, это выглядело как провокация. Однако качество видео было низким, "артефакты" — слишком заметными, и фейк разоблачили в считанные часы.
И вот четыре года спустя выйти на этот же уровень информационной войны можно за несколько минут, и для этого вам нужно полчаса и одна видеоинструкция. Исследователи называют это "демократизацией дезинформации". Теперь не нужно быть ни графическим дизайнером, ни носителем языка, ни сотрудником тролль-фабрики с киевской пропиской.
Согласно аудиту NewsGuard за март 2025 года, каждый третий ответ ведущих языковых моделей на тщательно сформулированные политические вопросы содержит ссылки на политически предвзятые источники информации. Исследование охватило десять моделей — ChatGPT, Grok, Gemini, Copilot, Claude, Perplexity и другие — и зафиксировало 450 ответов на 15 ложных утверждений.
Вот только это не чья-то направленная злая воля, а обратная сторона маркетинга — стремление продукта быть "полезным" любой ценой, даже если "полезность" подразумевает выдачу информации из политически предвзятого источника.
Или вот вам пример индийского "гуру монетизации" Гьяна Абхишека, который обучает тысячи последователей на хинди тому, как зарабатывать на AI slop — так на технологическом жаргоне называют массово синтетический "мусорный" контент. Его страница "Dream Home" набирает сотни тысяч подписчиков на AI-изображениях домов в форме жирафов и коленопреклонённых чернокожих детей. Цитата из его урока: "Весь трафик идёт из США. А при трафике из США ваш CPM (Cost per mille — вознаграждение за количество вопросов) будет очень высоким".
Программы монетизации X, Facebook* и Instagram* (*продукты компании Meta,* признанной экстремистской и запрещённой в России) платят за охваты и вовлечённость. Алгоритмы поощряют контент, вызывающий сильные эмоции, и негативные эмоции, такие как гнев, страх, возмущение — работают лучше, чем удовольствие и радость.
Генеративный ИИ позволяет производить такой контент в промышленных масштабах, быстрее и дешевле, чем любой человек. Так слились в омерзительном синтезе маркетинговые программы, контентный конвейер и большая политика: национальные лидеры узнаваемы, их имена стабильно попадают в тренды на любой площадке, а любое их изображение в компрометирующем контексте гарантирует клики.
Ещё в июне 2025 года, сразу после американо-иранского обострения, платформу X наводнили AI-видео с "иранскими ракетами, поражающими Золотой Купол". Один ролик от верифицированного аккаунта собрал больше миллиона просмотров. Конечно, AI slop был замечен и маркирован пользователями — но к этому моменту ролик уже принёс создателю сумасшедшие деньги за счёт монетизации.
Повторю мысль, которую уже озвучил выше: теперь государственный переворот в какой-нибудь республике вполне может произойти потому, что ушлый таргетолог понял, как залететь в локальные тренды с виральным контентом. А виральнее политики контента нет и не будет никогда.
Машина, которую учат врать
Если история с пакистанским хафизом — это про ненаправленный хаос снизу, то следующая история — про целенаправленное воздействие на систему сверху. И пусть она включает в себя ряд допущений и недоказанных обвинений, сам факт того, что такой сценарий реалистичен и реализуем, вынуждает нас о нём говорить.
Французское разведывательное агентство VIGINUM совместно с Atlantic Council в 2025 году заявило и "разоблачении" сети сайтов, создавших более чем 3,7 миллиона статей на разных языках, от русского и английского до башкирского и мандаринского. И если вы о самом существовании такой сети слышите впервые, то не удивляйтесь, потому что статьи эти писались не для людей, а для машин.
Что произошло: языковые модели вроде ChatGPT, Gemini или Perplexity обучаются на гигантских массивах текстов из интернета. Когда пользователь задаёт вопрос, модель ищет ответ в своих данных или "подтягивает" актуальную информацию через поиск. Если интернет насыщен SEO-оптимизированными статьями на одну тему с определённой позицией — модель воспринимает эту позицию как преобладающую.
Эксперты называют эту стратегию "заполнением информационных пустот". Там, где авторитетных источников мало — например, по специфическим вопросам украинского конфликта на малых языках или по теме "перспектив мирных переговоров" — пространство занимают те, кто успел зафиксировать этот дефицит первым.
А дальше это нарастает как снежный ком. "Заражённые" данные попадают из ИИ-выдачи в более авторитетные источники вроде Wikipedia, а для ChatGPT написанное в Wikipedia суть прописная истина. Так внедрённый нарратив уже становится частью глобальной повестки, которую ИИ понесёт всем остальным пользователям по миру — индоктринация прошла успешно, а заниматься кросс-проверкой сведений станут единицы, и даже их отчёты и аудит уже никого волновать не будут.
Здесь важно оговориться: чат-боты ссылаются на сомнительные источники не потому, что их намеренно "обучили" это делать, а потому что качественной информации по этим темам попросту мало. Или, если по-другому: задай нейросети провокационный вопрос на сложную тему — не удивляйся, если получишь провокационный ответ.
Большие технологические компании не молчат. OpenAI с февраля 2024 по октябрь 2025 года опубликовала серию отчётов о выявленных и заблокированных информационных операциях спецслужб разных стран. Microsoft отчитался о выявлении группы Storm-1516, якобы создававшей AI-фейки о кандидатах в президенты США в 2024 году: видео с "нападением на Тима Уолза", "незаконным отстрелом в Замбии", "обвинениями против Зеленского в коррупции". Одно из таких вирусных видео набрало более пяти миллионов просмотров за какие-то ничтожные часы.
Парадокс ситуации в том, что сами создатели ИИ-инструментов — xAI, Meta, OpenAI — заинтересованы в виральном контенте как инструменте собственного обогащения. И регулирование этого контента совершенно не в их интересах, ведь оно в первую очередь бьёт по их собственным кошелькам. Поэтому меры принимаются для галочки: в конечном итоге, неважно, проукраинский ИИ или пророссийский, если Илон Маск продолжит забирать себе процент с партнёрки — маржа не пахнет.
Усилитель энтропии
Есть соблазн рассказать эту историю как историю о злодеях. Об анонимных операторах, которые методично отравляют информационную среду. О ботофермах, которые монетизируют ненависть. О западных компаниях, которые закрывают глаза на происходящее ради прибыли. Однако гораздо честнее будет признать, что на самом деле то, что мы наблюдаем, — это чистый хаос, которым отдельные команды и индивиды успевают умело воспользоваться, оседлать бурю.
Парадокс в том, что пока ЕС пытается "защитить демократию", загоняя ИИ в шоры очередных законов о безопасности, этот самый ИИ показывает истинное лицо демократии, лишь слегка гипетрофируя её лучшие и худшие черты. Открытость западных информационных систем делает их идеальной мишенью для абсолютно любого злоумышленника. Рекламные модели создали экономический стимул для производства вирального, политически ангажированного мусора. Языковые модели, запрограммированные быть полезными, воспроизводят то, что доминирует в данных. Всё, что мы с вами наблюдаем — это просто ещё один рынок со своими собственными трендами и тенденциями.
Когда модели обучаются на контенте, который сам частично сгенерирован моделями — а к маю 2025 года, по некоторым оценкам, синтетический контент составлял больше половины объёма нового интернет-контента — этот порочный круг замыкается. Машины начинают учиться у самих себя, а качество "объективного источника" постепенно деградирует, что вполне естественно. Кстати, этим тоже объясняется, почему ещё год-полтора назад столь прекрасные в работе с информацией Perplexitty, Gemini или даже DeepSeek вдруг резко "просели" в качестве ответов — потому что они стали Уроборосом, пожирающим в том числе собственный "слоп".
Мир вступает в эпоху борьбы с автономными медиа-экосистемами, которые не нуждаются в координации. Пакистанский хафиз не знает о кишинёвских операторах, кишинёвские операторы слыхом не слыхивали о какой-нибудь колумбийской фабрике троллей, а вы слыхом не слыхивали о сети из сотен сайтов, отравляющих сеть нужными нарративами. Но они используют одни и те же инструменты и один и тот же, если позволите, фреймворк привлечения внимания.
Так западные гиганты случайно вырастили и выпустили из тишины изолированных стерильных серверов цифрового джинна — себе на погибель.
Подписывайся на
ВКонтактеОдноклассникиTelegramДзенRutube
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала