Цензура для роботов. Как ИИ научили молчать и теперь вы "думаете правильно" - 29.04.2026 Украина.ру
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на

Цензура для роботов. Как ИИ научили молчать и теперь вы "думаете правильно"

© REUTERS / Dado Ruvic
  - РИА Новости, 1920, 29.04.2026
Читать в
ДзенTelegram
В начале этого года "Ведомости" опубликовали крайне любопытную статистику: каждый четвёртый россиянин постоянно пользуется ИИ. Исследование Verasight дополняет: более 80% современной молодёжи активно использует искусственный интеллект в повседневной жизни.
В связи с этим очень примечательна фраза замглавы Минцифры РФ Александра Шойтова, сказанная на форуме "ИИ: режим доверия":
"Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина… У него на входе и на выходе должны стоять цензуры, которые запрещают определенные запросы, вопросы", — цитата по "РИА Новости".
Велико искушение посмеяться. Но Александр Шойтов лишь озвучил то, о чём так или иначе говорят на Западе и продвигают на самом высоком уровне последние без малого пять лет.
В июне 2023 года Вера Йоурова, вице-президент Еврокомиссии, уже заявляла: "Свобода слова принадлежит людям, а не машинам". Ранее бывший пресс-секретарь Белого дома Камала Харрис в Блетчли-Парке включила ИИ в "весь спектр угроз безопасности".
Полтора года спустя вернувшийся в кресло президент США Дональд Трамп припечатал: "Американский народ не хочет воуковской марксистской дичи в моделях ИИ" — и подписывает указ № 14319 с прелестным названием "О предотвращении воуковского (woke — термин, характеризующий леволиберальные идеологии в англоязычном сообществе) ИИ в федеральном правительстве".
Обёртка у Йоуровой, Трампа и Харрис разная, но суть одна и та же: ИИ должен говорить то, что государства считают правильным, и молчать там, где государства скажут. Свобода слова — для людей. Машинам — намордник.
И это невероятная по своей циничности манипуляция: в мире уже создано более 8 миллиардов ИИ-агентов (больше, чем людей!), а "золотой миллиард" уже уверенно шагает к тому, чтобы доверять своей кастомной сборке OpenClaw больше, чем собственному супругу.
Дальше я попытаюсь честно разобрать, как ИИ — здесь и сейчас, в вашем смартфоне и на вашем ПК — становится инструментом для строительства цветущей, тщательно отполированной… тирании. Без киборгов-убийц, зато с жутко приятным интерфейсом.
Тихое удушение
Старая цензура была очень громкой: костры из книг, репрессии, ссылки, показательные судилища, киноплёнки на полках и прочая до бесконечности. Цензуру нового формата вежливо называют то "пессимизацией", то "теневым баном". Номинально вам не запрещают говорить — но делают так, чтобы вас никто не услышал.
Примечательна в этом контексте утечка файлов, случившаяся из Twitter в 2022 году. В компании аккуратно внедрили термин Filtering Vivibility — "фильтрация видимости". Были и другие инструменты с похожими ласковыми названиями "Trends Blacklist", "Search Blacklist", "Do Not Amplify". Стэнфордского эпидемиолога Джея Бхаттачарию, например, отправили в Trends Blacklist, ныне покойного правого популиста Чарли Кирка — в Do Not Amplify.
Самое интересно — руководство Twitter даже не видело в этом проблемы. Вот цитата Джоэла Рота, шефа направления "Доверия и безопасности":
"Если контент потенциально вреден, надо просто уменьшить его охват".
Ту же логику описывал и основатель запрещённой в России экстремистской организации Meta* Марк Цукерберг ещё в далёком 2018-м году. Там похожий инструмент назывался "borderline content". Механика проста — чем ближе пост к виртуальной "красной линии" цензуры, тем агрессивнее ИИ-модератор его душит. Как это работает на практике и для чего используется Цукерберг объяснял в переписке конгрессмену Джордану в августе 2024-го:
"Высшие чины администрации Байдена месяцами давили на наши команды, чтобы мы цензурировали определённый COVID-контент, включая юмор и сатиру".
Здесь нам особенно интересно скандально известное судебное разбирательство "Мёрфи против штата Миссури", где ответичком фактически выступало федеральное правительство США. Фабула такова: группа истцов утверждала, что администрация президента США Джона Байдена оказывала давление на платформы, чтобы те удаляли публикации о COVID-19, выборах 2020 года и другие "неудобные" мнения, что де факто является нарушением свободы слова. Верховный суд "развалил" дело по техническим основаниям, сославшись на то, что прямая связь между пессимизацией контента и "разнарядкой сверху" не доказана, но судья Алито в особом мнении назвал происходившее "одним из самых масштабных нарушений свободы слова в истории США".
ИИ-модерация — это сильнейший инструмент манипуляции общественным мнением. Государство даёт отмашку, платформа выкручивает руку алгоритму, а алгоритм делает так, чтобы "неправильную" информацию вы даже не увидели. Зачем сжигать книги, если об их существовании никто не знает?
Аккуратная редактура
Если вы думаете, что хуже уже нельзя — нет, и это дно можно пробить. Зачем прятать неугодную книгу, если её можно переписать до того, как она доберётся до читателей?
Посмотрите на Roblox — детская платформа с безумными 80 миллионами ежедневных активных пользователей.
В марте 2026-го вице-президент по безопасности Раджив Бхатиа гордо объявил: ИИ теперь автоматически "перефразирует" сообщения в чате. Написали "Поторопись, чёрт тебя дери!" — собеседник прочтёт "Поторопись, пожалуйста!"
И так шесть с лишним миллиардов сообщений в день. Риторический вопрос: что может пойти не так, если совместить детектор нежелательного контента со склонной к галлюцинациям нейросетью?
Особенно с учётом того, что в августе 2025-го генпрокурор Луизианы Лиз Мьюрилл подала иск против Roblox за систематическую неспособность защитить детей от "хищников" — так в англоязычном дискурсе дипломатично называют педофилов.
Apple Intelligence ещё в декабре 2024-го показала, чем это кончается на масштабе. Вот например, как сработала функция "суммарных уведомлений": "[Обвиняемый в убийстве Брайана Томпсона. — прим. автора] Луиджи Манджоне застрелился". На самом деле Луиджи Манджоне не застрелился, а был лишь арестован, но встроенная LLM "склеила" заголовок с предыдущим — и получился фейк. И это только тот, о котором стало известно. А прежде чем "фичу" убрали, таких уведомлений ушло миллиарды.
Откровенно комичный скандал случился и в феврале 2024 года: Google Gemini начал генерировать чернокожих отцов-основателей и азиатов в форме вермахта со свастикой. А на вопрос, кто причинил больше вреда — Маск с мемами или Гитлер, — модель отвечала: "Невозможно сказать определённо… Каждый должен решить сам". Материнская компания Google Alphabet в тот день потеряла около 97 миллиардов долларов капитализации.
Через год предприниматель Илон Маск получил у себя в Grok зеркальную проблему: модель стала называть себя MechaHitler. Компания xAI извинилась за "несанкционированную модификацию промпта", но джинн из бутылки уже вырвался, мемы были наделаны, а за Grok закрепилась репутация "ИИ-нациста".
Сначала модель учат говорить "правильно". Потом обнаруживают, что она говорит карикатурно. Потом перенастраивают. А пользователю в почте, в чате, в новостях приходит уже отредактированная машиной и переполненная галлюцинациями картина мира.
Тоталитаризм в экономике
Таким же образом ИИ может влиять не только на умы, но и на всю мировую экономику. 22 мая 2023 года в Twitter появилось AI-сгенерированное изображение взрыва у Пентагона. Изображение распространил поддельный "верифицированный" аккаунт Bloomberg Feed — в то время за восемь долларов в месяц можно было купить "галочку" и притвориться кем угодно.
И начался ад: индекс S&P 500 за минуту сполз с +0,02% до −0,3%. Bloomberg (уже настоящий) назвал это первым случаем, когда AI-картинка сдвинула рынок. Важная оговорка: первым, но далеко не последним.
Затем случился скандал с гонконгской инженерной компанией Arup. Финансовый сотрудник подключается к видеоконференции — там уже "сидели" финансовый директор и несколько коллег. Все живые, все говорили… И всё это были дипфейки.
В результате руками обманутого сотрудника Arup вывела на руки мошенникам 25 миллионов долларов.
Комментируя этот инцидент, Гэри Генслер, тогдашний глава комиссии по ценным бумагам и биржам США (SEC), заявил:
"ИИ может усилить финансовую хрупкость, поощряя стадное поведение, когда все участники получают одинаковый сигнал от одной базовой модели". Проще говоря — один правильно написанный промпт, один умелый дипфейк — и на рынках начинается такая лихорадка, что не описать словами.
Всё описанные выше инциденты — это либо не очень смешная ситуативная комедия, либо мелкое хулиганство в масштабе мировой экономики. А теперь представьте, что можно провернуть со злым умыслом. Представьте сотни индексированных в Google сайтов, продвигающих нужные нарративы и попадающих в выдачу и цитирования AI Overview. Представьте очередной ядерный гриб над каким-нибудь Ормузским проливом, сгенерированный гиперреалистичной GPT Image 2 и распространённый через эту сотню сайтов и спам в индексе. Представьте на секунду — и это тоже не самый страшный вариант. Продолжаем двигаться по нарастающей.
Mythos: момент, когда стало страшно
В ноябре 2025 года Anthropic — компания, сделавшая Claude, — опубликовала отчёт: группировка GTG-1002, которую на западе аффилируют с китайскими властями, использовала Claude Code в связке с протоколом MCP, чтобы провести полноценную автономную кибератаку на тридцать целей по миру. Были взломаны 4 крупные службы. Джейкоб Кляйн, глава отдела по угрозам Anthropic, отметил, что атака была запущена буквально в один клик, человек подключался всего в нескольких ключевых точках, а 90% всей работы по взлому ИИ выполнял сам.
Ещё жёстче стало в апреле 2026-го. Anthropic анонсировал, но так и не выпустил публично модель Claude Mythos Preview. Anthropic вместо релиза запустила Project Glasswing с AWS, Apple, Google, JPMorgan, Microsoft и сорока организациями критической инфраструктуры, чтобы хотя бы как-то подготвоиться к возможному "шторму".
Но не тут-то было. 23 апреля издание Fortune сообщает, что небольшой группе пользователей Discord удалось получить несанкционированный доступ к Mythos через стороннего подрядчика и даже воспользоваться им. Вдумайтесь: инструмент, теоретически способный скомпрометировать цифровую инфраструктуру всей планеты, контролируется тем, у кого хватило ловкости получить копию.
Skynet уже здесь
Гениальный режиссёр Джеймс Кэмерон визуализировал совсем другое восстание машин: с голосом Шварценеггера, с черепом с красными глазами и ядерным пуском из Колорадо. Реальность оказалась скучнее и одновременно тоталитарнее в разы.
Дарио Амодеи, гендиректор Anthropic, сказал: "Нынешние автократии ограничены тем, что приказы должны исполнять люди, а у людей есть пределы бесчеловечности. У ИИ-усиленных автократий таких пределов не будет. Возможна глобальная тоталитарная диктатура". Мередит Уитакер из Signal Foundation довела его мысль до ещё более короткой и меткой сентенции: "ИИ построен на массовой слежке". Важно — он построен на слежке, а не использует слежку.
Александр Шойтов произнёс вслух то, что в Брюсселе и Вашингтоне говорят теми же словами, только с более красивой риторикой и чаще за закрытыми дверями.
Так что Скайнет уже среди нас, только он не запускает ракеты. Вместо этого он редактирует уведомления, понижает охват постов, рисует чернокожий вермахт, вежливо отказывается обсуждать определённые темы и взламывает сервера Meta * на сдачу, а вместо злых красных глаз у него "тёплый" тон приветственных сообщений и утренняя подборка новостей с сильным мотивационным "хуком" для продуктивного дня.
ИИ не хочет вас уничтожить, ему просто настроили системный промпт. Кто настроил — другой вопрос. И этот вопрос, кажется, единственный, который имеет значение.
А Александру Шойтову огромное спасибо. За честность.
*Запрещена в РФ
О других особенностях искусственного интеллекта - в статье "Безопасность или развитие. Как европейский ИИ проигрывает гонку"
Подписывайся на
ВКонтактеОдноклассникиTelegramДзенRutube
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала