Рассмотрели эти вопросы на заседании Комиссии Совфеда по информационной политике и взаимодействию со СМИ "Злоупотребления с использованием искусственного интеллекта и возможности противодействия", состоявшемся 23 мая.
Участники дискуссии отмечали, в частности, опасность применения сгенерированных системами ИИ учебного материала. Рассмотрели зарубежный опыт законодательного регулирования в этой сфере, в частности, обратили особое внимание на китайский опыт. При этом отмечалось, что в силу ряда причин он не всегда может быть использован в чистом виде другими сообществами.
Какие решения в этой области могут быть приняты у нас на законодательном уровне? Эксперты предлагают рассматривать градации риска. В частности, есть сферы высокого риска – например, это биометрическая идентификация, распознавание эмоций и т.д. Возможно, образовательный контент тоже следует отнести к сфере высокого риска. Есть и другие градации.
Свободное же использование ИИ допускается в видеоиграх и т.п.
Участники мероприятия также говорили о необходимости принятия законодательных мер для поддержки отечественных разработчиков систем ИИ. Рисков много, многие из них мы пока даже не распознаем, необходимо предпринимать превентивные меры, утверждают специалисты.
Глава Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков отметил, что законодательство в этой сфере, будучи новым, исключительно сложное. Проблема в том, что никто не хочет брать на себя ответственность. Кроме того, надо учитывать, что РФ находится в особых условиях, связанных с информационным конфликтом с Западом.
Вопросы применения ИИ обсуждаются в разных международных организациях, и России надо вырабатывать свою модель. Можно ориентироваться на КНР, китайцы закрылись полностью – но они в какой-то степени самодостаточны, отметил Пушков. По его словам, информация – это зона безопасности, теперь выясняется, что и нравы тоже. И тут, по словам политика, у России и у Китая много общего в подходах.
Принимавший участие в дискуссии Артем Шейкин отметил, что первым шагом по противодействию угрозам является просветительская работа, однако нужна и соответствующая законодательная база. Пока приходится констатировать, что есть пробелы в правовом регулировании. Проблема, связанная с ИИ, заключается в том, что нужно объединить усилия законодателей и экспертного сообщества.
В свою очередь, Алексей Пушков отметил, что есть вызовы, требующие немедленного реагирования – например, мошенничество с применением ИИ, вовлечение молодежи в террористическую деятельность и т.п. Тут нужны предложения экспертов и определение тех сфер, в которых точечно можно решить наиболее злободневные проблемы.
Илья Емелин, представляющий компанию RUTUBE (ежемесячная аудитория – 50 млн. человек) рассказал, что огромное количество инцидентов связано с нарушением авторского права. Кроме того, ИИ может создавать фейковые новости и хорошо работает в сфере пропаганды – здесь присутствуют свои очевидные и не очень очевидные риски.
Подделка фото, документов и даже комментариев – еще одна сторона проблемы. При мониторинге тоже применяется ИИ, отметил Емелин. Он подчеркнул, что в компании следят за практиками зарубежных коллег. Что-то можно применять – например, информировать пользователей о том, что тот или иной продукт создан с применением ИИ.
Пушков на это сказал, что сегодня мошенничество превратилось в многомиллиардный бизнес. Но там можно вычленить людей, которые этим занимаются. А есть тема ценностей, которые разрабатывает (генерирует) ИИ. И мы не замечаем, как растет ценностный разрыв с западным обществом, между нами уже практически пропасть, мы находимся в противофазе, подчеркнул политик.
Он продолжил: есть паттерн – если человек поддерживает, например, вакцинацию, можно с достаточной долей уверенности предположить, что он еще поддерживает или не поддерживает. Америка пока не монолитна в ценностных ориентациях. Фейсбук* – только верхушка айсберга, мы боремся не с соцсетью, не с Цукербергом, а с антиценностями.
Эту систему антиценностей поддерживают миллионы жителей Запада, они исповедуют новую цивилизационную модель, на наш взгляд – гибельную, а на их – правильную и прогрессистскую. Но ведь в свое время "прогрессистскими" считались Содом и Гоморра…
Участники заседания отмечали, что сегодня уже можно видеть ряд проблем – например, есть проблема подлинности. ИИ способен генерировать тексты "под автора". И надо бы уже создавать депозитарий оригиналов, так как скоро мы не сможем разобраться, где подлинный текст, а где подделка, созданная с применением ИИ.
Юридический консультант Виктор Наумов отметил, что в мире пока не победили трансгуманисты, но они более уверенно действуют в цифровом мире, чем мы. А новое поколение полностью погружено в цифровой мир. И тут нужно принимать меры, обеспечивающие определение достоверности контента.
Мы теряем ряд социальных групп, которым кажется более привлекательным обитание в цифровом мире, все это усиливается грамотной пропагандой. Если говорить о мерах противодействия, то надо признать, что этика как регулятор гораздо слабее права, отметил юрист.
Он добавил, что результаты опросов даже среди подготовленных и продвинутых в "цифре" аудиторий показывают, что большинство – за то, чтобы в законодательстве было право на отказ от цифровых технологий. Например, робот должен предупреждать о том, что он робот. Контент, созданный ИИ, должен быть помечен. Но до сих пор этого не сделано, а ведь многие сферы взаимодействия граждан с государством уже переведены в электронную форму, это отсекает значительную часть населения, подчеркнул Виктор Наумов.
И еще одно – отсекается человек, а это и есть торжество трансгуманизма. Наконец, надо помнить о правах детей. В школах необходимо вводить зоны, свободные от ИИ. Иначе дети разучатся творить самостоятельно, рисовать, слагать стихи, предостерег эксперт.
В свою очередь, представитель Роскомнадзора Станислав Махортов отметил, что надо начинать с идентификации создателей контента. Вообще в информационной сфере много угроз, серьезность которых не еще не осознали в полной мере. Например, создание виртуальных политиков у нас пока воспринимают как шутку, но ведь это позволяет собрать огромную массу данных о пользователях и позволяет влиять на массы.
Есть угрозы создания псевдонауки. Свои опасности несет гиперперсонализированная реклама. Ударный контент – риски дипфейк-технологий, когда подделывается образ и голос политика.
Наконец, мошенничество. Тут надо уделять внимание наиболее уязвимым потребителям контента – а это дети и пожилые граждане, сказал эксперт. Он продолжил: наконец, есть технологии, которые позволяют предсказать реакцию человека на тот или иный контент с применением медицинских технологий.
Что делать? Сложно сказать, надо следить за развитием процессов в цифровой сфере и думать о необходимых мерах. Есть сочетание уже существующих рисков, которые в будущем могут привести к появлению новых угроз, о которых сейчас трудно судить.
Например, сверхэффективное влияние на отдельных граждан уже реализуется – вот сообщалось, что пенсионерку уговорили поджечь отделение банка. Но ведь может быть оказано такое же влияние на определенные социальные группы, на массы людей…
Махортов напомнил, что в России была практика регулирования блогеров, к которой надо бы вернуться. А практику регулирования ИИ можно аккуратно позаимствовать у Китая (аккуратно, поскольку там другая система).
По словам эксперта, надо учитывать менталитет России – мягкое регулирование у нас не работает. И конечно, дело не только в регулировании, необходимо развивать отечественную науку и технологии, чтобы своевременно отвечать на новые риски.
Нина Тихомирова (Московский финансовый университет) отметила опасность возникновение социальной пропасти между теми, кто будет использовать ИИ, и теми, кто не будет. Она также подчеркнула, что нет курсов этики в ВУЗах, в школах – а родители не всегда объясняют детям, что такое хорошо и что такое плохо.
Между тем, по ее словам, уже студенты делают курсовые с применением ИИ, а преподаватели создают таким образом "научные труды". Если нет этики – как сопротивляться?
Свое слово в этой дискуссии сказали и технооптимисты, предлагающие "тотальный ликбез" - каждый человек должен знать, что такое новые технологии, что такое ИИ – "ради того, чтобы использовать их во благо". В частности, указывалось, что технологии ИИ призваны лучше познать интеллект естественный – то есть, познавать наш несовершенный ум.
В завершение модерировавший заседание Алексей Пушков отметил, что никто не собирается бороться с ИИ. Речь идет не о противодействии, но о том, чтобы максимально отсечь возможные злоупотребления, устранить экстремальные проявления.
Он напомнил, что крупных корпораций есть свои интересы, имеющие мало общего с этикой – и тут нужно искать оптимальные решения. Никто не собирается останавливать научно-технический прогресс, речь о разумных ограничениях (никто ведь не оспаривает их необходимость, например, в ядерной сфере).
Главный вопрос цифровой революции, как и любой другой революции – это вопрос о власти, подчеркнул Пушков. По его словам, надо помнить, что трансгуманисты хотят добиться контроля над человечеством. Китайцы закрылись, у них есть такая возможность, а в России в силу ряда причин надо будет искать свой путь эффективного противодействия.
Политик подчеркнул, что главным этическим критерием прогресса должно считать все то, что способствует самопроизводству человеческого вида – и с этой точки зрения то, что иногда считают прогрессом, на самом деле является регрессом. По словам Пушкова, речь идет не о создании какой-то запретительной модели в цифровой сфере, но о том, чтобы можно было вовремя выявлять угрозы.
* Соцсеть, запрещенная в РФ.