Киберэксперт Раевский: ИИ в соцсетях нельзя на 100% ограничить
Главный радиочастотный центр Роскомнадзора (ГРЧЦ) предложил соцсетям самим предварительно ограничивать распространение дипфейков, контента, созданного искусственным интеллектом. Заместитель начальника отдела специальных проектов и академических программ Научно‑технического центра ФГУП ГРЧЦ Станислав Махортов указал, что блокировки должны были бы затронуть и сообщения, которые приобретают широкую популярность в моменте.
Эксперт по кибербезопасности Алексей Раевский отметил в беседе с «Ридусом», что достоверно отличить ИИ-контент от созданного человеком – возможно не всегда.
«В законе можно написать все, что угодно, но нужен подзаконный акт с конкретными инструкциями или методическими указаниями. Тогда уже можно будет обсуждать, насколько это вообще выполнимо. Но, в принципе, социальные сети, сами заинтересованы в том, чтобы как-то отличать этот контент. Однако стопроцентного метода, который помогает определить сгенерированный с помощью нейросетей контент, не существует. Не работает бинарная проверка, как в случае с фильтрацией сообщений, содержащих нецензурную лексику», – заявил он.
Эксперт добавил, что такие проверки потребуют определенных вычислительных затрат. И хотя в основном сейчас дипфейки используются для того, чтобы всякие смешные ролики про котиков делать, есть и риски. Прежде всего, такой контент может опорочить репутацию того или иного человека.
Ранее вице-спикер Госдумы, Борис Чернышов предложил внедрить на российских платформах и в соцсетях кнопку «Пожаловаться на дипфейк». Инициатива предполагает введение ускоренного порядка рассмотрения подобных жалоб с приоритетной модерацией.