Регулирование генеративного искусственного интеллекта и риски его развития

25.06.2024

Forbes: Россия вместе с США, Израилем, Сингапуром и ОАЭ возглавила группу стран с благоприятными условиями для развития технологий ИИ и привлечения инвестиций в эту область.

Тот факт, что Россия входит в число передовых стран в области генеративного искусственного интеллекта (ГИИ), не вызывает удивления. Цифровизация является одним из ключевых направлений для формирования IT-ландшафта, и можно отметить, что России нет равных в интеграции отдельных IT-сервисов, например: в банковской системе, государственных сервисах, системах распознавания и безопасности. Уже подготовленная IT-среда, привычка граждан использовать разные инструменты, а также пул профессиональных IT-компаний являются благоприятной средой для развития новой технологии.

Своевременное включение государства в регуляторный процесс и в финансирование технологий ГИИ является безусловным плюсом. На текущий момент это критически важно, ведь мы находимся в точке, когда «списать» особо не у кого. Однако само нормативное регулирование выглядит на текущий момент довольно хаотично. ГИИ в целом создает большое количество проблем, но подход «одна новая проблема — один нормативный акт» не способствует созданию устойчивого и комплексного подхода. Например, предложение о маркировке контента, созданного генеративным ИИ, которое сейчас обсуждается в Государственной Думе. Возможно, рано или поздно мы придем к принятию единого закона об ИИ, как это было сделано в Европе.


Можно ли минимизировать риски за счет маркировки генеративного контента?

Маркировка контента, созданного генеративным искусственным интеллектом, на мой взгляд, вызывает определенные сомнения. Данная мера предлагается, чтобы замедлить неконтролируемое распространение сгенерированного контента, а также снизить вероятность дезинформации. Однако интернет полон недостоверной, откровенно ложной информации, и на плечи пользователей уже сейчас ложится задача по фактчекингу и критической оценке в целом. Сильно ли изменили ситуацию нейросети? Будет ли созданный ИИ контент с «галлюцинациями» хуже или лучше созданного человеком умышленно или по незнанию ложного контента?

С бумом нейросетей существенная часть контента генерируется частично или полностью с помощью ИИ, и это количество будет только увеличиваться. Например, даже для этого комментария я могла воспользоваться ИИ. Однако важно понимать, что сгенерированный контент не равно сфальсифицированный контент. Его демонизация не даст того эффекта, который видится желаемым.

Если данная мера все-таки будет вводиться, необходимо четко определить критерии маркировки, ведь она должна что-то от чего-то отличать. Важно избежать «эффекта сигаретных пачек» — на них есть предупреждения и даже ужасные картинки, но уже никто на них не обращает внимание. Маркировка всего созданного ИИ контента может привести к тому, что она просто не будет работать. Ведь почти все и так используют нейросети в той или иной степени. Здесь важны либо критерии глубины взаимодействия с ИИ, либо разделение по субъектам, например, можно обязать СМИ маркировать контент, созданный ИИ. Также успешным может быть подход по частичной маркировке, когда затрагиваются чувствительные темы, например, рекомендации по здоровью и лечению, инвестиционные рекомендации и так далее.

С другой стороны, маркировка могла бы выполнять превентивную функцию в отношении голосового и видео контента, то есть решать проблему «дипфейков». Видится, что их использование может нанести существенно больше вреда как деловой репутации, так и  кошельку, например, в случае мошенничества путем имитации голоса при получении кредита. Кроме того, редки случаи, когда дипфейки используются неумышленно, а значит, сам факт их создания и публикации в неправовых целях может уже рассматриваться как правонарушение.

Одним из ключевых аспектов, на которые я бы обратила внимание, является повышение цифровой и правовой грамотности населения. Использование нейросетей на ежедневной основе — это наша новая реальность, и важно способствовать комфортному и безопасному встраиванию новых инструментов в жизнь людей. Для этого нужны не только правила и запреты, но и доступность информации о рисках, способах взаимодействия с нейросетями и работа с потенциально уязвимыми группами лиц.

См. также:

ИИ и диверсификация правовых рисков для бизнеса


Автор подкаста
0:00 / 0:00

Пожалуйста, поверните ваше устройство в вертикальное положение