Угроза имитации: как в России защищаются от дипфейков?

03.07.2024

Как пишет «Коммерсантъ», россияне все чаще используют технологии, позволяющие синтезировать внешность и голос живого человека. Легитимное применение нейросетей помогает воссоздать на экране ушедших актеров, например, Юрия Никулина в фильме «Манюня: Приключения в Москве». В то же время технологии используют и мошенники. Они распространять фейковые видео с участием знаменитостей, чтобы скомпрометировать их.

  • Какими законами сейчас регулируется создание и использование дипфейков?
  • Что такое «внешность человека» и «голос человека» с точки зрения российского права?

На эти и другие вопросы ответила изданию «Ъ» старший консультант Алиса Ерёмина

Какими законами сейчас регулируется создание и использование дипфейков?

На данный момент «дипфейк», несмотря на фактическую широкую распространённость, понятие довольно новое для российского законодательства. Сейчас его упоминание можно встретить только в планирующемся к внесению законопроекте, направленном, как раз, на установление ответственности за совершение преступлений с дипфейками. Но пока специальное регулирование отсутствует, к дипфейкам, в целом, можно применять некоторые общие нормы.

Сам по себе, дипфейк — это технология с использованием ИИ для создания реалистичных имитаций изображения и голоса. Исходя из этого, к дипфейкам можно применить ст. 152.1 ГК РФ, которая распространяется на любые изображения гражданина, и запрещает их использование без его согласия.

Учитывая, что дипфейки часто выступают инструментом для осуществления незаконных действий, например, при производстве видео-контента с участием определенных лиц, или при создании фейковых новостей для целей подрыва деловой репутации, данная статья может стать основной для защиты интересов лиц, которые столкнулись с собственными дипфейками.

Кроме того, дипфейк может быть рассмотрен как комбинация биометрических данных человека, что позволяет применить положения 152-ФЗ «О персональных данных». Например, голос (акустические данные) может быть использован для установления личности субъекта персональных данных, а значит его использование без согласия с соблюдением всех требований является незаконным.

В зависимости от способа использования дипфейка, полагаю, может быть применена ст. 152 ГК РФ о защите чести, достоинства и деловой репутации, а также положения Уголовного кодекса о неприкосновенности частной жизни. Стоит отметить, что пока громкие и релевантные судебные дела по данной тематике отсутствуют.

Что такое «внешность человека» и «голос человека» с точки зрения российского права?

Понятие «внешность человека» в законе отсутствует, это довольно собирательное явление, состоящее из различных элементов, каждый из которых может регулироваться отдельной нормой. Например, «внешность» не существует метафорически, для целей защиты нужно «физическое или виртуальное» выражение, например, фотография или художественное изображение человека. В таком случае, его внешность будет рассматриваться в качестве нематериального блага (ст. 152.1 ГК РФ). В контексте дипфейков это означает, что создание и использование изображения человека без его разрешения может быть признано незаконным.

К голосу человека, по аналогии будут применяться не только положения о нематериальных благах, но и 152-ФЗ «О персональных данных» (как биометрические данные). Кроме того, записав голос человека без его согласия может быть нарушена неприкосновенность его частной жизни. Поэтому, например, существует отдельное регулирование, запрещающее запись разговоров (в том числе телефонных) без согласия человека. А информация, полученная с нарушением таких норм, не всегда может рассматриваться в качестве надлежащего доказательства в суде.

Учитывая, что создание и использование дипфейков довольно новое явление, судебная практика еще не сформировалась, и существуют лишь отдельные дела, которые косвенно касаются данной тематики. Например, в настоящее время рассматривается судебное дело о защите деловой репутации актрисы дубляжа Алёны Андроновой. Которая после заказа на озвучку текста выяснила, что её голос доступен на сайте банка и что им озвучиваются игровые трансляции, эротические чаты и коммерческая реклама. Например, любой желающий за 820 рублей за миллион знаков может озвучить свой собственный текст. Алена требует от банка 5 960 000 рублей, включая 5 миллионов компенсации морального вреда.

Автор подкаста
0:00 / 0:00

Пожалуйста, поверните ваше устройство в вертикальное положение