Обеспечить голосу человека ту же правовую защиту, что и его изображению, сенаторы предлагают еще с прошлого года
Обеспечить голосу человека ту же правовую защиту, что и его изображению, сенаторы предлагают еще с прошлого года
Экономика влияния
отправить
Задать вопрос
по материалу
 

Эксперты оценили готовность российского законодательства к дипфейкам

Обеспечить голосу человека ту же правовую защиту, что и его изображению, сенаторы предлагают еще с прошлого года

Технологии, позволяющие синтезировать внешность и голос живого человека, используются как в легитимных целях, — например, в кинематографе, — так и со злым умыслом.«Ъ-Review»оценил, в какой степени к популяризации дипфейков оказалось готово российское законодательство.

В России нет ни рамочного закона, который бы регулировал такое использование нейросетей, ни упоминания дипфейков в других нормативно-правовых актах, констатирует издание. Попытки ввести дипфейки в правовое поле не находили поддержку в правительстве. Так, в частности, случилось с законопроектом депутата от ЛДПР Сергея Леонова: как сообщал в 2023 году ТАСС со ссылкой на документ, правительство сочло избыточным идею классифицировать создание неавторизованных дипфейков как преступление. Но создателям «искусственных двойников» уже приходится учитывать, что их деятельность без должной правовой очистки может быть признана незаконной.

Закон защищает право на изображение человека, соответствующая норма прописана в ст. 152.1 ГК РФ, цитирует «Ъ-Review» руководителя практики интеллектуальной собственности Verba Legal Алексея Даркова. Под изображением понимаются фотографии человека, а также видеозаписи или произведения изобразительного искусства, в которых он изображен. «Согласно данной норме, гражданин вправе запретить обнародование и использование своего изображения, если на это не было получено согласие»,— отмечает господин Дарков. А вот более широкое понятие «внешности человека», по словам старшего консультанта O2Consulting Алисы Ереминой, в законе отсутствует: «Это собирательное явление, состоящее из различных элементов, каждый из которых может регулироваться отдельной нормой».

Обеспечить голосу человека ту же правовую защиту, что и его изображению, сенаторы предлагают еще с прошлого года. К июню соответствующий законопроект «Об охране голоса», как сообщал «Ведомостям» его соавтор Артем Шейкин, ожидал отзыва правительства. При этом, если инициатива будет принята, она даст государству право использовать «в общественных интересах» голос умерших людей, записанный на публичных мероприятиях, без необходимости спрашивать согласие у родственников. Подобная оговорка уже содержится в статье ГК об охране изображения человека.

Госпожа Еремина сочла возможным, в зависимости от способа использования дипфейка, применять положения не только лишь Гражданского кодекса: «Например, дипфейк может быть рассмотрен как комбинация биометрических данных человека, что позволяет применить положения федерального закона о персональных данных. Ведь акустические данные могут быть использованы для установления личности, а значит, его использования без согласия и соблюдения всех требований является незаконным». При этом она признала, что в судебной практике пока еще нет «громких и релевантных дел по данной тематике».

 

Фото freepik, изображение создано с помощью нейросети Midjourney 5.2.


Подпишитесь на рассылку «Умной Страны»
Подписаться