Регулирование ИИ, скорее всего, затормозит развитие технологий в наиболее высокорисковых сферах, не исключают эксперты
Регулирование ИИ, скорее всего, затормозит развитие технологий в наиболее высокорисковых сферах, не исключают эксперты
Наука и технологии
отправить
Задать вопрос
по материалу
 

Контент, созданный ИИ, предлагают маркировать

Регулирование ИИ, скорее всего, затормозит развитие технологий в наиболее высокорисковых сферах, не исключают эксперты

Развитие технологий искусственного интеллекта (ИИ) вызывает у правительств желание контролировать эти процессы: страны G7 приняли заявление об 11 принципах такого регулирования, включая внедрение системы маркировки созданного с применением ИИ контента, пишет «Коммерсант». Маркировка необходима для того, чтобы пользователи могли его идентифицировать.

Одновременно в США опубликован президентский указ, обязующий разработчиков мощных систем ИИ делиться результатами тестирования безопасности и другой важной информацией с американскими властями. Он касается компаний, разрабатывающих ИИ-модели, которые потенциально могут представлять риск для национальной и экономической безопасности США, для здоровья и безопасности населения.

Эксперты отмечают, что заявление G7 фактически предписывает приоритет разработки международного регулирования ИИ под лидерством США.

Директор по правовым инициативам Фонда развития интернет-инициатив Александра Орехович добавляет, что в последнее время технологии ИИ стали развиваться темпами, при которых степень их влияния выявила угрозы: вмешательство в личную жизнь, дискриминация, дипфейки. В результате ряд стран стал задумываться об ограничениях для ИИ. При этом каждая пошла по своему пути: Китай — в сторону цензурирования контента, ЕС — защиты личности от дискриминации и технологий социального скоринга, перечисляет «Коммерсант».

«В целом, как и любое регулирование, регулирование ИИ, скорее всего, затормозит развитие технологий в определенных, наиболее высокорисковых сферах. Но очевидно, что страны, вводящие его, просчитывают этот риск»,— говорит Александра Орехович.

Фото freepik


Подпишитесь на рассылку «Умной Страны»
Подписаться