Представлен алгоритм AntiFake для защиты голоса от создания дипфейков

  • Автор темы Автор темы Dragokas
  • Дата начала Дата начала

Dragokas

Angry & Scary Developer
Команда форума
Супер-Модератор
Разработчик
Клуб переводчиков
Сообщения
7,989
Решения
11
Реакции
6,758
Доцент кафедры компьютерных наук и инженерии Вашингтонского университета в Сент-Луисе Нин Чжан разработал алгоритм AntiFake, который усложняет создание голосовых дипфейков.

3547f5cad7f6ba9d1b4d35b5cda79d57.webp

AntiFake создаёт условия, при которых ИИ становится практически невозможно считать ключевые характеристики голоса при записи разговора реального человека. «В инструменте используется техника состязательного ИИ, которая изначально применялась киберпреступниками, но теперь мы направили её против них. Мы немного искажаем записанный аудиосигнал, создавая возмущения ровно в той мере, чтобы для человека он звучал так же, а для ИИ — совершенно иначе», — пояснил Чжан.

В итоге сгенерированный голос не будет похож на оригинал. Тесты с пятью разными инструментами создания дипфейков показали, что AntiFake в 95% случаев предотвращает синтез реалистичных подделок. В настоящее время алгоритм может защищать короткие фрагменты речи и нацелен на наиболее распространенный тип имитации голоса. Но, по словам Чжана, инструмент можно будет применять для защиты более длинных записей или даже музыки.

«Что будет с голосовыми ИИ-технологиями дальше, я не знаю — новые инструменты и функции разрабатываются постоянно, — но всё же считаю, что наша стратегия использования техники противника против него самого так и останется эффективной», — уверен автор разработки.

Ранее в США разработали законопроект, который запрещает производить и распространять с помощью ИИ неавторизованные цифровые дипфейки голоса и внешнего образа человека.

 
Назад
Сверху Снизу