Воскресенье, 20 апреля в 03:34 UTC+3
Загрузка...

Я клонировал свой голос за считанные секунды с помощью бесплатного приложения ИИ, и нам действительно нужно поговорить о синтезе речи


26Опубликовано 14.03.2025 в 18:53Категория: БезопасностьИсточник
Изображение статьи

Голос, который вы слышите, даже если он вам знаком, может быть ненастоящим, и у вас может не быть никакого способа узнать это. Синтез речи – явление не новое, но растущее число свободно доступных приложений ставит эту мощную возможность клонирования голоса в руки обычных людей, а последствия могут быть далеко идущими и непреодолимыми. Недавнее исследование Consumer Reports, изучившее полдюжины таких инструментов, ярко выявило риски.

Платформы, такие как ElevenLabs, Speechify, Resemble AI и другие, используют мощные модели синтеза речи для анализа и воспроизведения голосов, а иногда и с минимальными мерами безопасности. Некоторые пытаются – Descript, например, запрашивает записанное голосовое согласие перед тем, как система воспроизведет голосовую подпись. Но другие не так осторожны.

Я нашёл Play.ht и попытался клонировать свой собственный голос. Это действительно просто: за несколько минут у меня был готовый клона моего голоса, который я мог использовать для создания записей.

Это обещание с высокими идеалами, но реальность в том, что я начал записывать 30-секундные отрывки из знаменитых киномонологов Бенедикта Камбербэтча и Аль Пачино, и менее чем за минуту у меня были пригодные для использования клоны голосов обоих актеров.

Сервисы, такие как Descript, которые требуют голосового согласия от цели клонирования, являются исключениями. Play.ht утверждает, что она защищает права на голос людей. Вот выдержка из ее страницы «Этика ИИ»:

«Наша платформа ценит права интеллектуальной собственности и личное владение. Пользователям разрешено клонировать только свои собственные голоса или голоса тех, у кого есть явное разрешение. Эта строгая политика направлена на предотвращение любого потенциального нарушения авторских прав и поддержание высокого стандарта уважения и ответственности».

Сервисы, такие как Descript, которые требуют голосового согласия от цели клонирования, являются исключениями. Play.ht утверждает, что она защищает права на голос людей. Вот выдержка из ее страницы «Этика ИИ»:

То, что здесь нужно – это глобальное регулирование ИИ, но для этого требуется согласие и сотрудничество на уровне правительства, а в настоящее время этого нет.

Кажется, новый план состоит в том, чтобы надеяться, что компании ИИ будут хорошими цифровыми гражданами и по крайней мере попытаются не причинять вреда. К сожалению, большинство из этих компаний – как производители оружия.

Нет простого решения того, что я боюсь, станет кризисом клонирования голосов, но я бы посоветовал вам больше не доверять голосам, которые вы слышите в видео, по телефону или в голосовых сообщениях. Если у вас есть какие-либо сомнения, свяжитесь с соответствующим лицом напрямую.

Вместе с тем, я надеюсь, что больше платформ для голосов будут настаивать на голосе и / или документированном разрешении перед тем, как позволить пользователям клонировать голос кого-либо.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.