Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Голос, который вы слышите, даже если он вам знаком, может быть ненастоящим, и у вас может не быть никакого способа узнать это. Синтез речи – явление не новое, но растущее число свободно доступных приложений ставит эту мощную возможность клонирования голоса в руки обычных людей, а последствия могут быть далеко идущими и непреодолимыми. Недавнее исследование Consumer Reports, изучившее полдюжины таких инструментов, ярко выявило риски.
Платформы, такие как ElevenLabs, Speechify, Resemble AI и другие, используют мощные модели синтеза речи для анализа и воспроизведения голосов, а иногда и с минимальными мерами безопасности. Некоторые пытаются – Descript, например, запрашивает записанное голосовое согласие перед тем, как система воспроизведет голосовую подпись. Но другие не так осторожны.
Я нашёл Play.ht и попытался клонировать свой собственный голос. Это действительно просто: за несколько минут у меня был готовый клона моего голоса, который я мог использовать для создания записей.
Это обещание с высокими идеалами, но реальность в том, что я начал записывать 30-секундные отрывки из знаменитых киномонологов Бенедикта Камбербэтча и Аль Пачино, и менее чем за минуту у меня были пригодные для использования клоны голосов обоих актеров.
Сервисы, такие как Descript, которые требуют голосового согласия от цели клонирования, являются исключениями. Play.ht утверждает, что она защищает права на голос людей. Вот выдержка из ее страницы «Этика ИИ»:
«Наша платформа ценит права интеллектуальной собственности и личное владение. Пользователям разрешено клонировать только свои собственные голоса или голоса тех, у кого есть явное разрешение. Эта строгая политика направлена на предотвращение любого потенциального нарушения авторских прав и поддержание высокого стандарта уважения и ответственности».
Сервисы, такие как Descript, которые требуют голосового согласия от цели клонирования, являются исключениями. Play.ht утверждает, что она защищает права на голос людей. Вот выдержка из ее страницы «Этика ИИ»:
То, что здесь нужно – это глобальное регулирование ИИ, но для этого требуется согласие и сотрудничество на уровне правительства, а в настоящее время этого нет.
Кажется, новый план состоит в том, чтобы надеяться, что компании ИИ будут хорошими цифровыми гражданами и по крайней мере попытаются не причинять вреда. К сожалению, большинство из этих компаний – как производители оружия.
Нет простого решения того, что я боюсь, станет кризисом клонирования голосов, но я бы посоветовал вам больше не доверять голосам, которые вы слышите в видео, по телефону или в голосовых сообщениях. Если у вас есть какие-либо сомнения, свяжитесь с соответствующим лицом напрямую.
Вместе с тем, я надеюсь, что больше платформ для голосов будут настаивать на голосе и / или документированном разрешении перед тем, как позволить пользователям клонировать голос кого-либо.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...