Вторник, 4 марта в 11:47 UTC+3
Загрузка...

На тесте 2000 человек смотрели контент с deepfake, и только двое из них смогли получить идеальный результат


36Опубликовано 21.02.2025 в 02:37Категория: БезопасностьИсточник
Изображение статьи

Исследование iProov выявило, что пожилые взрослые больше всего страдают от deepfake-контента. Недостаточная уверенность в себе распространена среди более молодого поколения, а социальные сети стали главными источниками поддельных материалов, предупреждают эксперты.

По мере развития технологии deepfake растут опасения по поводу распространения дезинформации, мошенничества и кражи личной информации из-за низкой осведомленности людей в области ИИ. По данным недавнего исследования iProov, большинство людей не могут отличить deepfake от реальности. В ходе эксперимента с участием 2000 человек из Великобритании и США их подвергли воздействию смеси настоящих и ИИ-генерированных изображений и видео, в результате чего только 0,1% участников — всего двое людей — смогли правильно различить реальный контент от deepfake.

Исследование показало, что пожилые взрослые особенно уязвимы для ИИ-генерированной манипуляции. Около 30% тех, кто находится в возрасте от 55 до 64 лет, и 39% тех, кому больше 65 лет, никогда не слышали о deepfake ранее. Хотя молодые участники были более уверенными в своих способностях распознавать deepfake, их практические результаты в исследовании не улучшились.

Старшее поколение более уязвимо

Исследование также подтвердило, что видеоматериалы deepfake значительно сложнее распознавать по сравнению с изображениями. Участники были на 36% менее вероятны правильно определить фальшивое видео, чем изображение, что вызывает опасения относительно мошенничества и распространения дезинформации через видеоконтент.

Социальные сети выделены как основные источники deepfake-контента. Почти половина участников (49%) указали платформы Meta, включая Facebook и Instagram, как наиболее часто используемые места для deepfake, в то время как 47% назвали TikTok.

«Это подчеркивает, насколько уязвимыми являются как организации, так и потребители перед угрозой кражи личной информации в эпоху deepfake», — заявил Андрей Буд (Andrew Bud), основатель и генеральный директор iProov. «Преступники эксплуатируют неспособность людей отличать подлинные изображения от фальшивых, что ставит под угрозу личную информацию и финансовую безопасность».

Буд также отметил, что даже когда люди подозревают deepfake, большинство из них не предпринимает никаких действий. Лишь 20% респондентов заявили, что они сообщат о подозрительном deepfake при обнаружении его в Интернете.

По мере того как deepfake становятся все более продвинутыми, iProov считает, что человеческое восприятие больше не является надежным средством для их распознавания. Буд подчеркнул необходимость использования биометрических решений безопасности с функцией проверки жизнеспособности (liveness detection), чтобы противостоять угрозам всё более убедительного deepfake-материала.

«Компании должны защищать своих клиентов путем внедрения надежных мер безопасности», — сказал он. «Использование биометрических данных лица с функцией проверки жизнеспособности обеспечивает доверительный фактор аутентификации и приоритизирует как безопасность, так и контроль индивидуума, что позволяет организациям и пользователям оставаться в курсе этих развивающихся угроз».

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.