Вторник, 4 марта в 07:42 UTC+3
Загрузка...

Meta предупреждает пользователей о мошенниках, выдавающих себя за знаменитостей или военных, с целью романтических афер.


65Опубликовано 19.02.2025 в 00:17Категория: БезопасностьИсточник
Изображение статьи

Думаете ли вы, что встречали кого-то «привлекательного, свободного и успешного» на Facebook или Instagram? Возможно, стоит дважды подумать. Компания Meta предупреждает пользователей о романтических мошенничествах в преддверии Дня святого Валентина.

Эти схемы, при которых мошенники создают вымышленные личности для установления онлайн-отношений со случайными жертвами, не являются новыми (Федеральная торговая комиссия сообщает, что люди потеряли более полумиллиарда долларов из-за романтических мошенничеств в 2021 году). Однако эти мошенники кажутся упорными.

По данным Meta, уже в 2025 году было заблокировано более 116 000 аккаунтов и страниц на Facebook и Instagram, связанных с романтическими мошенничествами. В 2024 году было удалено более 408 000 таких аккаунтов.

Как утверждает Meta, эти мошеннические аккаунты часто происходят из западноафриканских стран, где мошенники притворяются американскими военными или известными звездами шоу-бизнеса. В обоих случаях они будут утверждать, что «ищут любовь», и начнут общаться с людьми на Facebook, Instagram, WhatsApp и других платформах обмена сообщениями.

В конечном итоге мошенник попросит подарочные карты, криптовалюту или другие типы платежей. Компания Meta предпринимает меры для борьбы с такими схемами. Год назад она заявила о возвращении технологии распознавания лиц для решения проблемы подделки личностей звезд.

Компания также сотрудничает с другими компаниями по закрытию организованных групп мошенников. Однако, как отметил Дэвид Агранович (David Agranovich), директор по противодействию угрозам в Meta, «мошенники постоянно эволюционируют».

Исследователи также говорят, что искусственный интеллект сделал еще проще создание убедительных вымышленных личностей. "За последние три-четыре месяца появились несколько разных инструментов, которые бесплатны, легко доступны и просты в использовании. Они позволяют атакующему динамически преобразовать свое лицо во время видеозвонка", — сказала Рэachel Тобак (Rachel Tobac), генеральный директор компании SocialProof Security во время телефонного разговора со средствами массовой информации.

"Можно также использовать эти deepfake-роботы, которые позволяют создавать персонажей, совершать звонки и копировать голос. Человек фактически не нужен для этого процесса."

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.