Пятница, 27 июня в 20:31 UTC+3
Загрузка...

Meta предупреждает пользователей "воздерживаться от публикации личной или конфиденциальной информации" в своем приложении с искусственным интеллектом.


43Опубликовано 18.06.2025 в 05:09Категория: БезопасностьИсточник
Изображение статьи

Компания Meta предприняла небольшой шаг для решения проблемы чрезмерного распространения информации в публичной ленте своего AI-приложения. В приложении добавлен короткий отказ от ответственности, предупреждающий пользователей "не делиться личной или конфиденциальной информацией" при нажатии кнопки "опубликовать в ленте" в приложении Meta AI.

На это изменение впервые обратил внимание Business Insider, который назвал приложение "одним из самых удручающих мест в сети" из-за огромного количества личных, смущающих и иногда идентифицирующих личность данных, которые пользователи Meta AI, по-видимому, неосознанно публиковали в встроенную ленту "discover".

Хотя Meta AI по умолчанию не делится историей чатов пользователей, многие пользователи приложения, похоже, выбирали опцию "поделиться" своими взаимодействиями, не осознавая, что это сделает текстовые и голосовые чаты видимыми для общественности.

На прошлой неделе были обнаружены сообщения, в которых пользователи спрашивали советы по "улучшению перистальтики" и интересовались, может ли родственник нести ответственность за неуплаченные налоги работодателя. Другой пользователь отчаянно добавлял "пожалуйста, сохраните это в секрете" к своим публичным сообщениям, пытаясь скрыть свои смущающие чаты.

Подобные странные публичные взаимодействия происходили с момента запуска приложения Meta AI в апреле, но получили новую волну внимания на прошлой неделе, когда пользователи социальных сетей начали делиться странными разговорами, которые были видны в ленте "discover" приложения.

Эксперты по вопросам конфиденциальности раскритиковали Meta, отметив, что большинство других популярных AI-чат-ботов не включают в себя социальную, общедоступную ленту. "Если ожидания пользователя от функционирования инструмента не соответствуют действительности, у вас возникнут серьезные проблемы с пользовательским опытом и безопасностью", - отметила Рэйчел Тобак, эксперт по безопасности, ранее сотрудничавшая с Meta. "Люди сформировали представление об AI-чат-ботах и не ожидают, что их запросы к чат-боту будут появляться в ленте "discover" в стиле социальных сетей - так не работают другие инструменты".

Фонд Mozilla также призвал Meta изменить дизайн приложения. "В приложении Meta AI не очевидно, что все, чем вы делитесь, становится полностью общедоступным", - говорится в заявлении фонда на прошлой неделе. "В нем нет четкой иконографии и знакомых подсказок о публикации, как в других приложениях Meta".

Теперь компания, по-видимому, прислушалась к этим замечаниям. При выборе опции публичного распространения взаимодействия с Meta AI появляется предупреждение, указанное выше, хотя оно отображается только при первой публикации. "Ваши запросы будут общедоступными и видимыми для всех", - говорится в предупреждении. "Meta может предлагать ваши запросы в других приложениях Meta. Избегайте публикации личной или конфиденциальной информации".

Как отмечает Business Insider, в общедоступной ленте приложения больше не отображаются текстовые переписки, которыми пользователи поделились с приложением, а только сгенерированные AI изображения и видео. Неясно, является ли это постоянным изменением или результатом недавнего негативного внимания, которое получило приложение.

Если вы стали жертвой непреднамеренной публикации сообщений в приложении, вы можете удалить их, нажав на свой профиль в правом верхнем углу приложения, перейдя в "Данные и конфиденциальность" -> "Управление информацией" -> "Сделать все публичные запросы видимыми только для меня" и выбрав "применить ко всем".

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.