Воскресенье, 15 июня в 05:58 UTC+3
Загрузка...

Meta скоро начнет использовать ИИ для большинства оценок рисков продуктов вместо человеческих экспертов.


193Опубликовано 01.06.2025 в 01:04Категория: БезопасностьИсточник
Изображение статьи

Компания Meta планирует переложить задачу оценки потенциального вреда от своих продуктов с людей-экспертов на искусственный интеллект (AI), чтобы ускорить процесс. Согласно внутренним документам, опубликованным NPR, Meta стремится к тому, чтобы до 90% оценок рисков выполнялись с помощью AI, и рассматривает возможность использования AI-оценки даже в таких областях, как риски для молодежи и "целостность" – охватывающей насильственный контент, дезинформацию и многое другое.

Неназванные нынешние и бывшие сотрудники Meta, беседовавшие с NPR, предупредили, что AI может упускать из виду серьезные риски, которые была бы способна выявить команда людей. Ранее обновления и новые функции для платформ Meta, включая Instagram и WhatsApp, подвергались проверке людьми перед выпуском в публичный доступ, но за последние два месяца компания, по сообщениям, усилила использование AI.

Теперь, как сообщает NPR, команды разработчиков продуктов должны заполнять анкету о своем продукте и отправлять ее на рассмотрение AI-системе, которая обычно дает "мгновенное решение", включающее выявленные области риска. Затем разработчикам придется выполнить все требования, предъявленные системой для устранения проблем, прежде чем продукт будет выпущен.

Бывший руководитель Meta заявил NPR, что снижение уровня проверки "означает создание более высоких рисков". Негативные последствия изменений продукта с меньшей вероятностью будут предотвращены до того, как они начнут вызывать проблемы в мире.

В своем заявлении для NPR компания Meta сообщила, что по-прежнему будет привлекать "человеческую экспертизу" для оценки "новых и сложных проблем" и оставлять "решения с низким уровнем риска" на откуп AI.

Данные изменения произошли спустя несколько дней после публикации Meta своих последних квартальных отчетов о целостности – первых после изменения политики в отношении модерации контента и фактчекинга в начале этого года. Как и следовало ожидать, количество удаленного контента снизилось на фоне этих изменений, но наблюдается небольшой рост случаев травли и преследований, а также насильственного и шокирующего контента.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.