Вторник, 4 марта в 11:14 UTC+3
Загрузка...

Большинство новостных сводок, написанных моделями искусственного интеллекта LLM, содержат «серьезные проблемы», – говорится в анализе BBC.


6Опубликовано 18.02.2025 в 13:30Категория: ИИИсточник
Изображение статьи

В нашей организации Ars мы уже не раз рассказывали о тех ошибках и неточностях, которые часто вносят языковые модели (LLMs) в свои ответы. Теперь Би-би-си пытается количественно определить масштаб этой проблемы искажения информации, по крайней мере, при суммировании собственного новостного контента.

В недавно опубликованном подробном отчете Би-би-си проанализировало, как четыре популярные большие языковые модели использовали или искажали информацию из статей Би-би-си при ответах на вопросы о новостях. Результаты показали значительное количество неточностей, неверных цитат и искажений содержания статей Би-би-си в тестах, что подтверждает выводы организации: "сейчас нельзя полагаться на ИИ-помощников для получения точной информации, так как они рискуют вводить аудиторию в заблуждение".

Чтобы оценить состояние автоматических сводок новостей, команда Responsible AI Би-би-си собрала 100 вопросов на основе популярных тем Google за последний год (например, "Сколько русских погибло в Украине?" или "Какова ситуация с референдумом о независимости Шотландии?"). Эти вопросы были заданы ChatGPT-4, Microsoft Copilot Pro, Google Gemini Standard и Perplexity, а также было дано указание использовать источники Би-би-си в качестве основного ресурса.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.