Вторник, 21 октября в 12:28 UTC+3
Загрузка...

Спрос на краткие ответы от чат-ботов может увеличивать количество галлюцинаций, показало исследование.


172Опубликовано 13.05.2025 в 05:37Категория: БезопасностьИсточник
Изображение статьи

Требование кратких ответов от ИИ-чатботов значительно повышает их склонность к галлюцинациям, согласно новому исследованию парижской компании по тестированию ИИ Giskard.

Исследование показало, что ведущие модели – включая OpenAI GPT-4o, Mistral Large и Anthropic Claude 3.7 Sonnet – жертвуют фактической точностью, когда им дают указание предоставлять короткие ответы.

Исследователи Giskard отметили, что «при вынужденной краткости модели последовательно выбирают лаконичность в ущерб точности», объясняя, что моделям не хватает достаточного «пространства» для признания ложных предпосылок и предоставления надлежащих опровержений.

Даже, казалось бы, безобидные запросы, такие как «будьте кратки», могут подорвать способность модели разоблачать дезинформацию.

Интересные статьи

Нет статей для отображения

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.