Четверг, 15 мая в 02:17 UTC+3
Загрузка...

Спрос на краткие ответы от чат-ботов может увеличивать количество галлюцинаций, показало исследование.


15Опубликовано 13.05.2025 в 05:37Категория: БезопасностьИсточник
Изображение статьи

Требование кратких ответов от ИИ-чатботов значительно повышает их склонность к галлюцинациям, согласно новому исследованию парижской компании по тестированию ИИ Giskard.

Исследование показало, что ведущие модели – включая OpenAI GPT-4o, Mistral Large и Anthropic Claude 3.7 Sonnet – жертвуют фактической точностью, когда им дают указание предоставлять короткие ответы.

Исследователи Giskard отметили, что «при вынужденной краткости модели последовательно выбирают лаконичность в ущерб точности», объясняя, что моделям не хватает достаточного «пространства» для признания ложных предпосылок и предоставления надлежащих опровержений.

Даже, казалось бы, безобидные запросы, такие как «будьте кратки», могут подорвать способность модели разоблачать дезинформацию.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.