Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Требование кратких ответов от ИИ-чатботов значительно повышает их склонность к галлюцинациям, согласно новому исследованию парижской компании по тестированию ИИ Giskard.
Исследование показало, что ведущие модели – включая OpenAI GPT-4o, Mistral Large и Anthropic Claude 3.7 Sonnet – жертвуют фактической точностью, когда им дают указание предоставлять короткие ответы.
Исследователи Giskard отметили, что «при вынужденной краткости модели последовательно выбирают лаконичность в ущерб точности», объясняя, что моделям не хватает достаточного «пространства» для признания ложных предпосылок и предоставления надлежащих опровержений.
Даже, казалось бы, безобидные запросы, такие как «будьте кратки», могут подорвать способность модели разоблачать дезинформацию.
Нет статей для отображения
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...