Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Поисковая система Google с использованием искусственного интеллекта уверенно генерирует объяснения для несуществующих идиом, вновь демонстрируя фундаментальные недостатки больших языковых моделей. Пользователи обнаружили, что ввод любой выдуманной фразы с добавлением слова "значение" активирует AI Overviews, которые представляют собой сфабрикованные этимологии с необоснованной уверенностью.
При запросе о фразах вроде "a loose dog won't surf" ("свободная собака не будет серфить"), система Google генерирует подробные, правдоподобные объяснения, вместо того чтобы признать, что эти выражения не существуют. Система изредка добавляет ссылки на источники, что еще больше усиливает ложное впечатление о легитимности.
Компьютерный ученый Цзян Сяо (Ziang Xiao) из Университета Джонса Хопкинса связывает такое поведение с двумя ключевыми характеристиками больших языковых моделей: генерацией текста на основе предсказаний и стремлением угодить пользователю. "Предсказание следующего слова основано на огромном объеме данных, на которых она обучалась, – пояснил Сяо. – Однако во многих случаях следующее связное слово не приводит нас к правильному ответу".
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...