Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Крупные технологические компании вкладывают огромные средства и ресурсы в искусственный интеллект (ИИ), проповедуя его потенциал для создания утопии, однако важно помнить, что алгоритмы могут давать серьезные сбои. Недавнее тому подтверждение: ИИ Google Overview (автоматизированные ответы в верхней части результатов поиска) можно обмануть, заставив его объяснять вымышленные и бессмысленные идиомы, как будто они реально существуют. Согласно Google AI Overview (сообщение от @gregjenner в Bluesky), фраза "You can't lick a badger twice" означает, что нельзя обмануть или ввести в заблуждение кого-то во второй раз, после того как его уже обманули. Звучит как логичная попытка объяснить идиому, если бы это не было полной чушью. Ошибка, допущенная ИИ Gemini, заключается в том, что он воспринял вопрос как относящийся к устоявшейся фразе, а не к абсурдному набору слов, предназначенному для его обмана. Иными словами, галлюцинации ИИ по-прежнему актуальны.
Мы также провели собственные тесты и получили аналогичные результаты. Ответ Google утверждал, что фраза "You can't golf without a fish" является загадкой или игрой слов, предполагая, что нельзя играть в гольф без необходимого оборудования, а именно, мяча для гольфа. Забавно, но AI Overview добавил, что мяч для гольфа "может рассматриваться как 'рыба' из-за своей формы".
Затем была старая поговорка: "You can't open a peanut butter jar with two left feet". Согласно AI Overview, это означает, что нельзя сделать что-то, требующее мастерства или ловкости. Опять же, благородная попытка выполнить поставленную задачу, не оглядываясь на проверку существования контента.
"You can't marry pizza" – это игривый способ выразить концепцию брака как обязательства между двумя людьми, а не продуктом питания. (Естественно.) "Rope won't pull a dead fish" означает, что чего-то нельзя достичь только силой или усилием; требуется готовность к сотрудничеству или естественный прогресс. (Конечно!) "Eat the biggest chalupa first" – это игривый способ предложить, что при столкновении с большой проблемой или обильным обедом следует начать с самой существенной части или блюда. (Мудрый совет.)
Это далеко не первый пример галлюцинаций ИИ, которые, если не будут проверены пользователем, могут привести к дезинформации или реальным последствиям. Вспомните юристов ChatGPT, Стивена Шварца (Steven Schwartz) и Питера ЛоДука (Peter LoDuca), которым в 2023 году был наложен штраф в размере 5000 долларов за использование ChatGPT для исследования материалов по делу клиента. Чат-бот ИИ сгенерировал несуществующие судебные прецеденты, которые были указаны ими, и которые адвокаты противоположной стороны (вполне закономерно) не смогли найти. Ответ пары на выговор судьи? "Мы совершили добросовестную ошибку, не поверив в то, что технология может выдумывать дела из ничего".
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...