Суббота, 19 апреля в 21:15 UTC+3
Загрузка...

Мы уже слишком доверяем ИИ — надеюсь, галлюцинации ИИ исчезнут, пока не стало слишком поздно


27Опубликовано 24.03.2025 в 23:37Категория: ИИИсточник
Изображение статьи

Я беседовал со старым другом о ИИ – как это часто бывает, когда ведешь неформальную беседу с кем-либо в наши дни – и он рассказывал, как использует ИИ для анализа страховых документов. По сути, он загружал в систему около дюжины документов для составления сводки или пару длинных полисов для сравнения изменений. На такую работу у него могло уходить несколько часов, но в руках с ИИ (возможно, ChatGPT или Gemini, хотя он не уточнял), всего несколько минут.

Меня поразило то, что мой друг не питает никаких иллюзий по поводу точности генеративного ИИ. Он полностью ожидал, что один из десяти фактов будет неточным или, возможно, сгенерированным (hallucination – галлюцинация), и ясно дал понять, что его собственные руки, пока что, являются частью процесса контроля качества.

Затем он сказал что-то, что удивило меня – не потому, что это неправда, а потому, что он признал это. В конце концов, ИИ не будет галлюцинировать, он не допустит ошибок. Такова траектория развития, и нам следует к этому готовиться.

Будущее – совершенство. Я согласился с ним, потому что давно так думал. Скорость развития практически гарантирует это. Если я вырос с законом Мура, который гласит, что емкость транзисторов на микрочипе удваивается примерно каждые два года, то «закон ИИ» – это, грубо говоря, удвоение интеллекта каждые три-шесть месяцев. Такой темп объясняет, почему все так уверены, что мы достигнем искусственного общего интеллекта (AGI или человекоподобный интеллект) раньше, чем предполагалось. Я тоже в этом уверен, но я хочу вернуться к галлюцинациям, потому что даже когда потребители и нетехники, как мой друг, используют ИИ для повседневной работы, галлюцинации остаются очень реальной частью корпуса ИИ, больших языковых моделей (LLM).

В недавнем анекдотическом тесте нескольких чат-ботов ИИ я был огорчен тем, что большинство из них не смогло точно пересказать мою историю работы, даже несмотря на то, что она подробно описана в LinkedIn и Wikipedia. Это были незначительные ошибки, и они не имели никакого реального значения, потому что кого, кроме меня, волнует мой послужной список? Тем не менее, модель ChatGPT 03-mini, которая использует более глубокое рассуждение и, следовательно, может тратить больше времени на формулирование ответа, сказала, что я работал в TechRepublic. Это близко к «TechRadar», но не совсем то же самое.

DeepSeek – китайский чат-бот ИИ-вундеркинд – заставил меня работать в Mashable спустя годы после моего ухода. Он также спутался в моей истории PCMag. Google Gemini разумно держал детали скупыми, но он правильно все перечислил. Модель ChatGPT 4o поступила аналогичным образом и достигла 100% точности. Claude AI потерял нить моего хронологического порядка и до сих пор думал, что я работаю в Mashable. Он предупреждает, что его данные устарели, но я не думал, что они устарели на 8 лет.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.