Пятница, 20 июня в 07:12 UTC+3
Загрузка...

Некоторые признаки надвигающегося сбоя в работе моделей искусственного интеллекта начинают проявляться.


176Опубликовано 28.05.2025 в 17:32Категория: ИИИсточник
Изображение статьи

Стивен Дж. Воэн-Николс (Steven J. Vaughan-Nichols) пишет в своей колонке для The Register: я много использую ИИ, но не для написания статей. Я использую ИИ для поиска. Когда дело доходит до поиска, ИИ, особенно Perplexity, просто лучше, чем Google. Обычный поиск пришел в упадок. Возможно, когда Google увлечется ИИ, его поисковая система снова станет лучше, но я сомневаюсь в этом. Только за последние несколько месяцев я заметил, что поиск на основе ИИ тоже становится хуже.

В частности, я обнаружил, что при поиске точных данных, таких как статистика доли рынка или другие финансовые показатели, результаты часто поступают из ненадежных источников. Вместо данных из форм 10-K – обязательных ежегодных финансовых отчетов для публичных компаний, публикуемых Комиссией по ценным бумагам и биржам США (SEC) – я получаю цифры с сайтов, которые якобы представляют собой сводки финансовых отчетов. Они отдаленно напоминают реальность, но никогда не бывают точными. Если я указываю, что мне нужны только результаты из форм 10-K, то все работает. Если я просто запрашиваю финансовые результаты, ответы становятся… интересными. Это касается не только Perplexity. Я провел абсолютно те же запросы во всех основных ИИ-поисковых ботах, и все они выдают "сомнительные" результаты.

Добро пожаловать в принцип "Мусор на входе – мусор на выходе" (Garbage In/Garbage Out, GIGO). В среде ИИ это формально известно как "коллапс модели". При коллапсе модели ИИ-системы, обученные на собственных результатах, постепенно теряют точность, разнообразие и надежность. Это происходит из-за того, что ошибки накапливаются от поколения к поколению моделей, что приводит к искажению распределения данных и "необратимым дефектам" в производительности. Как заявила статья в Nature за 2024 год, "модель отравляется собственным представлением о реальности".

Мы будем вкладывать все больше и больше средств в ИИ, прямо до того момента, когда коллапс модели ударит во всю силу, и ответы ИИ станут настолько плохими, что даже генеральный директор, лишенный здравого смысла, не сможет их игнорировать. Сколько времени это займет? Я думаю, что это уже происходит, но пока, кажется, только я об этом говорю. Тем не менее, если верить лидеру и главному стороннику OpenAI Сэму Альтману (Sam Altman), который в феврале 2024 года написал в Twitter, что "OpenAI теперь генерирует около 100 миллиардов слов в день", и предположить, что многие из этих слов попадают в сеть, то это не займет много времени.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.