Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Саймон Уиллисон (Simon Willison) прокомментировал недавнюю публикацию исследователей Apple, в которой говорится о том, что современные большие языковые модели (LLM) демонстрируют полное падение производительности при достижении определенных порогов сложности. По его мнению, эта работа получила излишнее внимание, а заголовок "Иллюзия мышления" привлек сторонников, утверждающих, что LLM – это переоцененный и бесполезный инструмент. Он ознакомился с достаточно убедительными опровержениями, поэтому не стал углубляться в изучение данной темы.
Теперь известный скептик в отношении LLM, Гэри Маркус (Gary Marcus), сэкономил ему время, собрав лучшие из этих опровержений в одном месте.
Разногласие заключается в другом. Саймона не интересует, являются ли LLM "путем к общему искусственному интеллекту" (AGI). Он по-прежнему заинтересован только в том, имеют ли они полезные применения уже сегодня, при условии понимания их ограничений.
LLM с возможностями рассуждения – это относительно новый и интересный поворот в развитии этой области. Они продемонстрировали способность решать множество задач, которые были недоступны предыдущим LLM, что и стало причиной появления новых моделей от OpenAI, Anthropic, Gemini, DeepSeek и Qwen, а также Mistral.
Они становятся еще более интересными при интеграции с инструментами.
Они уже полезны для меня сегодня, независимо от того, способны ли они надежно решать головоломки "Ханойская башня" или "Переправа через реку".
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...