Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Британская компания Fractile, поддержанная НАТО, стремится создать более быстрый и дешевый вычислительный комплекс для искусственного интеллекта в памяти. По мнению Fractile, подход Nvidia к использованию графических процессоров (GPU) с грубой силой потребляет слишком много энергии и ограничен памятью.
Fractile сосредоточила свои расчеты на сравнении кластера H100 GPU, а не mainstream H200. Nvidia уверенно занимает лидирующие позиции в области аппаратного обеспечения для искусственного интеллекта, доминируя на рынке с помощью высокопроизводительных GPU и программного стека CUDA, которые быстро стали стандартными инструментами для обучения и запуска крупных моделей ИИ. Но это доминирование имеет свою цену – в виде растущей цели на спине компании.
Гиганты облачных вычислений, такие как Amazon, Google, Microsoft и Meta, вкладывают ресурсы в разработку собственных кремниевых чипов, чтобы снизить зависимость от чипов Nvidia и сократить затраты. В то же время волна стартапов в области аппаратного обеспечения ИИ пытается воспользоваться растущим спросом на специализированные ускорители, надеясь предложить более эффективные или доступные альтернативы и, в конечном итоге, вытеснить Nvidia.
Возможно, вы еще не слышали о Fractile, но у этого стартапа, который утверждает, что его революционный подход к вычислениям может запускать самые большие языковые модели в 100 раз быстрее и в 10 раз дешевле существующих систем, есть весьма примечательные сторонники, включая НАТО и бывшего генерального директора Intel Пэта Гельзингера (Pat Gelsinger).
«Мы создаем аппаратное обеспечение, которое будет устранять все узкие места для максимально быстрого вывода результатов работы самых крупных трансформерных сетей», – говорится в заявлении Fractile. «Это означает, что самые большие модели языкового интеллекта в мире будут работать быстрее, чем вы можете читать, и откроется целый мир совершенно новых возможностей для того, как мы работаем, благодаря почти мгновенному выводу результатов моделей сверхчеловеческим интеллектом».
Стоит отметить, что показатели производительности Fractile основаны на сравнениях с кластерами Nvidia H100 GPU с использованием 8-битного квантования и TensorRT-LLM, работающими с Llama 2 70B – а не новыми чипами H200.
В своем посте в LinkedIn Гельзингер, недавно присоединившийся к венчурной фирме Playground Global в качестве генерального партнера, написал: «Вывод результатов работы передовых моделей ИИ ограничен аппаратным обеспечением. Даже до масштабирования вычислений во время тестирования, затраты и задержки были огромными проблемами для развертывания крупных моделей LLM… Чтобы достичь наших стремлений в области ИИ, нам понадобится радикально более быстрый, дешевый и экономный в энергопотреблении аппаратный комплекс.
Фактически, некоторые из идей, которые я исследовал во время моей учебы в аспирантуре в Стэнфордском университете, теперь будут внедряться в основные вычисления ИИ!»
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...