Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Компания Inception, основанная профессором Стенфорда Stefano Ermon (Стефано Эрмон), утверждает, что разработала новую диффузионную модель больших языковых систем (DLM), которая значительно превосходит традиционные LLM по скорости и эффективности. По данным TechCrunch, модель Inception обладает такими же возможностями, как у традиционных LLM, включая генерацию кода и ответы на вопросы, но с гораздо большей производительностью и меньшими затратами на вычисления
.
В отчете говорится, что Эрмон предположил возможность параллельного генерирования и изменения больших блоков текста с помощью диффузионных моделей. После многих лет исследований ему и его студенту удалось добиться значительного прорыва, который был описан в опубликованной год назад научной статье.
Признав потенциал этого достижения, Эрмон создал Inception прошлым летом, привлечя к руководству двух бывших студентов: профессора UCLA Aditya Grover (Адитья Гровер) и профессора Cornell Volodymyr Kuleshov (Володимир Кулещов).
Мы обнаружили, что наши модели могут эффективнее использовать видеокарты [GPU]
, — отметил Эрмон. Я считаю это важным событием. Это изменит подход к созданию языковых моделей
. Inception предлагает API, а также варианты развертывания на локальных серверах и мобильных устройствах, поддержку настройки моделей и набор из коробки DLM для различных случаев использования. Компания утверждает, что ее модели могут работать в 10 раз быстрее традиционных LLM при затратах в 10 раз ниже.
Наша 'маленькая' модель кодирования столь же хороша, как [OpenAI's] GPT-4 mini, но работает более чем в 10 раз быстрее
, — рассказал представитель компании TechCrunch. Наша 'мини'-модель превосходит небольшие открытые модели типа [Meta's] Llama 3.1 8B и достигает скорости более 1000 токенов в секунду
.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...