Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Google заявляет, что ее новая open-source модель искусственного интеллекта Gemma 3 демонстрирует почти такую же производительность, как и модель R1 от DeepSeek AI, при использовании всего одного GPU Nvidia H100, в отличие от предполагаемых 32 для R1.
ZDNet сообщает: Google использует "баллы Elo", распространенную систему измерения, используемую для ранжирования шахматистов и спортсменов, чтобы утверждать, что Gemma 3 достигает 98% от балла модели R1 DeepSeek - 1338 против 1363 для R1. Это означает, что R1 превосходит Gemma 3. Однако, исходя из оценки Google, технологический гигант утверждает, что для достижения результата R1 потребуется 32 чипа Nvidia H100, в то время как Gemma 3 использует всего один H100 GPU.
Google называет соотношение вычислительной мощности и баллов Elo "оптимальной точкой". В блоге компания позиционирует новую программу как "самую мощную модель, которую можно запустить на одном GPU или TPU", где TPU - это собственная AI-микросхема компании. "Gemma 3 демонстрирует передовые показатели производительности для своего размера, превосходя Llama-405B, DeepSeek-V3 и o3-mini в предварительных оценках предпочтений пользователей в рейтинге LMArena", - говорится в блоге, ссылаясь на баллы Elo. "Это поможет вам создавать увлекательные пользовательские体験, которые можно разместить на одном GPU или TPU host".
Модель Google также опережает модель Llama 3 от Meta по баллу Elo, для которой, по оценкам, потребуется 16 GPU. (Обратите внимание, что количество чипов H100, используемых конкурентами, является оценкой Google; DeepSeek AI раскрыла только пример использования 1814 менее мощных GPU H800 Nvidia для предоставления ответов с помощью R1.) Более подробная информация представлена в блоге разработчика на HuggingFace, где размещен репозиторий Gemma 3.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...