Вторник, 4 марта в 14:16 UTC+3
Загрузка...

Дорожная карта Samsung HBM показывает, что к 2026 году Google может стать самым серьезным конкурентом Nvidia в области ИИ, но интересно, что происходит с Microsoft?


15Опубликовано 25.02.2025 в 18:38Категория: ИИИсточник
Изображение статьи

Nvidia остается лидером на рынке чипов для искусственного интеллекта, закупая миллионы модулей HBM у Samsung в 2026 году. Пуш Google с TPU делает эту компанию ближайшим конкурентом Nvidia по закупкам HBM. Amazon, AMD и Microsoft борются за оставшиеся объемы, а Intel отходит на второй план.

Высокопроизводительная память (HBM) является ключевым элементом для искусственного интеллекта и облачных вычислений, обеспечивая высокоскоростной обмен данными и эффективность при работе с требовательными нагрузками. В настоящее время лидерами рынка HBM являются южнокорейские компании SK Hynix и Samsung, хотя другие игроки, такие как Micron, также стремятся увеличить свою долю на рынке.

Технологические гиганты вроде Nvidia, Google, Amazon и Microsoft занимают лидирующие позиции по закупкам HBM. Внутренний план Samsung, обнаруженный ComputerBase, дает интересное представление о предполагаемых закупках этих компаний на 2026 год.

Google занимает второе место

Как и ожидалось, Nvidia остается основным покупателем HBM у Samsung. Спрос на модули HBM со стороны Nvidia планируется вырасти с 5,8 миллионов единиц в 2024 году до 11 миллионов единиц к 2026 году. Этот рост связан с расширением ассортимента AI-ускорителей компании: H200, оснащенный 144 ГБ HBM3, предполагается потребовать 1,7 миллиона модулей в 2026 году. Блоки B200 и GB200, использующие 192 ГБ HBM3e (8hi), будут требовать 3,15 миллионов модулей. Блоки B300 и GB300 с 288 ГБ HBM3e (12hi) предполагается потребовать 2,7 миллиона модулей, в то время как GB300A, использующий 144 ГБ HBM3e (12hi), ожидается потребовать 1,8 миллиона модулей. R100 с предполагаемым объемом памяти 384 ГБ HBM4 (12hi) будет требовать 1,5 миллионов модулей.

Согласно плану Samsung, датируемому началом 2024 года и, следовательно, не полностью актуальному, Google предполагается стать вторым по величине покупателем HBM. Этот рост спроса связан с инвестициями компании в Тензорные Процессоры (TPU). Общий спрос на модули HBM со стороны Google ожидается вырасти с 2,4 миллионов единиц в 2024 году до 2,8 миллионов единиц к 2026 году. Одна только модель TPU v7p ожидается потребовать 1,7 миллиона модулей HBM в 2026 году.

Запрос на модули HBM со стороны Amazon также продолжает расти. Заказы компании показывают рост с 539 тысяч единиц в 2024 году до 1,78 миллиона единиц в 2026 году.

Microsoft интегрирует HBM3 в свои AI-чипы Maia, но общий спрос на модули HBM со стороны компании ожидается достигнуть лишь 240 тысяч единиц к 2026 году, что указывает на ее незначительную роль на этом рынке.

Intel также испытывает трудности в конкуренции. План Samsung показывает, что спрос на чипы Gaudi3 компании сокращается: от 128 тысяч модулей в 2025 году до нулевого значения для 2026 года (хотя это может измениться после создания этого плана).

Конечно, эти цифры относятся только к поставкам HBM от Samsung. Включение памяти от SK Hynix и Micron могло бы дать другое представление, но даже в этом случае Nvidia остается крупнейшим покупателем HBM.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.