Nvidia модернизирует флагманский чип для поддержки более крупных моделей ИИ

На этой неделе NVidia добавила больше возможностей в свой топовый чип  ИИ. Обновленный H200 - это в целом H100, но с модификациями в виде большего объема памяти с большой пропускной способностью, что прямо сказывается на производительности чипа. Об этом сообщает Reuters



Вряд ли кто-то готов оспаривать тот факт, что NVidia на сегодня остается лидером рынка чипов для обучения систем ИИ. Компания также поддерживает сервис OpenAI ChatGPT и ряд аналогичных проектов генеративного ИИ, которые готовы интерактивно взаимодействовать с человеком с использованием распознавания и генерации текста. Добавление в чип большего объема памяти с повышение ее пропускной способности, наряду с расширенными каналами обмена данными с процессором означает, что ИИ сможет выдавать ответ еще быстрее. 

В H200 - 141 ГБ памяти с высокой пропускной способностью (в H100 было 80 ГБ). NVidia официально не называет производителя чипов, но в сентябре 2023 года стало известно, что Micron Technologies готова исполнять заказы на производство чипов NVidia.   

NVidia также закупает память у корейской компании SK Hynix, которая в прошлом месяце заявила, что высокий спрос на чипы ИИ помогает оживить продажи ее продукции. 

Первыми, кто сможет предлагать доступ к чипам H200, станут поставщики облачных услуг, прежде всего Amazon Web Services, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure. Кроме того, эти чипы получат поставщики услуг облачных вычислений AI CoreWeave, Lambda и Vultr. 

Комментариев нет:

Популярные сообщения

Желающие следить за новостями блога, могут подписаться на рассылку на follow.it (отписаться вы сможете в один клик). 

Еще можно подписаться на Telegram-каналы @abloud62 @abloudrealtime, где также дублируются анонсы практически всех новостей блога. 

 

Translate