Nvidia працює над GPU AI зі 144 ГБ пам’яті HBM3E

За даними TrendForce, Nvidia працює над наступним поколінням графічних процесорів B100 і B200, які базуються на архітектурі Blackwell. Очікується, що нові графічні процесори з’являться на ринку в другій половині цього року і використовуватимуться для хмарних клієнтів CSP. Для тих, хто не знайомий, «хмарні клієнти CSP» стосуються клієнтів, які використовують постачальників хмарних послуг (CSP) для своїх потреб у хмарних обчисленнях. Компанія також додасть оптимізовану версію B200A для корпоративних замовників OEM, які потребують передового ШІ.

Повідомляється, що ємність упаковки CoWoS-L TSMC (яка використовується серією B200) продовжує бути обмеженою. Зазначається, що B200A перейде на відносно просту технологію упаковки CoWoS-S. Компанія зосереджується на B200A, щоб відповідати вимогам постачальників хмарних послуг.

Технічні характеристики B200A:

На жаль, технічні характеристики B200A ще повністю невідомі. Наразі можна лише підтвердити, що ємність пам’яті HBM3E зменшена зі 192 ГБ до 144 ГБ. Також повідомляється, що кількість шарів чіпа пам’яті зменшено вдвічі з восьми до чотирьох. З усім тим, ємність одного чіпа збільшена з 24 ГБ до 36 ГБ.

Енергоспоживання B200A буде нижчим, ніж GPU B200, і йому не знадобиться рідинне охолодження. Система повітряного охолодження нових графічних процесорів також спростить їх налаштування. Очікується, що B200A буде поставлено виробникам OEM приблизно в другому кварталі наступного року.

Опитування ланцюжків постачання показують, що основні поставки графічних процесорів високого класу NVIDIA у 2024 році базуватимуться на платформі Hopper, з H100 і H200 для ринку Північної Америки та H20 для ринку Китаю. Оскільки B200A стане доступним приблизно у другому кварталі 2025 року, очікується, що він не заважатиме H200, який надійде в третій квартал або пізніше.

Exit mobile version