今日TrendForce集邦咨詢發(fā)布最新研究,稱供應(yīng)鏈調(diào)查結(jié)果顯示近期CSP(云端服務(wù)業(yè)者)和OEM(原始設(shè)備制造商)客戶將提高對(duì)H200的需求,預(yù)計(jì)該GPU將于2024年第三季后成為NVIDIA供貨主力。
在NVIDIA今年的產(chǎn)品規(guī)劃中,H200是首款采用HBM3e(第五代高帶寬內(nèi)存) 8Hi(8層堆疊)的GPU,后續(xù)的Blackwell系列芯片也將全面升級(jí)至HBM3e。Micron(美光科技)和SK hynix(SK海力士)已于2024年第一季底分別完成HBM3e驗(yàn)證,并于第二季起批量出貨。其中,Micron產(chǎn)品主要用于H200,SK hynix則同時(shí)供應(yīng)H200和B100系列。Samsung(三星)雖較晚推出HBM3e,但已完成驗(yàn)證,并開始正式出貨HBM3e 8Hi,主要用于H200,同時(shí)Blackwell系列的驗(yàn)證工作也在穩(wěn)步推進(jìn)。
在中國市場方面,該機(jī)構(gòu)預(yù)計(jì),市場也因云端客戶建置本地端大型語言模型(LLM)、搜索引擎和聊天機(jī)器人(ChatBot),對(duì)搭載H20的AI服務(wù)器需求從2024年第二季起有較顯著提升。
英偉達(dá)發(fā)布新一代最強(qiáng)AI芯片(H200)將成下半年AI服務(wù)器市場出貨主力,可用于處理生成式人工智能負(fù)載的海量數(shù)據(jù)。
主要功能
H200基于英偉達(dá) Hopper架構(gòu)打造,并配備英偉達(dá)H200 Tensor Core GPU,處理速度為4.8TB/秒。H200擁有141GB的內(nèi)存,與前代產(chǎn)品H100相比,H200的容量幾乎翻了一番。值得一提的是,H200還將與H100兼容。
【明佳達(dá)】長期供應(yīng)AI芯片:
H200
B100
MI300X
B200
MI300
MI300A
MI250
MI250X
MI210
公司網(wǎng)址:http://cx43.cn/