【智快網(wǎng)】11月14日消息,最新科技動向傳來好消息,英偉達在當?shù)貢r間周一發(fā)布了其最新人工智能(AI)芯片HGX H200,該GPU采用了創(chuàng)新的Hopper架構(gòu),旨在為人工智能應用提供更強大的加速性能。
這款H200芯片是英偉達去年發(fā)布的H100 GPU的后續(xù)產(chǎn)品,而H100則是英偉達首款基于Hopper架構(gòu)的GPU,曾一度被譽為該公司最強大的人工智能GPU芯片。
據(jù)悉,H200是目前市場上首款搭載HBM3e內(nèi)存的GPU。由于采用了HBM3e技術(shù),H200可提供高達141GB的內(nèi)存和每秒4.8TB的帶寬,從而顯著提升了生成式人工智能和大型語言模型(LLM)的加速效果。同時,H200還能處理人工智能和超級計算工作負載所需的大量數(shù)據(jù)。

據(jù)智快網(wǎng)了解,英偉達表示,H200的推出將帶來更為突出的性能提升,例如在Llama 2(一個具有700億參數(shù)的LLM)上的推理速度比H100快了近一倍。預計在未來的軟件更新中,H200的性能將進一步領(lǐng)先并實現(xiàn)更高水平。
英偉達還透露,全球范圍內(nèi)的系統(tǒng)制造商和云服務(wù)提供商將從2024年第二季度開始廣泛應用H200芯片,這標志著這一先進技術(shù)將逐步在全球范圍內(nèi)推動人工智能和計算領(lǐng)域的發(fā)展。























