Loading...
最新測試數據顯示顯示,美國人工智慧(AI)晶片巨擘輝達(Nvidia)最新款晶片Blackwell訓練AI系統的效能有所進步,而且訓練大型語言模型(LLM)所需要的晶片數量也大幅減少。
發布AI系統基準效能測試的非營利組織MLCommons,釋出以輝達和超微(AMD)新晶片訓練AI系統的結果,這也是該組織首度釋出各款晶片在訓練Llama 3.1 405B等LLM時的表現。Llama 3.1 405B是Meta釋出的開源碼模型,參數夠大,能讓外界窺見這些晶片在處理伊些最複雜訓練任務時的表現。
輝達及其夥伴迄今是唯一提交訓練這類模型的數據業者,顯示輝達每組Blackwell的處理速度最多比上一代的Hopper晶片快一倍。在輝達Blackwell表現最快的測試中,2496組Blackwell只花27分鐘就完成訓練測試,而輝達上一代晶片若要達成相同時間,需要三倍以上的晶片數量。
後參與評論
暫無評論