- 當地時間11月13日,英偉達(NVIDIA)宣布推出NVIDIA HGX? H200,旨為世界領先的AI計算平臺提供強大動力,將于2024年第二季度開始在全球系統制造商和云服務提供商處提供。H200輸出速度約H100的兩倍據介紹,NVIDIA H200是基于NVIDIA Hopper?架構,配備具有高級內存的NVIDIA H200 Tensor Core GPU,可處理海量數據,用于生成式AI和高性能計算工作負載。圖片來源:英偉達與H100相比,NVIDIA H200對Llama2模型的推理速度幾乎翻倍。
- 關鍵字:
英偉達 H200 HBM3e HBM3
- IT之家 11 月 13 日消息,英偉達今日發布了下一代人工智能超級計算機芯片,這些芯片將在深度學習和大型語言模型(LLM)方面發揮重要作用,比如 OpenAI 的 GPT-4。新芯片相比上一代有了顯著的飛躍,將被用于數據中心和超級計算機,處理諸如天氣和氣候預測、藥物發現、量子計算等任務。此次發布的關鍵產品是基于英偉達的“Hopper”架構的 HGX H200 GPU,是 H100 GPU 的繼任者,也是該公司第一款使用 HBM3e 內存的芯片,這種內存速度更快,容量更大,因此更適合大型語言模型
- 關鍵字:
英偉達 GPU 計算平臺 H200
h200介紹
您好,目前還沒有人創建詞條h200!
歡迎您創建該詞條,闡述對h200的理解,并與今后在此搜索h200的朋友們分享。
創建詞條
關于我們 -
廣告服務 -
企業會員服務 -
網站地圖 -
聯系我們 -
征稿 -
友情鏈接 -
手機EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產品世界》雜志社 版權所有 北京東曉國際技術信息咨詢有限公司

京ICP備12027778號-2 北京市公安局備案:1101082052 京公網安備11010802012473