share_log

Supermicro推出全新服务器为AI、HPC和云工作负载加速

Supermicro推出全新服務器為AI、HPC和雲工作負載加速

TechWeb.com.cn ·  2021/10/15 07:06

10月15日消息,為企業級運算、儲存、網絡解決方案和綠色計算技術等領域的全球提供商Super Micro Computer, Inc. (SMCI) 宣佈推出搭載NVIDIA Ampere architecture GPU以及內建AI加速器的第3代Intel Xeon可擴展處理器的全新系統(Supermicro X12系列)。

這些服務器專為需要低延遲和高應用性能的AI應用所設計。2U NVIDIA HGX A100 4-GPU系統適於大規模部署具有高速CPU-GPU和GPU-GPU互連的現代AI訓練叢集。而Supermicro 2U 2-Node系統則可通過共享電源供應和冷卻風扇來減少能耗和成本,降低碳排放,同時可匹配工作負載選用多款GPU加速器。這兩款系統皆內含由目前最新的Intel Software Guard Extensions (Intel SGX) 實現的高級安全功能。

Supermicro總裁暨首席執行官Charles Liang表示:“Supermicro工程師再度為我們豐富多元的高性能GPU服務器系列打造出了全新產品,相比於市場上的其他設計更能節省成本、空間以及能耗。憑藉創新的設計,我們為客户的AI和HPC(高性能運算)工作負載,提供可搭載4個NVIDIA HGX A100(代號:Redstone)GPU加速器的2U高密度GPU系統。此外,我們的2U 2節點系統經過獨特設計,可共享電源供應和散熱元件,進而降低營運成本以及對環境的影響。”

20211015190643259v197uoxtnslzv5u

此款2U NVIDIA HGX A100服務器採用第3代Intel Xeon可擴展處理器平臺,支持Intel Deep Learning Boost Technology,且針對分析、訓練和推理工作負載進行了優化設計。此係統可搭載4顆A100 GPU並以NVIDIA NVLink技術完全互連,提供高達2.5 petaflops的AI性能。其高達320GB的GPU內存,可加速企業數據科學以及AI方面的突破。對於如BERT大型推理等複雜型對話式AI模型,此係統比上一代GPU的演算快了4倍,而在BERT大型AI訓練方面則有3倍的性能提升。

此外,這些系統採用高級散熱和冷卻設計,成為優先考慮節點密度和電源效率的高效能叢集的理想選擇。這些系統還可以採用液冷系統,從而節省更多的運營成本。該平臺亦支持Intel Optane持續型內存(PMem),在GPU上進行處理之前,可以將更大的模型儲存在靠近CPU的內存中。對於需要多系統互動的應用,此係統還可以配備4張NVIDIA ConnectX-6 200Gb/s網速的InfiniBand卡,以1:1 GPU-DPU的比例支持GPUDirect RDMA。

全新的2U 2節點是一種節能的資源節省架構,設計能讓每個節點支持至多3張雙倍寬度的GPU。每個節點還配備一個具有多達40個核心、內建AI及HPC加速器的第3代Intel Xeon可擴展處理器。廣泛的AI、渲染和VDI應用都能從這種CPU和GPU的平衡設計中受益。該系統配備Supermicro的高級I/O模塊(AIOM)擴充插槽,具有快速靈活的網絡連接功能,可在運行工作負載和處理深度學習模式時負荷龐大的數據流量,滿足高度需求的AI/ML應用程序、深度學習訓練和推理。本系統也是多運行個體的高級雲遊戲和許多其它計算密集型VDI應用程序的理想選擇。此外,虛擬內容交付網絡(vCDN)能滿足對流媒體服務日益增長的需求。系統內建的備用的電源供應器,能供任何一個節點都能在發生故障時使用相鄰節點的電源供應器。

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論