聯想ThinkSystem SR780a V3
2024年3月18日–今天,全球AI盛會GTC(GPU Technology Conference)2024正式開幕,聯想集團與NVIDIA宣佈合作推出全新混合人工智能解決方案,幫助企業和雲提供商獲得在人工智能時代成功所需的關鍵的加速計算能力,將人工智能從概念變為現實。
同時,在大規模高效增強人工智能工作負載方面,聯想發佈了ThinkSystem人工智能產品組合的擴展,這是一個改變行業的里程碑,其中包括兩款全新強大的8路NVIDIA GPU系統,這兩款系統專為提供海量計算能力和無與倫比的能效而設計,以加速人工智能的實施。專為生成式人工智能、自然語言處理(NLP)和大型語言模型(LLM)開發而設計,為NVIDIA HGX人工智能計算平台進入市場提供支持,包括NVIDIA H100和H200 Tensor Core GPU和全新的NVIDIA Grace Blackwell GB200超級芯片,以及先進的下一代NVIDIA Quantum-X800 InfiniBand和Spectrum-X800以太網網絡平台。
聯想ThinkSystem AI服務器配備NVIDIA B200 Tensor Core GPU,將為生成式AI的新時代提供動力。NVIDIA Blackwell架構的生成式AI引擎,以及更快的NVIDIA NVLink互連和增強的安全功能,將數據中心推向了一個新時代。B200 GPU 的實時推理能力提高了 25 倍,可加速萬億參數語言模型,專為最苛刻的人工智能、數據分析和高性能計算工作負載而設計。
全新聯想ThinkSystem SR780a V3 是一款採用聯想海王星液冷技術的 5U 系統,電源使用效率 (PUE) 高達 1.1。通過使用 CPU 和 GPU 的直接水冷以及 NVIDIA NVSwitch 技術,系統可以在不達到任何熱限制的情況下維持最大性能。十多年來,聯想業界領先的海王星直接水冷解決方案,通過循環利用温水來冷卻數據中心繫統,使客户能夠實現高達40%的功耗降低,散熱性能提高 3.5 倍。與傳統風冷系統相比,效率更高。根據“Uptime Institute 2021 年全球數據中心年度調查”,作為用於確定數據中心能源效率的行業指標,PUE 和功耗是最受關注的可持續發展方法之一。由於液冷提供了比空氣更節能的替代方案,因此係統可以在消耗更少的能源的同時實現更高的持續性能。它還允許ThinkSystem SR780a 安裝在密集的 5U 封裝中,有助於節省寶貴的數據中心空間。
此外,新的聯想ThinkSystem SR680a V3是一款氣冷雙插槽系統,可為配備英特爾處理器和NVIDIA GPU的複雜人工智能最大程度提供加速。高度加速的系統提供巨大的計算能力,並使用行業標準的19英寸服務器機架,允許密集的硬件配置,最大限度地提高效率,同時避免佔用過多空間。
聯想還展示了全新的PG8A0N,這是一款終極1U節點,專為AI設計,支持NVIDIA GB200 Grace Blackwell Superchip。新的GB200芯片將為計算的新時代提供動力。該超級芯片的實時大型語言模型(LLM)推理速度提高了45倍,總體擁有成本(TCO)降低了40倍,能耗降低了40倍。聯想將與NVIDIA密切合作,提供GB200機架系統,以增強人工智能訓練、數據處理、工程設計和模擬的能力。
客户可以在聯想的NVIDIA認證系統產品組合上運行NVIDIA AI Enterprise,這是一個端到端雲原生軟件平台,用於開發和部署生產級 AI 應用程序。客户可以在聯想的企業級基礎設施上運行NVIDIA AI Enterprise中包含的NVIDIA NIM推理微服務,以高性能推理NVIDIA及其生態系統中流行的AI模型。
該產品組合包括聯想的XClarity 系統管理軟件,為企業提高基礎架構部署的效率,以及聯想的智能計算平台(LiCO),它可以簡化集羣計算資源的使用,用於人工智能模型開發和培訓以及HPC工作負載。該產品組合還支持第4代和第5代英特爾至強可擴展處理器,併為未來更高功率的GPU提供熱餘量。