文/HPE
Hewlett Packard Enterprise宣布強化其NVIDIA AI Computing by HPE解決方案組合的多項功能,以全面支援AI生命週期,並滿足企業、服務供應商、政府單位與研發機構的多元需求。此次更新進一步深化了HPE產品與NVIDIA AI Enterprise的整合,包括擴大支援搭載加速運算能力的HPE Private Cloud AI,以及推出適用於NVIDIA AI Data Platform的HPE Alletra Storage MP X10000軟體開發套件(SDK)。此外,HPE也將針對NVIDIA RTX PRO 6000 Blackwell Server Edition GPU與NVIDIA Enterprise AI Factory驗證設計推出新運算與軟體解決方案。
「HPE與NVIDIA的深度合作持續為雙方共同客戶帶來突破性成果,」HPE總裁暨執行長Antonio Neri表示。「我們攜手打造了結合HPE強大解決方案的尖端AI技術,協助企業在AI歷程的各個階段充分發揮這些技術的潛力。我們的合作不僅滿足當前需求,更為AI驅動的未來奠定堅實基礎。」
「企業可利用HPE系統打造最先進的NVIDIA AI工廠,使其基礎架構為生成式與代理型AI的時代做好準備,」NVIDIA創辦人暨執行長黃仁勳表示。「NVIDIA與HPE正攜手為企業奠定基礎,協助他們將資料智慧作為新型的產業資源,並從資料中心擴展至雲端與邊緣。」
HPE Private Cloud AI新增NVIDIA AI Enterprise功能分支支援
HPE Private Cloud AI是HPE與NVIDIA共同開發的一站式雲端AI工廠解決方案,包含專為開發者打造的工具,協助企業在組織內推動統一的AI策略,以提升工作負載效益並大幅降低風險。為加強協助AI開發者,HPE Private Cloud AI將支援NVIDIA AI Enterprise的功能分支模型更新,包括AI框架、內含預訓練模型的NVIDIA NIM微服務與多項SDK。透過功能分支模型支援,開發者可針對AI工作負載測試與驗證各項軟體功能和優化設定。搭配內建安全防護機制的既有生產分支模型支援,HPE Private Cloud AI可協助各種規模的企業建置開發者系統,並擴展至生產等級的代理型與生成式AI(GenAI)應用,同時在企業內部採用安全且多層次的策略。
HPE Private Cloud AI是代理型與GenAI工作負載的全端解決方案,未來也將支援NVIDIA Enterprise AI Factory驗證設計。
HPE最新儲存解決方案支援NVIDIA AI Data Platform
HPE將針對HPE Alletra Storage MP X10000推出適用於NVIDIA AI Data Platform參考設計的SDK。藉由整合HPE最新資料平台與NVIDIA可自訂的參考設計,為客戶提供更快速的效能與智慧的流程協作,從而加速代理型AI的發展。全新X10000 SDK是HPE資料智慧策略的重要一環,可將具備情境資訊且適用於AI的資料直接整合至NVIDIA AI生態系統中,進一步簡化NVIDIA加速基礎架構中非結構化資料的擷取、推論、訓練與持續學習流程。此SDK整合的主要效益包括:
- 透過靈活的即時資料處理、向量索引、更強大的中繼資料與資料管理機制,充分釋放資料價值。
- 透過GPU記憶體、系統記憶體與X10000之間的遠端直接記憶體存取(RDMA)進行資料傳輸,加速通往NVIDIA AI Data Platform的資料路徑,從而提升效率。
- 透過X10000的模組化、組合式建構模組,使客戶能夠依據不同工作負載需求獨立擴展容量與效能,以最適規模進行部署。
客戶可透過RDMA傳輸技術順暢統一儲存與資料智慧層,利用原始企業資料為代理型AI應用程式和工具提供資訊。HPE與NVIDIA攜手合作,為客戶開創從邊緣、核心到雲端的即時智慧資料存取新時代。
業界領先的AI伺服器全面升級,新增對NVIDIA RTX PRO 6000 Blackwell的支援
搭載NVIDIA H100 NVL、H200 NVL與L40S GPU的HPE ProLiant Compute DL380a Gen12伺服器在最新一輪MLPerf Inference: Datacenter v5.0基準測試的10項測試中名列前茅,包括GPT-J、Llama2-70B、ResNet50與RetinaNet。此款業界領先的AI伺服器即將推出搭載10個NVIDIA RTX PRO 6000 Blackwell Server Edition GPU的版本,為企業AI工作負載提供更強大的功能與更卓越的效能,包括多模態代理型AI推論、實體AI、模型調校,以及設計、圖形與影音應用等多元場景的支援。主要特色包括:
- 先進的散熱選項:HPE ProLiant Compute DL380a Gen12提供氣冷與直接液冷(DLC)兩種選擇,運用HPE領先業界的液冷技術,在高負載情況下維持最佳效能。
- 更強大的安全防護:HPE ProLiant Compute Gen12系列內建HPE Integrated Lights Out(iLO)7,並具備基於信任根技術的安全防護機制,是業界首款支援後量子密碼學的伺服器,且符合FIPS 140-3 Level 3高層級加密安全標準的嚴格要求。
- 營運管理能力:HPE Compute Ops Management為伺服器環境提供安全且自動化的生命週期管理功能,透過主動告警與AI預測分析,協助提升能源效率與整體系統健康狀況。
HPE的另外兩款伺服器也在MLPerf Inference v5.0基準測試中名列前茅。透過第三方驗證,HPE不僅證明其在AI創新領域的領導地位,更展現HPE AI Factory解決方案的強大實力。這些系統連同HPE ProLiant Compute DL380a Gen12,在超過50項的測試場景中領先群倫。其中:
- 搭載雙插槽NVIDIA GH200 NVL2的HPE ProLiant Compute DL384 Gen12伺服器在四項測試中排名第一,包括包括Llama2-70B與Mixtral-8x7B。
- 配備8個NVIDIA H200 SXM GPU的HPE Cray XD670伺服器在30個不同測試場景中奪得第一,包括大型語言模型(LLM)與電腦視覺任務。
以全新加速運算優化解決方案強化AI基礎架構
HPE擴大旗下OpsRamp軟體的AI基礎架構優化解決方案,以支援即將推出的NVIDIA RTX PRO 6000 Blackwell Server Edition GPU,讓AI工作負載更順暢運行。HPE這款軟體即服務(SaaS)解決方案將協助企業 IT 團隊簡化在混合環境中部署、監控與優化分散式 AI 基礎架構。HPE OpsRamp能提供AI工作負載至基礎架構的全端可觀測性、工作流程自動化能力,以及AI驅動的分析與事件管理功能。HPE OpsRamp已與NVIDIA基礎架構深度整合,包括NVIDIA加速運算、NVIDIA BlueField、NVIDIA Quantum InfiniBand與Spectrum-X乙太網路平台,以及NVIDIA Base Command Manager,可提供精細的衡量指標,更有效監控AI基礎架構的效能與韌性。