由於企業自行打造 AI 資料中心過程中,往往會有成本過高、後續維運不易等困擾,也帶動 AI 算力租賃服務興起。GMI Cloud 成為 NVIDIA 全球前十大認證夥伴,協助企業快速啟動 AI 專案,掌握生成式 AI 商機。
採訪/施鑫澤‧文/林裕洋
隨著各種開源大語言模型的紛紛問世,帶動生成式 AI 應用情境朝向多元化發展。然要推動生成式 AI 專案的首要條件,莫過於需要有強大 AI 算力支撐。
聯通科技(GMI Cloud)創辦人暨執行長葉威延(Alex)說,因應市場對 AI 算力需求,許多公有雲平台業者也提供 AI 資源租賃服務,但是前提是企業需先租用基本運算服務,且必須將所有資料上傳到雲端平台,才能增加 GPU 晶片的租用服務。相較之下,企業租用 GMI Cloud 的 GPU 算力就顯得簡單許多,完全無需擔心 GPU 的配置、軟體版本的兼容性等複雜問題,僅需透過 API 即可輕鬆調用各種強大 AI 模型,大幅降低專案推動難度,因此深受眾多用戶肯定與葉威延使用。
一站式 GPU 雲平台 降低 AI 導入門檻
創立於 2023 年的 GMI Cloud,專注於 AI 原生企業、新創公司、研究機構,主要提供高效能 GPU 運算服務,可協助優化 AI 訓練與推理工作負載。該公司主打可為不同用戶提供一站式 AI 雲服務解決方案,GPU 算力租賃、Cluster Engine、Inference Engine,目前在美國、臺灣等國家共設有五座資料中心。
[ 加入 CIO Taiwan 官方 LINE 、 Facebook 與 IG,與全球CIO同步獲取精華見解 ]
此外,GMI Cloud 已成為 NVIDIA 全球前十的 NCP(NVIDIA Cloud Partner),更取得 NVIDIA 臺灣/美國雲端夥伴認證,並擁有亞太區 GPU 優先使用權,可讓企業搶先體驗最新硬體,運用絕佳運算效能加速推動 AI 專案。
全球前十大 NCP 率先部署最新 GPU
GMI Cloud 擁有數百張以上的 NVIDIA H100 和 H200 GPU,採用無伺服器分散式架構,整合各資料中心的 AI 算力之後,可提供 GPU 算力租賃服務,可完美支援最複雜的 AI 運算任務,輕鬆應對成長中的運算需求。GMI Cloud 資料中心採用 3.2 Tbps InfiniBand 網路,為分散式訓練提供極速連線,結合 NVIDIA H100 GPU 先進訓練叢集可提供釋放極致運算力。企業僅需運用簡單的 SSH 連線、資料集下載,立即快速啟動 AI 之旅。

葉威延指出,鑑於部分企業的 AI 專案規模可能非常龐大,所以我們特別採用可自動擴充運算資源的 AI 運算架構,讓企業輕鬆支援 AI 與機器學習任務,且無長期合約限制,讓用戶享有最大的使用彈性、無需預付成本。考量特定產業或用戶需求,提供量身打造專屬環境的企業私有服務,以確保高效能表現並符合產業法規的安全標準。
對於注重預算的企業客戶,GMI Cloud 也能可客製化的基礎架構,提供靈活且獨立的配置,費用支出不會超過預期。為消彌用戶對於租用 AI 算力服務的疑慮,我們將 InfiniBand 網路切分為多個子網路,實現網路資源隔離與管理,使應用程式或用戶可獨立運作,並通過限制子網路間的存取增強安全性。
Cluster Engine 實現資源彈性與安全隔離
為協助企業輕鬆管理資源、協調工作負載並簡化部署,以實現最高效能和 GPU 效率,GMI Cloud 也特別研發 Cluster Engine,可完美整合裸機服務、Kubernetes 技術與 HPC Slurm 系統,讓使用者和管理者享有最佳的資源管理體驗。GMI Cloud Cluster Engine 是整合高速儲存、分散式檔案系統和備份解決方案,確保用戶資料處於始終可存取並優化效能,同時確保容器化儲存和持久性磁碟區能順利部署。
GMI Cloud Cluster Engine 提供跨平台的統一入口,支援隨選(On-demand)與預留(Reserved)租用等服務,可滿足不同用戶的預算與需求。在安全資料備份部分,特別採用多租戶架構設計,支援完整 VPC 隔離,確保最高等級的安全性與租戶隔離。
此外,產品也提供即時監察系統,讓用戶可全方位資源監控、安排及時分析,即時掌握系統運作狀況。該公司更透過積極打造合作夥伴生態系, 整合第三方合作夥伴解決方案,提供豐富的市集服務、滿足多元需求。
[ 推薦文章:符合資安標準的 AIoT 平台 ]
「我們打造 GMI Cloud Cluster Engine 的目標,是提供一個從系統效能到流量資料的持續追蹤,確保所有關鍵指標並實現完整的可見性,以確保系統以最佳效率運作。管理人員可輕鬆回顧過去的事件以識別趨勢並做出明智的決策,從而優化系統效能和業務策略。」葉威延解釋:「我們可提供從基礎架構到應用程式層級的全面監控,透過點到點的料收集和分析,管理人員可全面了解每個元件的效能,快速識別效能瓶頸和潛在風險,確保系統整體的穩定性和效率。」
Inference Engine 強化生成式 AI 推理效能
企業推動生成式 AI 專案的整個週期,大致上分成 AI 模型訓練、Fine-tuning、推論等環節,由於多數公司都是選擇合適開源 AI 模型推動專案,因此 Fine-tuning、推論等階段,需要強大的 AI 算力資源,其中又以推論階段的 AI 算力需求最高。為此,GMI Cloud 平台上也有 Inference Engine 服務,支援 DeepSeek R1 和 Llama 3 等多種開源模型,助企業實現超快速、無憂的推理服務,讓 AI 算力性能得以釋放。
葉威延表示,GMI Cloud Inference Engine 服務最大特色之一,在於可協助企業運用預先建立範本和自動化工作流程,在幾分鐘內即可啟動 AI 模型,免去傳統參數設定的困擾。開發人員可利用預先建構的 AI 模型來加速開發、降低運算成本,並使用經過驗證的高效能架構進行建置。尤其我們提供涵蓋軟、硬體等全方位技術支援,確保應用服務在尖峰時間的推理性能,藉此達到大規模工作負載的速度,同時兼顧成本支出。
在 AI 力等於競爭力的趨勢下,企業唯有加速推動 AI 專案,才能保持在市場上的競爭力。GMI Cloud AI 算力服務,可讓企業需求選擇最適合的 AI 運算解決方案,將寶貴人力與資源用於更重要的工作上。
(本文授權非營利轉載,請註明出處:CIO Taiwan)
