文/Fernando Cardoso(趨勢科技產品管理副總裁)
隨著生成式 AI 技術快速滲透各行各業,企業無不揮舞著「AI 轉型」的大旗,力求在 AI 浪潮中搶佔先機。然而,當企業全力推進 AI 轉型時,資安卻往往被迫退居次要位置。根據 2025 台灣產業 AI 化大調查,企業在評估整體 AI 運算資源時,成本、效能與效率為企業在評估 AI 專案時的首要考量,其次才是隱私與安全,顯示資安尚未被企業視為優先納入的因素。這種現象在開發 AI 專案時尤為常見,資安團隊往往在模型訓練已完成、應用系統進入測試甚至接近部署時,才被臨時納入專案流程。在這種「安全延後上線」的模式下,企業資安防線往往被迫面臨資安團隊對 AI 技術理解有限、開發團隊因交付壓力忽略資安設計、缺乏風險可視性導致防護策略難以成型等重重技術挑戰。
[ 推薦閱讀:合勤投資控股資安長游政卿分享〈屠震:快速啟動運行,進行風險評估〉讀後心得 ]
當企業未於開發早期納入資安思維,往往會需要在事後付出高昂的修補費用並面臨營運風險的代價,此外更可能在將來面臨合規風險,為 AI 專案埋下難以修補的潛在漏洞。
AI 應用攻擊無所不在 企業應透過六大關鍵步驟構築縱深防禦
企業要在 AI 系統開發生命週期實施有效的資安防護措施,必須先了解 AI 開啟了哪些新的攻擊面,其中包括微幅調整輸入資料以誘導模型誤判的對抗性攻擊,在訓練階段注入偏見或後門的資料下毒,或是攻擊者可能透過「模型萃取」(model extraction)等技術試圖從模型中存取敏感資訊等等。
AI 系統本身具有高度複雜性,其應用的每個環節都可能成為攻擊者的侵入破口,因此難以直接套用傳統的資安思維。企業應從 AI 專案啟動之際,同步展開全方位的安全設計與防護規劃,在 AI 應用的生命週期中各環節部署對應的安全措施。對此,企業可依循以下六大防禦步驟來構築 AI 應用的系統性安全防線,方能從資料保護到終端環境,建立縱深防禦機制:
- 資料安全:所有 AI 模型的輸入與訓練基礎都來自資料,若資料處理環節未妥善控管,將成為 AI 系統的最大破口。企業應透過資料安全態勢管理 DSPM(Data Security Posture Management)執行系統性識別與分類資料,依據敏感程度與法規要求制定對應的保護措施。
- 保護 AI 模型:AI 模型本身是企業重要的智慧資產,攻擊者若成功竊取模型參數、注入惡意指令,可能導致商業機密外洩或 AI 決策的失誤。隨著 AI 模型廣泛部署於容器環境中,這些容器也成為潛在攻擊目標。企業可採取容器安全措施,如運行時監控、漏洞掃描、網路區隔及日誌記錄,以強化 AI 模型的防護力。
- 基礎架構安全:AI 應用多運行於雲端、Kubernetes 或混合架構中,AI 資安態勢管理(AI-SPM)能有效維持基礎架構的安全性與合規性,強化基礎設施安全態勢,提供清晰可視性、錯誤設定與漏洞偵測、法規遵循監控等功能,協助企業主動識別與修補風險,降低企業的資安風險。
- 本地與端點防護:越來越多企業導入 AI 應用程式,但這些其實可能成為新興威脅的溫床。AI 不僅可能被駭客利用進行資料投毒或勒索攻擊,也加速了如深偽技術等新型威脅的擴散。為防範這些風險,企業應強化本地裝置的資安配置,包含部署深偽檢測工具,並審慎管理 AI 應用的資料存取與運作環境。
- 存取權限管理:AI 服務若無明確授權機制,極容易遭遇未授權存取、資料濫用與提示詞注入等攻擊威脅。若企業導入零信任與風險導向的控管機制,透過存取權限最小化、異常偵測、提示過濾與回應審查等機制,能夠有效遏止 AI 服務的潛在濫用風險。
- 零時差防禦:當駭客利用零時差漏洞針對尚未被揭露的系統弱點發動攻擊,對企業的 AI 系統將產生嚴峻的破壞性。對此,企業可透過部署網路入侵偵測與防禦系統(IDS/IPS),即時分析威脅情報、進行虛擬修補與自動化行為分析,在攻擊尚未成形前即啟動防禦,守住企業 AI 環境的最後一道防線。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球 CIO 同步獲取精華見解 ]
透過這六大防禦策略,企業方能將 AI 資安思維從「補救型」升級為「預防型」,避免潛在風險發生後才疲於奔命地彌補漏洞。唯有在 AI 開發與營運的每個階段都部署對應的防護措施,企業才能真正釋放 AI 的創新潛能,同時穩固數位轉型的安全根基。
標準化安全實踐,讓 AI 落地不留風險破口
當企業完成 AI 資安策略佈局後,更關鍵的是如何將這些策略具體落實,並持續衡量防護效益與調整策略方向。企業不僅需要務實步驟,更需要一套可複製、可衡量的標準化流程,以協助開發、資安與營運團隊在不同場域中有效導入資安實踐。
以趨勢科技的 LEARN 架構為例,其與 OWASP 公佈的 LLM 十大風險對標,由五大關鍵支柱組成,在私有雲、Kubernetes 與公有雲環境中皆可彈性應用:
- 語言防護(Linguistic Shielding):針對輸入端進行內容淨化,過濾有害內容與引導式攻擊語句。
- 執行監督(Execution Supervision):透過行為監控機制掌握模型推論過程,及早偵測並攔截異常行為,防範遭到不肖份子的濫用。
- 存取控制(Access Control):以最小權限原則進行設計,並加強對模型與資料的存取限制。
- 提示強化(Robust Prompt Hardening):導入結構化提示設計與驗證機制,降低提示注入攻擊的成功率。
- 保密保障(Nondisclosure Assurance):運用敏感資訊掃描技術,主動偵測並防止內部知識或機密資訊遭到外洩。
LEARN 架構不僅補足傳統資安架構在 AI 環境中的盲區,更協助企業建立一條可視化、可衡量、可持續的 AI 資安走廊。企業資安團隊能夠根據這套架構清晰掌握各環節風險指標,並隨著應用擴展與技術演進,靈活調整防護強度與資源配置。
隨著 AI 快速滲透企業營運與決策核心,AI 轉型不再僅是技術升級與業務流程的革新,更是一場資安戰役。若企業一昧追求部署速度,忽略了前期威脅識別與系統性防禦設計,即可能在轉型道路上埋下長期風險。唯有將 AI 安全視為數位轉型策略的核心工程,並結合如 LEARN 架構等標準化實踐與六大防禦步驟,企業才能真正釋放 AI 的創新價值,在驅動未來的同時,主動構築足以承載未來的關鍵防線!
(本文授權非營利轉載,請註明出處:CIO Taiwan)