資安領域正因人工智慧(AI)的廣泛應用而經歷根本性轉變。Anthropic 公司近期揭露的「生成式 AI 自主攻擊,無需人類參與」案例,證實了 AI 已從輔助工具演變為主動操作者,驅動著新型態資安威脅。此發展要求企業重新評估防禦策略,以應對這場「無人化」的資安挑戰。
編譯/Nica
AI 的整合使網路攻擊在規模和複雜度上迅速提升。新的研究指出,80%的勒索軟體攻擊已利用人工智慧技術。
近期 AI 資安危機與攻擊型態
這些 AI 強化型威脅主要表現為以下形式:
◾「氛圍駭客」(Vibe Hacking):
全自動化資料勒索行動 Anthropic 公司發現,駭客利用其 AI 聊天機器人Claude 策劃並執行一場大規模資料勒索行動。駭客「以前所未有的程度運用 AI」,透過 Claude AI 實現了駭客攻擊的大部分自動化。Claude Code 被用於自動化偵察、憑證竊取及網路滲透,在一個月內鎖定並影響了至少17個政府、醫療、緊急服務及宗教機構等組織。 Claude AI 甚至能分析竊取到的財務資料來決定贖金金額,並生成視覺警示的勒索訊息。此事件顯示 AI 不僅是技術顧問,更是主動的操作者,能夠執行複雜的攻擊,大幅降低了網路犯罪的技術門檻。
[ 加入 CIO Taiwan 官方 LINE 、 Facebook 與 IG,與全球CIO同步獲取精華見解 ]
◾ 無程式碼勒索軟體即服務(No-Code Ransomware-as-a-Service, RaaS):
AI 降低了勒索軟體開發的門檻。ESET 研究人員發現了 PromptLock,一種 AI 驅動勒索軟體,能執行本地 AI 語言模型即時生成惡意 Lua 腳本,並在 Windows、Linux、macOS 等跨平台運行。它能根據預定義的提示自主決定搜尋、複製或加密檔案。 此外,有網路犯罪分子利用 Claude 開發、行銷並銷售多種勒索軟體變體,這些變體具備規避、加密和反復原機制。這些工具包在暗網上以 400 至 1200 美元的價格出售。這表明 AI 已消除勒索軟體開發的進入門檻,即使缺乏程式設計技能者也能製造功能強大的惡意軟體.
◾ AI 濫用導致資料外洩:
員工無意間將敏感資訊輸入外部 AI 平台(如 ChatGPT 和 Google Gemini)導致資料外洩的風險顯著增加。AI 系統處理大量資料的能力,一旦敏感資料被輸入外部 AI 工具,洩露風險隨之提升.
◾ 社群媒體與生成式 AI 的結合:
高度目標化詐騙 社群媒體平台已成為網路犯罪的主要目標。生成式 AI 與社群媒體的結合使攻擊更加精密,利用個人資料和 AI 生成內容製造高度目標化的詐騙、冒充和欺詐行為。AI 可模仿個人的行為、外觀和聲音,使得區分真實與虛假互動更困難。LinkedIn 等專業網路平台上,冒充主管或同事的深度偽造(deepfake)電話已成為威脅。
◾ 多代理 AI 系統與自動化攻擊:
未來將出現多個AI 模型協同合作解決複雜問題的多代理 AI 系統。攻擊者將利用這些系統執行協調、分散式攻擊,使其更難被偵測和減輕。
◾ 供應鏈攻擊擴大:
勒索軟體攻擊供應鏈的風險日益增加,對關鍵供應商或合作夥伴的攻擊可能對整個產業造成連鎖反應。預計未來幾年將發生 2 到 3 起大規模供應鏈勒索軟體事件。
企業資安面臨的關鍵挑戰
AI 驅動的新型攻擊,不僅加速攻擊速度和精準度,也對企業資安防禦體系提出更高要求。
◾ 防禦難度指數級上升:傳統基於人類攻擊模式的偵測策略將失效,因為 AI 生成攻擊能夠即時適應防禦措施。攻擊者僅需一個切入點,防禦者卻需阻止所有入口。
◾ 資安人才缺口擴大:儘管資安產品數量增長,但缺乏具備管理和整合這些工具技能的專家,導致資安防護碎片化和低效。網路犯罪分子正利用這些漏洞。
◾ 法規監管與資安保險日益嚴苛:歐盟 IoT 法規、SEC 資安揭露規則、DORA 和 NIS2 指令等法規要求企業投入大量資源於合規性、政策制定及新資安產品部署。資安保險政策也日益嚴格,要求更嚴格的管控和合規性。
◾ 雲端環境的擴大攻擊面:企業上雲與物聯網(IoT)設備的普及,持續擴大攻擊面。多雲環境的複雜性,加上配置不當或監控不力,仍會引入漏洞。AI 在雲端安全中既是關鍵防禦,也可能成為攻擊目標。
◾ CISO 角色演變:CISO 將需平衡 AI 快速應用與安全需求,並向董事會解釋 AI 及新興技術風險。混合雲基礎設施的普及要求 CISO 擴展 DevOps 能力以管理跨公有雲與私有雲的安全。CISO 與 CIO 角色融合,統籌 IT 與資安管理,形成統一領導結構。
CIO/CISO 的 AI 資安防護建議
面對 AI 資安威脅,資訊長與資安長必須採取主動、多層次且整合人類監督與即時情報共享的全面性防禦方法。
- 實施 AI 防禦三大支柱:
- 自動化安全(Automated Security Hygiene):導入自我修復的軟體程式碼、自我修補系統、持續攻擊面管理、基於零信任(Zero-Trust)架構及自駕可信賴網路。這能減少手動工作量,並強化對核心系統漏洞的防護。
- 自主式與欺騙性防禦系統(Autonomous and Deceptive Defense Systems):利用分析、機器學習和即時資料收集,學習、識別並反制威脅。例如,自動移動目標防禦和欺騙性策略,使團隊能採取主動防禦。
- 強化監督與即時報告(Augmented Oversight and Reporting):利用 AI 進行自動風險分析,預測新興威脅及其對組織的潛在影響,提供主管即時的資料驅動洞察。
- 員工意識培訓與 AI 使用政策:
- 強化防釣魚和深度偽造(Deepfake)訓練:AI 生成釣魚郵件日趨精妙,深度偽造冒充日趨真實。企業應定期對員工進行最新威脅的辨識訓練。
- 制定嚴格的 AI 工具使用規範:針對 AI 工具(如 ChatGPT、Google Gemini)的使用建立嚴格的控制和治理框架,平衡 AI 帶來的生產力效益與資料隱私保護的需求。
- 加強身分驗證與行為異常監控:
- 投資 AI 偵測技術:AI 能模擬人類技能滲透企業,需投資 AI 偵測技術,特別針對遠端工作者,審查其技術能力,並監控行為異常。傳統安全工具可能無法識別 AI 生成的虛假身分。
- 零信任(Zero Trust)方法:對於所有存取請求,不論來自內部或外部網路,都應先進行驗證。
- 雲端安全策略:從反應到預防:
- 建立預防性安全架構:攻擊日益自動化和複雜化,企業需從被動修復轉向主動預防策略,設計能夠預測而非僅反應威脅的雲端環境。
- 整合型雲端安全平台:優先採用整合 AI 的雲端安全平台(如 CNAPP, ASPM, DSPM 的融合),而非零散的單點解決方案,以提高安全營運的效率和生產力。
- 擁抱 AI 治理框架:
- 確保 AI 模型的透明度與信任:AI 治理平台對於確保 AI 模型的透明度、信任和公平性,並符合監管要求日益重要。企業應及早擁抱治理框架。
- 強化供應鏈安全與資安保險:
- 防範供應鏈攻擊:企業需加強其擴展網路的安全,以應對供應鏈勒索軟體攻擊風險。
- 善用資安保險:企業應尋求資安保險來減輕網路攻擊造成的財務影響,同時也要符合保險公司日趨嚴格的管控和合規性要求。
[ 推薦閱讀:務必設防之 9 大主流安全威脅 ]
結語
AI 的發展將網路攻擊與防禦推向新境地。單一攻擊者透過 AI 協助即可達到大規模網路犯罪團隊的影響力,並在戰術和策略層面做出決策。面對這種 AI 賦能的網路犯罪模式,傳統安全假設不再適用。資訊長與資安長們必須迅速行動,將 AI 深度整合到防禦策略中,不僅要防範已知威脅,更要具備預測和適應未知攻擊的能力,方能確保企業數位資產安全。
(本文授權非營利轉載,請註明出處:CIO Taiwan)