~風險分級與治理七原則
文/蕭奕弘

2025 年 12 月 23 日,立法院三讀通過人工智慧基本法,這是我國第一個法律位階的人工智慧相關規範,在法律定位上屬於規範的框架。對我國而言,雖然在人工智慧法制領域正式邁出一大步,但未來還需要有關機關,持續完善相關法制,制定相關作用法。對企業而言,雖然目前 AI 基本法對企業還沒有規制效力,但 AI 基本法所揭示的七個發展原則,將是人工智慧管制的基礎,要符合這些原則,需要在 AI 系統生命的每一個週期加以實踐,並無法一蹴可成,企業應該從現在開始,將 AI 治理原則納入公司內部控制。
隨著生成式 AI 於 2022 年底開始急速發展,人工智慧快速地改變我們的生活型態、工作方式,全面滲透到我們的日常中,各式各樣的人工智慧運用隨著大語言模型技術的成熟、算力的進步,讓產出文件與圖像的品質,以極快的速度增強到與專業人士相當的程度,這些都發生在短短的兩、三年間。過去,行政機關雖然已經盡快的提出相關的指引,比如 2023 年國科會制定的「行政院及所屬機關(構)使用生成式 AI 參考指引」,2024 年金管會「金融業運用人工智慧(AI)指引」,但仍然趕不上整個人工智慧的快速發展。
治理七原則:未來 AI 管制的核心基礎
這次立法院通過的 AI 基本法,確立人工智慧之研發與應用應遵守七大原則:永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視,以及問責。雖然仍然處於原則階段,還沒有實際的規制效力,也還不夠具體,但 AI 基本法的通過,可以說是預告未來人工智慧管制的開始。建議企業從現在開始,就將七大原則納入企業發展或採用 AI 的基本思維,在開始規範之前,做好準備。
比如,就隱私保護與資料治理部分,妥善保護個人資料隱私,避免資料外洩風險,並採用資料最小化原則。在資安與安全部分,建立資安防護措施,防範安全威脅及攻擊,確保系統穩健性及安全性。在透明與可解釋部分,產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,提升可信任度。
[ 加入 CIO Taiwan 官方 LINE 、 Facebook 與 LinkedIn,與全球CIO同步獲取精華見解 ]
就公平與不歧視而言,避免演算法產生偏差及歧視風險。在問責部分,讓不同角色承擔相應之責任,包含內部治理責任及外部社會責任。
原本行政院提出的草案,並沒有規定主管機關,在立法院審議後,三讀通過的法案規定本法的主管機關,在中央為國科會、地方則為縣市政府。除此之外,新法也規定由行政院設立「國家人工智慧戰略特別委員會」,負責訂定國家人工智慧發展綱領,針對跨部會議題進行規劃與協調,作為人工智慧發展的平台。
風險導向治理:企業現在就該開始的準備
除此之外,美國國家標準暨技術研究院提出的風險管理框架、歐盟人工智慧法案都以風險為導向,以不同的密度加以管制或應對。AI 基本法規定由數發部負責訂定風險分類框架,協助目的事業主管機關識別風險,進行人工智慧法規調適,這些與國際接軌的風險框架,未來可能成為個別產業規範的基礎。
在推動人工智慧發展部分,推動的具體重點包括:寬列預算、產業補助及優惠措施、提供友善創新實驗環境、推動人才交流、建設基礎設施及建立資料治理機制,作為行政機關未來的施政方向。
待解的法制難題
然而,由於 AI 基本法只是框架性規範,一些已知的法制上問題,還有待有關機關,基於新法的精神,進行立法或修法。比如:在人工智慧訓練階段,使用他人著作進行訓練,是否屬於合理使用範圍?透過網路爬蟲擷取公開資料,因而違反網站使用者條款或 robots.txt 的規定,會不會因此構成無故取得電磁紀錄刑事責任?有無合理使用空間,該如何平衡人工智慧發展與智慧財產權利人間的利益?
[推薦文章:個資法翻修:邁向獨立監管、統一治理 ]
過去的相關法規,在人工智慧時代,正在面臨新的挑戰,無論在國外或國內,都已經出現相關訴訟爭議。但訴訟曠日費時,在司法終局判決之前,存在的不確定性,將對人工智慧的發展造成阻礙,也不利於權利人的保障。
最後,AI 基本法雖屬框架性規範,短期內未直接對企業產生強制義務,但其所揭示之風險分級思維與治理七原則,已明確勾勒出未來人工智慧管制的方向,且勢必與國際標準接軌。人工智慧導入後,若再行調整,所耗費的成本往往難以估量,一次就做對,除了有助於符合國際法遵要求,更是降低未來技術債與合規成本的最佳策略。
(本文授權非營利轉載,請註明出處:CIO Taiwan)















