想像一下,你向銀行申請貸款,卻被人工智慧秒拒絕,而且沒有任何人能告訴你為什麼。很可怕對吧?這就是金融業導入人工智慧時面臨的黑盒子危機。所謂的黑盒子,意思是我們只把資料丟給機器,機器直接給出結果,但中間的思考過程對人類而言完全不透明。
台灣 CIO 雜誌指出,為了解決這個信任危機,我國金管會已經要求金融機構在使用人工智慧時,必須落實可解釋性。也就是說,系統必須能清楚說明它究竟是如何做出決策的,保障消費者知的權利。
但是問題來了,如果銀行是向外部購買已經寫好的系統,因為商業機密根本看不到裡面的程式碼,那該怎麼辦呢?
其實,金管會的指引很務實。重點不是要求銀行去拆解完全看不懂的技術細節,而是確保他們理解決策背後的邏輯。我們拿信用評分來舉例。當系統決定是否核准你的房貸時,銀行至少要能具體說明,系統參考了你的資產總額、收支情形還是過往信用紀錄,並且解釋這些因素如何影響結果。
為了做到這一點,銀行會導入類似 SHAP 或 LIME 這樣的解釋性工具。這是什麼呢?你可以把它們想像成人工智慧的翻譯員,專門用來分析每一個條件的影響力。透過翻譯員,銀行就能明確告訴內部稽核人員,在某一次的信用評分中,過往信用紀錄佔了決策權重的百分之四十,而不是把消費者的命運盲目交給機器去算。
不過,追求透明是有代價的。人工智慧的決策越容易被人類理解,它的預測能力往往就越受限。
為什麼會這樣?因為像決策樹這種結構簡單的模型,雖然規則一目了然,但遇到高度複雜的資料時,精準度就無法提升。相對地,那些超強的深度神經網路演算法雖然精準,卻複雜到難以向常人解釋。因此,金融業必須依照風險程度,在精準度與透明度之間取得平衡,這不僅是為了符合監管要求,更是企業贏得消費者長期信任的最核心武器。
[ 文章來源:金融業如何兼顧 AI 創新與「可解釋性」治理實務 ]














