對於許多企業組織而言,由於大家不了解AI的實際運作細節,因此它仍然受到人們懷疑,質疑其無法應用在實際商業營運上。但是市場需求、技術進步與新興的標準,有可能很快地改變現況。
文/Maria Korolov 譯/兩三松
當我們開始應用人工智慧與機器學習等技術時,是否信任系統的產出結果是一項關鍵要素。由於目前人工智慧讓人會有所謂的「黑盒子」考量,因此有許多企業組織,特別是被政府管制的特殊產業,對於採用人工智慧系統會感到猶豫不決。原因是企業無從得知演算法是如何推演得出相關決策,沒有辦法解釋人工智慧所依循的理由。
這可是一個明顯的麻煩問題。如果我們無從得知人工智慧是如何發揮作用的話,那麼要如何在醫療診斷或自動駕駛汽車等生死攸關的領域,信任由人工智慧所做出的決策呢?
這個問題的核心,是一個因沒有依據事實判斷的觀點,所籠罩的技術性議題。如今,人們普遍認為,人工智慧技術已經變得過於複雜,導致系統無法解釋是透過什麼樣的依據來做出決定。就算系統能夠加以說明,這些解釋通常也太過複雜,讓人類大腦無法理解。
其實真正的情形是,現今在機器學習和人工智慧系統中經常被採用的演算法,都已內建了所謂的「可解釋性」。而一般人僅是沒有去動用可解釋性,或是無法讀取它。而其他種類的演算法,其可解釋性和可追溯性功能仍在研發當中,但應該很快也能推出。
在本文中,你將能理解可被解釋的人工智慧涵義,為什麼人工智慧對商業應用非常重要,以及有那些因素可以推動人工智慧的應用,還有那些因素阻礙了人工智慧發展。
為什麼可被解釋的人工智慧非常重要
安侯建業(KPMG)與Forrester Research在2018年所發布的報告中指出,現在僅有21%的美國高階主管對他們自己的商業決策分析具有高度信任度。KPMG新興技術風險全球負責人Martin Sokalski表示:「這不單是指人工智慧的分析,而是指他們低度信任所有分析的結果。」
Sokalski說,這種不信任正在減緩人工智慧的採用速度,尤其是企業將人工智慧從實驗室轉移至大規模部署的速度。
「也許貴企業擁有聰明的資料科學家,想出了驚人的模型,但是它們卻可能會被擺在角落;因為企業領導者對這些模型並不信任,也不覺得推算結果具有透明性。主管們不想因為他們部署人工智慧程式,結果驚動監管機關深入調查;也不想因為鬧出了問題,而造成企業主管被登上報紙頭條。」
其實不只是醫療保健和金融服務行業,才必須要考量政府的監管審查。根據歐盟一般資料保護規則(GDPR),所有企業都必須能夠向客戶解釋,自動化系統是採用什麼依據做出建議。
此外,由於無法分析演算法是如何進行推論,因此在企業業務面臨危機時,很可能把問題起因歸究於他們相信了人工智慧系統的建議。
舉例而言,零售商Bluestem Brands正在採用人工智慧,為客戶提供個別化的購物建議。但如果人工智慧系統為客戶推薦的商品,不是之前的暢銷排行榜推薦商品,或是與業務專家的直覺不符時該怎麼辦?
Bluestem Brands的IT總監Jacob Wagner認為:「這種時候,我們會傾向於推測說『喔,人工智慧系統可能壞掉了,我們應該推薦最暢銷的褲子才對。』」
針對這些信任問題的解決方案,就是能提供對推論結果的解釋。人工智慧系統在提出建議時,納入了那些考量因素呢?這就是為何可解釋的人工智慧(Explainable AI)在此時出現的原因,而且人們變得愈來愈需要這項功能。
在可解釋的人工智慧裡頭,包含了相關工具與技術等解決方案,它們在使具有領域專業知識的人員,能夠更容易理解人工智慧系統。可解釋的人工智慧協助人們能夠了解人工智慧的決策過程,增加對人工智慧系統的信任度,並提升對推論結果的責任感。通常人工智慧是利用訓練產生這些推論的規則,並允許人類審核這些規則,以了解人工智慧要如何從未來超過訓練範圍的資料中推導出結論。
Wagner表示,針對Bluestem Brands的需求,目前能從Lucidworks的人工智慧系統獲得約85%的解釋,但他希望看到更多優異成果。
Wagner強調:「設法推動人們克服信任上的障礙,是一項重大挑戰。一旦我們能擁有更多關於為什麼要推薦某種商品的資訊,就愈容易得到這種體驗。」
企業治理問題
現今企業所採用的大部分人工智慧,都是基於統計分析所進行的。這些機器學習演算法的應用用途相當廣泛,從改善購物建議與搜索結果,到計算信用風險,以及挖掘電腦網路中的可疑行為等。
為了提供良好的建議,這些演算法分析了特定字元、資料欄位與影響因素等,而這些資料在產業裡,通常會被稱為「特徵」。每項特徵都被指定了特定權重,協助人工智慧將事物分類或辨識異常狀態。例如在確定被看到的動物是貓還是狗時,演算法可能會以該動物的體重為主要因素,然後才考慮動物的大小,最後考量顏色。
挖掘出決定因素如何影響決策,是一個直覺的過程。但企業目前尚未將影響決策相關的因素,列為優先處理事項。
KPMG的Sokalski表示:「我們注意到的主要趨勢之一,是企業缺乏對人工智慧的內部治理和有效管理辦法。現今只有25%的企業,已開始投資開發控制框架和方法論。」
Sokalski認為,這種現象是業務流程成熟度的問題,而非技術問題。這關係到在整個系統生命周期中,企業要如何建置起內部管理能力、端到端治理,以及人工智慧端到端管理的問題。
可解釋的人工智慧發展現況
Sokalski表示,所有的主要人工智慧平臺供應商,與大多數頂級開放原始碼人工智慧專案裡,都已內建了某種形態的可解釋性和可審核性。
KMPG一直與主要人工智慧供應商之一的IBM合作,開發出專屬的工具組合,命名為 AI in Control,並提供給企業用戶使用。這類技術框架,能夠協助企業更容易開發出具有內建可解釋性的人工智慧系統,而不必將各種開放原始碼專案的功能拿來東拼西湊。
在2019年8月,IBM發布了自己的工具組合 AI Explainability 360,其中包含了開放原始碼演算法,可應用在當今所採用各主要類型機器學習的可理解解釋性(interpretability)和可解釋性(explainability),經常被應用在股市預測所需的時間序列問題;但不包括對遞迴神經網路模型的解釋。
該工具組合涵括了八種演算法,其中大多數還無法以可使用的程式碼形態公諸於世。IBM首席研究員暨 IBM Thomas J.Watson 研究中心經理Kush Varshney表示,目前估計可能在2019年底發表這項正在進行中的研究。
Varshney透露,無論是否為IBM客戶,所有人都可以使用該工具組合。
但Varshney補充說,為人工智慧系統增加可解釋性,並不是提供一張決策因素清單就算解決了問題,其中很可能採用了不同的解釋方式。
舉例而言,我們來看看銀行如何決定是否同意對某人提供貸款。Varshney說,來申請的客戶會想了解,為什麼他們的申請被拒絕,以及他們怎麼做才能增加未來獲得貸款的機會。
Varshney認為,金融監理單位其實不會太在乎申請人的個別狀況。他們希望的是檢視整個決策過程,並對過程如何運行提出完整的解釋。監理單位希望能夠為各類決策模型模擬出不同的輸入資料,並找出是否存在如公平與否或其他潛在問題之類的狀況。
他補充說,對銀行而言,如果要確保系統能夠做出準確的預測,要應付的則是完全不同的問題。
解釋神經網路運作原理
隨著人工智慧系統變得愈來愈先進,同時減少對功能和權重預先定義清單的依賴,解釋預測結果也變得更加困難。舉例而言,像如果有一個能對貓和狗進行分類的系統,它不會依據由一組資料點蒐來的資料就直接分析完成,而是從學習處理動物照片開始。
卷積神經網路(convolutional neural networks)通常用於圖片處理,它會觀察訓練數據,並自行發現其中重要特徵。這些功能所採取的形式,可能牽涉到非常複雜的數學應用。
Varshney表示:「如果你擁有的是一個複雜的黑盒子模型,該模型所具備的功能可能會產生數百萬種組合,讓人類無法理解其運作原理。」
如果系統基於圖片特定像素彼此之間的複雜關係,將圖片判定為貓而不是狗的圖片,就像在同時間內由一個人告知另一個人這是隻貓一樣無濟於事。因為人們大腦中的特定神經元,早已在特定時間就先將訊息傳送出去了,比系統判定的速度更快。但Varshney認為,我們仍然可以透過進行更高層級的抽象化,使得系統具有可解釋性。
Varshney表示:「我們可以找出具有語義內涵解釋的呈現方式。像是要辨識貓的照片的時候,就會發現貓鬍鬚、貓鼻子的形狀,與貓眼睛顏色等均為重要特徵。」
接下來,為了解釋這些人工智慧所作出的決策,這些人工智慧系統必須在照片中突顯出那些是貓的特徵,或顯示出比較能呈現貓型態的原型照片。
Varshney說:「這種作法的確是增加人們對系統信任的方法之一。如果人們能夠理解這些事物的運作邏輯,就可以對它們的使用充滿信心。」
而這種判斷方式,正是目前美國麻塞諸塞州立醫院與哈佛醫學院附屬布萊根婦女醫院臨床資料科學中心執行主任Mark Michalski所採用的方法。
該院計畫利用人工智慧分析放射影像,發現可能的癌症患者,因此醫護人員必須對系統具備高度信任才敢使用。為了解決這個問題,無論掃描結果是否顯示患者罹患癌症,醫療保健系統供應商都不能對問題只簡單地回答是或否。
Michalski說:「你可以在照片上方一併提供分析用的熱圖(heat map),以解釋人工智慧系統為何關注某幾個特定位置。」
專屬系統與特殊目的供應商
話說回來,如果讓系統運作完全透明,反而不一定對每個人都有利。對於某些人工智慧供應商而言,公開其人工智慧決策方式的細節,等於是放棄他們的獨門秘方。
專注於協助企業導入人工智慧專案的數位服務諮詢公司Nerdery資料科學總監Justin Richie表示:「部分軟體公司也許有些貪心,同時也誤認其他企業的意圖不善,都在想著竊取他們的創意。另外還有些供應商故意放走用戶,是因為他們不想曝露其內部比重設定。而其他廠商則是直接在其工具中呈現可解釋性。」
Richie補充說,這種情形其實是市場競爭議題,而不是一種技術限制。隨著人工智慧技術變得愈來愈常見,遊戲規則也將隨之改變。
製作人工智慧驅動聊天機器人LivePerson公司的技術長Alex Spinelli則認為,目前一般市面上現成的人工智慧演算法,通常都缺少關鍵的可解釋性功能。
Spinelli說明:「有一些更好的人工智慧產品,確實具有可深入檢驗與稽核的功能,但不是所有產品都做的到。而目前制定出的相關標準並不多,像是針對可稽核性、可追溯性、以及反查演算法是如何做出決定的能力,仍是現今還很少見的功能。」
Spinelli表示,LivePerson開發出具備可解釋性的演算法,或是採用具有可被解釋功能的開放原始碼工具,像是百度的Ernie與Google Bert開放原始碼自然語言處理演算法等。
人工智慧標準正逐漸興起
Spinelli觀察到,目前整個業界正在努力推動,讓人工智慧系統能更加透明。像是LivePerson就參與了Equal人工智慧計劃,致力於制定準則、產業標準與相關工具,以預防並糾正人工智慧可能產生的偏差。
現有的標準機構,也在持續努力解決這些問題。Red Hat商業自動化開發經理Edson Tirelli表示,像Red Hat正參與數項標準的制訂,希望能協助人工智慧與機器學習系統更加透明化。
Tirelli說:「這些標準有助於打開黑盒子。」
有一項接近的標準,是來自物件管理小組(Object Management Group)的決策模型和註釋標準。
Tirelli說明,這項相對較新的標準,將有助於拉近對理解企業決策過程中所涉及相關步驟的一些差距。「你可以追蹤企業決策或業務流程裡的每一項步驟,而且一直延伸到人工智慧分析的部分。」
這些標準,更進一步促使在不同的供應商平臺之間遷移工作流程和模型時,能變得更加容易。但是除了Red Hat之外,目前只有少數公司支持DMN(預設模式網路)標準。
Tirelli則補充說,目前已有數百家供應商支援物件管理小組的決策模型和註釋標準。
「事實上,目前所有工具都支援預測模型標記語言(Predictive Model Markup Language, PMML)或同等級標準。這是一種可攜式的分析用語言。基本上該語言能支援所有相關工具,以創作出機器學習模型。」Tirelli說道。
Tirelli認為,未來這些標準之間將能夠串連起來,為可解釋的人工智慧提供對應功能。
終極技術前沿探索
帕羅奧多研究中心(PARC)研究員Mark Stefik表示,由於人工智慧多半應用在執行複雜性任務上,因此產生可解釋性變得愈來愈具有挑戰性。
Stefik說:「如果在解釋系統時,一次就塞給你5000條規則,對你而言根本給不了任何幫助。」
舉例而言,PARC一直進行著一項美國國防高等研究計畫署(DARPA)的專案工作,該專案內容主要應用於森林防護員救援任務的無人機訓練之用。如果是針對簡單的任務,要得知何時可以信任人工智慧系統,會比在複雜山區或沙漠情境中的專家級任務要容易得多。
Stefik表示:「我們在這方面的確已取得了很大的進展,但我不敢誇口說我們對所有類型的人工智慧都能具備可解釋性。」
對人工智慧領域而言,最終極的挑戰,也最困難的挑戰,就是能夠依照人類的常識來進行判斷。
Waterloo大學人工智慧領域的加拿大研究中心主任研究員Alexander Wong說:「對我們而言,因果推理能力就如同是至高無上的聖杯,而這正是我和其他專家努力發展的方向。」
Wong認為,對現今的電腦系統而言,要判別幾種現象之間究竟只是有相關性,亦或是彼此有因果關係,並不是件容易的事。各位認為鬧鐘鈴聲能催太陽升起嗎?
「我們想找到一種方法,能夠將虛假的相關性,與真正的因果關係分開。但就算是要訓練一個人進行正確的因果推理,其實都是件相當困難的任務。」Wong說道。
Wong表示,這種能夠透過一系列因果關係進行思考判斷的能力,正是人們討論一般通用型人工智慧時所論及的重點。
「我們在這個趨勢方向上已有了不錯的進展。但如果讓我預測未來走向的話,因果推理的終極形態應該很快會在不久的將來出現。」Wong補充道。
不過,即使是可解釋的人工智慧仍處於起步階段,也不意味著企業就只能坐等時機到來。
Wong強調:「就算只看目前的呈現形態,可解釋性對於許多商業流程而言,依然非常有用。如果你現在就開始採用人工智慧,那麼建置出來的系統,一樣能夠領先其他廠商,而且還會在更為公平的情形下競爭。那麼當建立起能夠負判斷責任的人工智慧時,我相信其中的重點之一將會是可解釋性和透明度,它們扮演著關鍵角色。」