近期進展凸顯出人工智慧無與倫比的潛力,以及尚未深思熟慮的風險,這使得資訊長面臨重大而艱難的局面,他們必須找出在企業中運用此充滿爭議技術的最好方法。以下是資訊長們對此議題的看法。
文/Paula Rooney‧譯/曾祥信
隨著人工智慧的熱潮及其後續反彈聲浪持續延燒,IT 領導者開始意識到,在企業運用人工智慧這件事情上,他們正處於一個相當脆弱的轉折點。
最近才離開 Google、備受崇敬的人工智慧先驅 Geoffrey Hinton,跟隨 Elon Musk 做出的嚴厲警告,大聲疾呼人工智慧的風險,呼籲人們暫停開發人工智慧,這使得 IT 領導者開始與全球的機構、顧問公司和律師聯繫,尋求未來方向的建議。
Hearst 資深副總裁兼資訊長 Atti Riazi 表示:「近期,Elon Musk 等科技公司執行長對於人工智慧潛在危險所做出的警告言論,顯示出我們在緩解創新科技造成的後果上,做的還不夠。身為創新者,以負責任的方式創新是我們的職責,同時也要了解科技對人類生活、社會與文化帶來的影響」。
這番言論獲得很多 IT 領導者的迴響,他們相信,在自由市場社會裡,創新是無可避免且應該被鼓勵的,尤其是在數位轉型的時代 ─ 不過前提是要有適當的規則與制度,來防止企業級或更嚴重的災難發生。
「我同意在某些產業或是特定的高風險使用情境,暫停人工智慧發展是比較恰當的,但是在大多數其他情況下,我們應該迅速地持續前進,探索這些工具能夠創造的契機」,美國製藥公司 Regeneron Pharmaceuticals 資訊長 Bob McCowan 如此說道。
「許多董事會成員在質疑,是否該採用這些技術,或是它們可能會帶來太多風險?」,McCowan 補充道,「在我看來兩者皆是,忽視人工智慧發展或中止其開發,那麼你將錯失重大良機;但是沒有控管地讓人工智慧自由發展,卻也可能令你的組織陷入危險局面」。
雖然人們使用人工智慧工具已行之有年,但是最近 ChatGPT 釋出給大眾的版本,卻引起相當多的爭議,致使許多資訊長以及他們的董事會,不得不停下腳步,思考接下來如何進展。有些資訊長極度認真地看待人工智慧對產業與人類帶來的風險。
「我對此科技的擔憂,一天比一天嚴重」,美國金融業監管局(FINRA)資訊長 Steve Randich 如此說道,美國金融業監管局是隸屬於美國證券交易委員會(SEC)之下的重要監管機構。
Randich 近期注意到一張圖表,聲稱人工智慧程式的「心智」能力剛超越老鼠,並將在 10 年內超越全人類。他說:「考慮到我的擔憂,特別是萬一人工智慧程式可能受到惡意行為者的影響,而且能夠破解、駭入任何系統,例如核彈發射密碼」。
MIT 史隆管理學院的資深講師 George Westerman 表示,全球各地企業的高階主管,正在向 MIT 史隆管理學院及其他機構尋求建議,關於使用生成式人工智慧(Generative AI,GenAI)時的道德、風險與潛在責任。不過,Westerman 認為多數資訊長已經與他們的高層和董事會溝通過,生成式人工智慧本身不會為公司及其主管帶來新的法律責任。
「我希望,就像所有的公司高層主管一樣,每個人都有法律規範的正式責任」,Westerman 在談到人工智慧餘波凸顯出資訊長個人的法律責任時,特別提到為了個人利益而不當使用這項科技的例如情形。
與生成式人工智慧的角逐
同時,ChatGPT 的釋出也讓監督管理機構感到緊張。歐盟原本計劃在 2023 年 4 月制定人工智慧法案,卻在 ChatGPT 釋出之後喊停,因為有太多人擔心政策在生效之前就已經不合時宜。隨著歐洲執行委員會(European Commission)及其所屬機構開始研究生成式人工智慧帶來的影響,歐洲和美國的企業高層也開始嚴肅看待這項警訊。
「隨著人工智慧成為我們藍圖裡的關鍵元素,以及狹義人工智慧變成通用人工智慧 ─ 誰該承擔責任?是技術負責人?無生命的電腦主機?還是負責批准與改變訓練模型的人?科技發展快速,但是與科技相關的控制手段與道德標準卻不是」,National Grid 集團的資訊數位長 Adriana Karaboutis 如此說道,這間電力供應公司總部位於英國,但在美國東北部也有發展業務。
這位資訊數位長認為:「這是一場角逐遊戲。為達此目的,企業中管理人工智慧的責任落在監督公司和組織風險的所有高層主管。隨著人工智慧的興起,科技長/資訊長/數位長/資安長不再是資訊風險的所有者。IT 依賴執行長與所有高層主管,這意謂著人工智慧的巨大優勢和風險,都必須植入公司文化與意識之中。
Ericsson 副總裁兼企業自動化與人工智慧負責人 Rickard Wieselfors 表示,總部位在斯德哥爾摩的電信公司 Ericsson 看見生成式人工智慧的巨大優勢,正投資於建立多個生式成人工智慧模型,包括大型語言模型。
他說:「人工智慧產業內部具有充分的自我批評精神,我們非常重視以負責任的態度來發展人工智慧。關於模型訓練過程中使用的文字或程式碼的智慧財產權,目前仍有許多問題有待解答。此外,查詢模型時造成的資料外洩、偏見、違背事實的錯誤、缺乏完整性、以及模型準確度不足等問題,勢必都會限制人工智慧模型的用途。」
Wieselfors 說:「能力越強,責任越大。我們支持並實際參與對於人工智慧能夠為世界帶來什麼的自我批評和哲學反思」。
有些資訊長,例如 Choice Hotels 的 Brian Kirkland,一直在關注這項技術,但認為生成式人工智慧還沒有完全準備好用在商業用途。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球CIO同步獲取精華見解 ]
Kirkland 說:「我確實認為,產業必須確保他們了解使用 ChatGPT 這類生成式人工智慧技術的風險、回報與影響,這點極為重要。資料所有權與生成內容皆存在著風險,我們必須理解並妥善管理這些風險,以避免對公司帶來負面衝擊。與此同時,也要考慮很多好處和機會,當我們有能力安全可靠地在這些系統中將私有資料集與公用資料合併時,這項技術帶來的好處是非常巨大的」。
「人工智慧與機器學習技術,如何透過生成式人工智慧到複雜且有意義的商業分析和決策來實現商業價值,這點將會發生劇烈性的變化」,這位 Choice Hotels 資訊長如此說道。
沒有人建議完全停止發展如此強大、可改變人類生活的技術。
Gartner 近期針對 2,500 多位高階主管進行調查,45% 受訪者表示,ChatGPT 引起的關注讓他們決定增加人工智慧的投資。超過 70% 的人聲稱他們的企業正在探索生成式人工智慧,19% 已在試驗此技術或用於產品之中, 有些公司的專案已經展現出這項技術的潛能,例如 Unilever 和 CarMax。
在 5 月 15 日展開的 MIT 史隆資訊長大會上,Irving Wladawsky-Berger 將主持小組討論,探討踏入生成式人工智慧領域的潛在風險與回報。最近,他主持了一次關於此技術的會前討論。(Wladawsky-Berger 是 MIT 史隆管理學院和 MIT 史隆管理學院網路安全 (CAMS) 的研究員,也是數位經濟倡議、MIT Connection Science 和 Stanford 數位經濟實驗室的研究員。)
「今日,我們都對生成式人工智慧感到相當興奮」,這位前 IBM 長期研究員和現任 MIT 史隆管理學院附屬研究員如此表示,他同時指出,人工智慧有望在基因組學(genomics)方面取得重大進展。
不過 Wladawsky-Berger 點出,採用這項科技所必須做的盡職調查不是一件容易的任務,他說:「有太多事情要做,我們必須釐清哪些部份行得通、什麼部份是安全的,以及必須進行哪些試驗。這是非常費時的工作」。
小組討論中另一位資訊長,Zoetis 公司數位科技長 Wafaa Mamilli 表示,生成式人工智慧帶給製藥公司更多信心,相信能夠治癒人類的慢性疾病。
她說:「由於生成式人工智慧技術和基因研究運算能力的進步,現在美國、日本與歐洲各地都在進行以治癒糖尿病為目標的試驗」。
建立安全護欄與指導方針 ─ 生成式人工智慧的成功條件
華爾街注意到產業迅速擁抱生成式人工智慧的趨勢。根據 IDC 研究,2022 年是生成式人工智慧新創公司投資破記錄的一年,股權融資超過 26 億美元。
IDC 近期發表好幾份生成式人工智慧的研究報告,其中一份指出:「無論是用 Jasper.ai 創造內容,用 Midjourney 創造影像,或是用 Azure OpenAI 服務處理文字,都有一個生成式人工智慧基礎模型可以大幅提升業務的各個層面」。
Regeneron 的 McCowan 指出,資訊長已經有辦法設置防護欄,以安全地推動生成式人工智慧實驗計劃。
McCowan 說:「重要的是,你要有政策和指導方針,對計劃使用這項技術的人的存取權限與行為,進行妥善的管理,並且提醒員工要保護智慧財產權、個人識別資訊(PII),還有重申任何共享的內容都可能被公開到網路上」。
他說:「讓你底下的創新者和律師合作,一起找出使用這些工具的風險模型,並徹底釐清你們可能會暴露哪些資料,以及你們對於這些解決方案輸出的結果擁有什麼權利。先將技術用在風險較低的使用情境,然後從每次過程中學習。現在就開始,否則你會錯失良機」。
Forrester Research 分析師 David Truog 指出,人工智慧領導者在企業開始實驗並將生成式人工智慧用於產品之前提出警告是正確的,不過他同時也充滿信心,認為這項技術是可行的。
「我不認為完全停止或暫停人工智慧是對的方向」,Truog 說道,「更務實、有建設性的作法,是審慎明智地選擇專業人工智慧能夠提供協助的使用案例,設置深思熟慮的安全護欄,並制定有目的的實體隔離網閘(air-gapping)策略」。
有位顧問公司的 DevOps IT 負責人指出資訊長在使用生成式人工智慧時可以降低風險的幾個方法,包括:像風險投資家一樣地思考;清楚了解這項技術的價值;在測試前先釐清道德與法律層面的考量;進行實驗,但不急於投資;以及從客戶的角度來思考各種影響。
總部位在明尼亞波利斯的軟體公司 Perforce 的科技長 Rod Cope 說:「聰明的資訊長會成立監督委員會或與外部顧問合作,這些顧問可以在組織實現人工智慧的過程中提供指導,協助建立指導方針,以促使負責任的科技運用方式。雖然投資人工智慧能為企業帶來巨大價值,但在技術架構中實現它需要深思熟慮的考量,以保護你自己、你的組織以及你的客戶」。
儘管生成式人工智慧的興起肯定會影響人類的工作,但有些 IT 領導者,例如託管服務供應商 MetTel 科技長 Ed Fox,認為其影響可能被誇大了,雖然每個人可能都得適應或處於落後局勢。
Fox 說:「在生成式人工智慧崛起過程中,有些人會失去工作,但不會達到某些人預測的程度那麼嚴重。無法接受即時百科全書的人,確實會被淘汰」。
儘管如此,可以確定的是,對大多數資訊長而言,最好的前進方向是謹慎行事,並且實際參與投入新科技。
Wipro 公司的 Google 商業集團總經理 Tom Richer 表示,資訊長必須在「扼殺創新的嚴格規範」與「確保以負責任方式發展及使用人工智慧的指導方針」之間取得平衡。他正與母校康乃爾大學合作,審慎地進行其人工智慧計劃。
「對資訊長和 IT 高層來說,關鍵是了解生成式人工智慧的潛在風險和優勢,並與領域專家合作,制定負責任的科技使用策略」,Richer 說道。「這種合作需要各方參與,包括大學、大型科技公司、智囊團與政府研究中心,共同建立起開發和部署人工智慧技術的最佳實踐方法與指導方針。」
(本文授權非營利轉載,請註明出處:CIO Taiwan)