每個人都在談論這款健談的 AI 聊天機器人,是時候真正了解它了。
文/Mike Elgan, Computerworld‧譯/陳薇真
每個人都在談論 ChatGPT!這是一款由 OpenAI 公司開發的工具,可以像人一樣寫詩、散文,甚至編寫軟體。
人們的話題大多傾向於表達驚奇、恐懼和警告 — 對它的功能感到驚奇,恐懼被「AI 機器人」欺騙和取代,以及警告將創造力外包給 AI 機器人會給人類帶來的危險。
[ 2023年企業IT投資重點為何?資安、人才、ESG如何部署?下載 CIO大調查報告 立即揭曉!]
所有的話題都錯過了當下的真實。事實上,ChatGPT(生成式預訓練轉換模型,Generative Pre-trained Transformer)並不像大多數媒體報導所聲稱的那麼驚奇,並且也不需要那麼多的戒慎恐懼。ChatGPT 是來自總部位於舊金山的 OpenAI 公司的 AI 語言模型。它可以透過文字輸入與人交談,並根據要求產生範圍廣泛的內容。
目前為止,生成式人工智慧是這十年來最大的科技趨勢。因此,為了更了解 ChatGPT,以下提供 6 個你可能不知道的資訊。
1. ChatGPT 並非獨一無二
ChatGPT 之所以特別,是因為它是公開的。其實還有一些你從未試用過的 AI,它們功能也很強,甚至更強。
科技公司巨頭,尤其是 Google、Meta 和其他公司,以及無數新創公司和大學,已經開發出與 ChatGPT 一樣強大的生成式人工智慧工具。在某些情況下,這些公司會發布其 AI 的部分功能受限的版本,在其他情況下,他們沒有公開 AI 科技供大眾使用。
Meta 在 ChatGPT 之前發布了一個名為 Blenderbot 的聊天機器人,但該機器人在審核方式上非常謹慎,使得人們覺得用起來很無聊。
這麼謹慎的原因是過去 AI 在現實世界的失敗記錄。微軟幾年前發布了一款名為 Tay 的聊天機器人,它接受了社交媒體貼文的訓練。人工智慧從網路上的仇恨和酸民言論蒐集內容,並產生了種族歧視和尖酸刻薄的言論,使微軟非常困窘。
Google 去年解雇了一名工程師,因為他公開(錯誤地)宣稱 Google 的 LaMDA(對話程式語言模型)是有感知力的。
[ 推薦閱讀:何謂合成資料?用人造資料訓練 AI 模型 ]
ChatGPT 是當前的科技熱點,因為 OpenAI 大膽地向公眾發布該工具,並且大膽地允許機器人針對一些(但不是全部)有爭議的主題發表言論。鑒於現在 ChatGPT 受到如此多的關注,過去過於謹慎的其他公司正爭先恐後地準備公開他們的產品供大眾使用。
據報導,Google 發布了一份公司內部的紅色警戒(Code red),以加速將其 AI 產品公諸於世,該公司計劃今年發布約 20 款嶄新的人工智慧工具;中國的百度發布一款 ChatGPT 競爭產品「文心一言」。
與此同時,Futurepedia 網站列出了數百種人工智慧工具,其中許多是基於 ChatGPT,但也有一些是強大的競爭對手。
ChatGPT 並不是特別強大。在強大的人工智慧系統中,它的獨一無二取決於其大膽性和可用性。
2、微軟控制了 OpenAI
營利性 OpenAI LP 公司打造了 ChatGPT,同時,OpenAI LP 公司是非營利性 OpenAI Incorporated 的子公司。然而,OpenAI Incorporated 並不「擁有」OpenAI LP。
微軟是最大的投資者,而微軟正在努力向 OpenAI LP 再投入 100 億美元,使微軟獲得 49% 的股份。只有 2% 的公司將由其非營利母公司擁有,所有其他投資者將持有剩餘的 49%。
[ 推薦閱讀:ChatGPT 打開全新企業服務篇章 ]
微軟也在積極致力於在 Bing、Azure、PowerPoint、Outlook 和其他產品中構建 ChatGPT 功能。
其實微軟控制著 OpenAI。
3. 大多數對 ChatGPT 的批評並不是真正針對 ChatGPT
關於 ChatGPT 的三個最大擔憂是它:1. 讓學生作弊;2. 被用於不道德的目的,例如剽竊和社會工程學;3. 有時會提供假訊息。
我們可以忽略前兩個。每一代嶄新的生成式 AI 都將搭配可以檢測 AI 生成內容的工具。如 ChatGPT 這樣的 AI 聊天機器人完全勢不可擋,而且只會愈來愈先進。我們總是得面對人類的不道德使用。
總歸來說,人類的道德敗壞不是人工智慧工具的錯。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球 CIO 同步獲取精華見解 ]
第三種批評是有誤的。當 ChatGPT 或其他聊天機器人產生假訊息時,這只是因為粗略的審查過程尚未抓到包含有假訊息的訓練資料集,其中包括目前的公開「測試版」。抨擊 ChatGPT 的不良資訊就像只因為看到一部糟糕的電影,就抨擊電影這個媒介,這是忽略了重點。
未來,企業將使用自己的資料,或者使用經過徹底審查的資料來訓練生成式人工智慧。換句話說,科技是一件事,資料是另一件事。
想像一下,若 CIA 這樣的組織將其所有情報報告、政治分析和數百萬電話的通話記錄都倒到 ChatGPT 之類的工具中,所獲得的洞察、以及其分析速度將是難以想像的驚人。該技術具有驚人的潛力,但今日的 ChatGPT 的訓練資料是相對不重要的。
4. ChatGPT 由人組成
在面對使用文字溝通的人工智慧時,人們很容易以為自己在和電腦溝通。事實上,像 ChatGPT 這樣的計畫是透過人工程式設計來蒐集人類產出的內容,然後由人工審查並確定優先順序。因此,它也包含了人為錯誤、個人偏見和結論。
5. ChatGPT 需要使用者的技巧來發揮其全部潛力
事實上,所有文字輸入生成式 AI 工具都需要純熟的輸入才能發揮最大作用。提示工程(Prompt engineering)也就是如何與人工智慧工具對話的藝術和科學(類似於搜索引擎最佳化),因此,一個由嶄新工具和顧問組成的行業即將出現,以開發和使用關鍵字詞的知識。
提示工程是一個新的專業,但這也是我們大多數人都會嘗試的事情。你可以利用 ChatGPT 提示與技巧速查(cheat sheet)快速上手。
6.一些行業已經在倚賴 ChatGPT
某些類型的專業寫作已經如機器般的自動和公式化。一些專業人士已經發現,人工智慧可以更快、更便宜地完成這項枯燥的工作。
已經深度倚賴 ChatGPT 的行業之一是房地產業。列出一處房產時,只有特定的參數可以用來描述待售房屋,包括數據(建築面積、總面積、臥室和浴室的數量、價格等)以及描述性和事實性術語,例如翻新、開放式、餐廳等。
房地產經紀人現在只需將所有數據輸入 ChatGPT,然後讓 AI 寫房產簡介。
房地產業並不是唯一使用 ChatGPT 工作的專業人士,他們只是走在了潮流的前端。未來許多專業人士將完全依賴人工智慧工具。
ChatGPT 引起了大家的注意。我們正處於生成式 AI 的早期階段,而每個人都需要更了解這項科技。
(本文授權非營利轉載,請註明出處:CIO Taiwan)