photo.jpg

ChatGPT。 路透

經濟日報社論
善用科技紅利
消弭數位歧視

2023-03-26 03:01 經濟日報

今年以來,全球熱門的科技關鍵詞,非AI聊天機器人ChatGPT莫屬。目前ChatGPT在全球的活躍使用者超過1億人,而在母公司OpenAI幾度獲得微軟等金主大力支持下,OpenAI也將此一大型語言模型升級至GPT-4,可以預期的是,隨著AI功能愈來愈強大、愈來愈好用,一個深度、有感的AI世界也將隨之降臨。

AI透過龐大複雜的計算,給予人類各種工作與生活上的智慧指引,舉凡開車、投資理財、醫療、工作排程,以及排除疑難雜症等,都難不倒它。和傳統AI相比,ChatGPT是一種生成式AI,它能透過機器學習模型,來研究歷史數據,並以深度學習技術來創造更多作品,如文字、圖像、音檔,甚至是一部影片。

受ChatGPT風行影響,近期全台猶如進入AI有感境地,不僅國科會矢言年底前要推出台版ChatGPT的基本架構,以防AI在汲取大量簡體中文資料後,不免出現相比繁體世界的文化、價值偏差;最近金管會放寬銀行「上雲」後,也讓不少金融業者直呼「及時雨」,將有助金融業者發展出更加多元的AI應用場景。

目前國內金融現場運用AI技術情境不少,像是發展精準行銷、線上客服語音對話,或是作為反洗錢示警,以及機器人理財等。可以預見,未來當金融業者有機會搭載如台版ChatGPT一般的大型語言模型之後,還能再進一步發展更為智慧的擬真客服、AI財報健檢,或者協助撰寫產業前景分析、徵信報告等。

生成式AI功能如此強大,也難怪有人會擔心,AI會搶走人類的工作;學校或企業主也會擔憂,未來學生寫作業、員工寫報告,都會找生成式AI代筆,擾亂了職場與教育現場的公平性。這一層次問題,尚可透過建立使用規範與倫理來解決,但是,眼前卻也有兩個AI帶來的副作用,亟待政府及各界,現在努力找尋興利除弊之道。

首先是生成式AI其實也助長了「深假技術」(Deepfake)的發展,未來將有愈來愈多完美擬真、真假難判、不知來源的假新聞、假影片與假資料橫行,由此侵害個資,也讓資安亮起紅燈。例如,人臉辨識解鎖是現在很多人常用的生物辨識技術,未來就有可能出現有人以深假技術,冒充當事人竊取個資與財物。

在這種情況下,政府、企業與個人除了要更有資安警覺性,與投入資安防護外,未來也要加強發展AI監理與確信機制。面對功能強大的AI,唯有AI能夠治理AI,以及管理AI產生的流弊。

其次是,AI的運作,奠基於海量資料的撈取,其演算過程是否隱含歧視,值得探究。幾年前,國外就有某科技巨擘公司在自家的求職系統設定帶有偏見的演算法,例如,只要輸入「女性」,就會扣分;在台灣,先前也有立委關注,金融機構盛行的機器人理財,其演算法,是否也會「偏廢」來自某些地區或者不同性別以及年齡的族群,因而給予不同的授信評分,影響其原本可以享有的金融服務。

在AI風行的當下,黑箱裡的演算法到底有沒有歧視,是否特別偏好某一類的「準有錢人」,而造成另一類族群的「數位貧窮」,這些都要能夠攤在公司治理的機制中獲得檢視。

同樣的道理也出現在,當政府施政愈來愈仰賴生產力與效率都在人腦之上的AI,一些容易淪為「數位難民」的高齡、身心障礙與偏鄉居民,在AI面前是否也能獲得公正公平的待遇?而當有愈來愈多的人受惠於AI,得以發達生產力的同時,政府如何消弭贏家與輸家的差距,也值得未雨綢繆。

arrow
arrow
    全站熱搜

    神仙、老虎、狗 發表在 痞客邦 留言(0) 人氣()