photo.jpg


「機械公敵」情節即將成真?
戰爭機器人開發促成新一波軍備競賽

04 May, 2023 鳴人堂 聯合報

1.jpg
圖/美聯社

讓武力更為昂貴

發展全球歸責系統及檢查制度,以確保武器和電腦系統與該系統制度兼容,是昂貴的。這從一般經濟學原理來說,是個問題,但是,破壞性技術的顛覆經濟學,反而認為施加這個成本是好的:它會嚇阻大量囤積那些會造成人類傷害的軍備機器的行為。

有很多方法可以使武力部署的成本加高,從對殺手機器人的部署施加法律要件,到強制人類控制武力任務,再到針對這類技術課稅等等。這些限制,就像對監控的限制一樣,將戳到戰爭未來主義者的痛處,因為他們更喜歡能自由發展和部署自主武力。但是,這裡的經濟低效率,不會只是繁重的官僚行政事務——它也反映了人類價值觀。

機器人化的軍事或警察國家,顯然是對自由的威脅;當我們談到國家暴力時,對武力部署課以有意義的人類控制成本,也是一種好處。「半人馬」戰略將人類專業和AI互相結合,提高了軍事效率和倫理責任;這不僅因為「按鈕」戰爭極可能就是以錯誤為前提的(在假新聞、不負責任的平台和先進的影音偽造技術的世界中,這種可能性更令人不寒而慄),而且監控和社會控制應該要耗費昂貴的氣力,以免「要塞國家」(garrison state)廉價地監視和控制我們的生活。

全球政治經濟也很重要,武器投資就是對於已經感知到的威脅所做出的回應。2018年,美國將軍備支出提高到6,490億美元,其次是中國的軍備支出2,500億美元。中國的軍備支出在二十年間增長許多,而至少自2013年以來,在其持續增長GDP中,它一直保持占GDP一個穩定的百分比(1.9%)。沙烏地阿拉伯、印度、法國和俄羅斯則是次大軍備支出國,這幾個國家購置了六百至七百億美元的軍事裝備和服務。所有的數字都小得令人誤解,因為它們往往不包括國內安全機制設備、緊急撥款和傷兵長期照護(或支持遇難者家屬)的支出。

美國的國防支出往往超過軍備支出排名其後七個國家的支出總和,這種大規模的軍事力量增強現象,可能會讓未來的歷史學家認為它是國家資源嚴重誤導性的投資。諷刺的是,即使在生物安全方面投資了數百億美元,這個世界領先的軍事「超級大國」卻在2020年被新冠病毒摧毀,而許多其他國家則靈活地減少了確診病例和死亡人數。

正如法國智庫蒙田學院(Institut Montaigne)的政治科學家多米尼克.莫西(Dominique Moïsi)所解釋的,「美國為一場錯估的戰爭做了準備,它做足了準備面對新的九一一事件,但是迎來的卻是病毒。」 因為擔憂幻想的威脅,美國領導人投資了數萬億美元的武器,卻在預防措施上節省預算,而這些預防措施原本可以挽救更多生命,美國在這次疫情中所失去的性命,比起在越南、伊拉克和阿富汗等戰爭中失去的人命總和還要多。

2.jpg
圖/美聯社

依據諾貝爾經濟學獎得主約瑟夫.史迪格里茲(Joseph Stiglitz)和哈佛大學甘迺迪學院教授琳達.比爾姆斯(Linda Bilmes)的估算,截至2008年為止,美國人至少為中東戰爭投入了三兆美元,這個數字由比爾姆斯在2016年更新為五兆美元。許多評論家認為,儘管在對抗塔利班方面取得了一些重要勝利(如賓拉登等恐怖分子的死亡),但是,這數兆美元的戰爭投入,實際上卻損害了美國的長期戰略利益,而美軍的軟硬體投資策略,也受到戰爭分析師的廣泛批評。

同樣地,中國研究者的分析,揭露了中國針對新疆的高壓手段投資(包含傳統的保安投資以及由AI驅動的人臉辨識和分類系統),也破壞了中國共產黨(CCP)在國內外的更遠大目標;中國政府表面上是為了應對心懷不滿的穆斯林所造成的一系列持刀襲擊事件,現在已將數十萬人關押進再教育營裡。中共還推廣高科技模式的監控、忠誠度評估和評分系統。

香港震懾人心的抗議活動,至少部分是香港居民為了抵抗不負責任且集權的統治階級所主導的現況。土耳其社會學者澤奈.圖費克吉(Zeynep Tufekci)說,對新疆式末日遊戲的恐懼——到處都是監視器(甚至連家裡都有)和對政權忠誠度的不間斷評估——加劇了香港抗議者的絕望。香港人的抗爭,幫助翻轉了2020年的台灣大選結果;雖然台灣的國民黨在2019年民調一直處於領先地位,但是,隨著香港抗爭議題的延燒,親中立場的國民黨也逐漸失去支持。傾向獨立的台灣總統蔡英文順勢贏得連任,並將繼續培養走向兩岸徹底分治和文化獨特性的公共氛圍。

由於第四章提到的公共領域自動化趨勢,上述最後一段中的觀點不太可能在中國得到廣泛迴響,因為AI強化的言論審查制度可能在短期內有助於鞏固政權的權力,這種媒體武器化,就是要加強公眾凝聚抵抗外部介入的氛圍。可是,長遠而言,即使是非民主政府也必須依賴一些反饋機制來確定什麼有效、什麼無效、什麼有助於合法性、什麼助長了悶燒的民怨。正如同政治學教授亨利.菲洛(Henry Farrell)所主張的:

一個合理的反饋循環可以看到偏見導致錯誤,再導致進一步的偏見,而且沒有現成的方法可以糾正它。當然,威權主義的一般政治,以及典型不敢糾正領導人的態度可能會加劇這個問題,即使這些領導人的政策正帶著大家走向災難。領導人有缺陷的意識形態(我們都必須研讀習同志思想才能發現真相!)和演算法(機器學習是解決萬事的魔法!)有瑕疵的預設,也可能會以非常不幸的方式相互強化。

再一次地,強就是弱的主題反覆出現;中共極致超凡的力量,使它能夠如此密切地監控和塑造言論表達,但是,當這種權力扼殺了批判性反饋時,國家的強硬僵化就會變得易碎和虛弱。

3.jpg
圖/美聯社

這並不是說中國的大國競爭對手美國,在當代治理模式方面可以提供很多範例;美國自己正在滑向後民主狀態,這情形要部分歸因於美國自己已經日益自動化的公共領域。碎片化的媒體無法反映和維護基本的社會規範,以抵抗破壞性政策、捍衛公平選舉。

神經學家羅伯特.伯頓(Robert A. Burton)推測,川普總統可以被模組化為「黑盒子、第一代人工智慧總統,完全以自我選擇的資料和大幅波動的成功標準所驅動。」菲洛認為中國領導人習近平對於反饋意見視而不見,伯頓則描述川普是完全隨心所欲、不斷用憤世嫉俗的修辭訴求,來確立「什麼有效」的施政,以此來轉移對他多重失敗的指責。無論過去美國主導的全球秩序有什麼優點,川普政府都對其不屑一顧,也深深傷害了它的未來前景。

僅僅是權力的積累,並不能保證明智的治理,國際體系的多極化,不只是大國治理失敗的可能結果,對保護全球社會免於受到過於極權專橫或不負責任行使權力的霸權國家過度行使權力而言,也有其必要性。總體上逐步降低破壞能力,與確保安全聯盟有足夠的軍力去阻止大國的侵略和非國家行為者的恐怖主義,兩者之間具有微妙的平衡關係。

有些國家可能需要在國防上投資更多(包括領先的AI技術),但是,一個國家目前在軍備武器上的支出越大,其公民就越應該注意它可能增溫「要塞國家」和軍備競賽之間的動態關係,正如同本章前述段落所批判的內容一般。

傳統公共財政專家曾提出經典的「槍與牛油」(guns and butter)交換關係。增加服務人民的支出,就是削弱戰爭國防的立場;但是,這種國內支出實際上反而可以拯救政權,將資源投注內政,等於減少用於軍備競賽和自欺欺人的武力展示。國家越負起責任,為公民提供高品質的健康、教育、住房和其他生活必需,就會減少投注於為了帝國擴權、讓軍事AI毫無拘束進展的各種計畫。

4.jpg
圖/美聯社

即使我們可以理解,一個較小或較貧窮的國家投資購買致命自主武器以抵禦大國的掠奪,也有可能激怒處境相似的鄰居,競相投資以保持自己的軍備相對優勢地位。比較好的解決方案,應該是建立戰略聯盟以平衡武力。

即使簽訂了正式條約協議,因為實質監督軍備控制協議,有其內在的困難,自我克制的保證也只是配套措施之一,以防止AI驅動軍備競賽。對於具有緊迫性與必要性的計畫,例如國防,持續不斷的社會關注也非常重要。

合作的邏輯

對於大量研究人員(通常由軍方或其承包商直接或間接資助)來說,自主機器人武器的進展是無法避免的,他們用滑坡邏輯來推論:人類對機器的控制是個光譜,一旦初始的步驟啟動了,就沒有清楚的原則能阻止進一步授予自動化系統自主權。然而,科技並不需要遵循這樣的發展路徑,合作的形式或是無情的競爭模式,都是可行的。社會規範過去曾經而未來也將繼續阻止許多可能的武器的產生。

因為涉及無數的變數,殺手機器人的邪惡問題並沒有解決的方法,但是,我們可以從歷史上類似的困境去學習,而變得更有智慧;這裡我們可以從核子擴散國際政治經濟學者身上學到很多,例如,伊蒂爾.索林根(Etel Solingen)研究了為什麼有些國家和地區傾向投資大規模毀滅性武器,而其他國家地區則沒有。國際政治學經典的「現實主義」理論強調軍備競賽的力量,將各國「走向核武」的決定,歸結於他們的不安全感(若是反過來看,這其實又由對手和敵人的力量決定)。

5.jpg
圖/美聯社

但是,現實主義理論並沒有解釋,為什麼這麼多國家未能研製出核彈,即使它們面臨的安全威脅比新舊核武大國所面臨的威脅更大。索林根認為政治領導在此扮演很重要角色,各國可以理性地決定,要聚焦(國內)經濟發展以及(國際)商業競爭與合作,而不是核武化,因為核武計畫無論在經濟和聲譽上都要付出昂貴的代價。

例如,索林根仔細研究了台灣的情況,因為中國將台灣視為叛亂的省份,所以整個20世紀中葉,台灣都面臨著特別困難的安全局勢。台灣本可以朝著製造更多可武器化材料的方向,發展其核能計畫;相反地,國民黨(過去長期的執政黨)的領導階層,戰略性地選擇用經濟成長和貿易來確保其政權合法性,而不是加深與中國的對抗。於是,隨著經濟的成長,台灣的軍事投資比例逐年下降,同時台灣的核能企圖心也只專注於和平用途。

當然,索林根的「能量聚焦」理論並不是這種戰略態勢的唯一理由;台灣長期的領導人蔣介石是從中國大陸來台的流亡者,他根本不想考慮轟炸他在中國大陸的同胞。美國也對禁止核子擴散做出堅定承諾,並向台灣施壓以維護禁止核子擴散的國際規範。這些因素也符合索林根理論裡更大的框架,因為它們強調了台灣與當時大國的相互連結與合作。

當我們要將這種政治經濟學框架應用於致命自主武器(LAWS)時,核心的問題是,如何確保不是只有社會規範和法律能禁止特別具有破壞性的科技,還要追求這些科技的經濟和聲譽成本。不僅政府可以扮演角色,企業也可以在這裡發揮建設性的作用;2019年OpenAI不願發布其言論生成模型,就是一個很好的例子。

AI驅動的文本生成器,可能看起來不像是一種武器,但是,一旦結合社交媒體自動生成創建的檔案文件(搭配深偽技術偽造的AVI影音檔),機器人言論將成為專制政權的完美工具,用來破壞網路意見的有機生態;此外,軍方也可以應用該技術來干擾其他國家的選舉(假訊息)。或許,該技術完全不要發布使用,才是最好的選擇。

※ 本文摘自《二十一世紀機器人新律:如何打造有AI參與的理想社會?》

6.jpg
圖/美聯社

7.png
《二十一世紀機器人新律:如何打造有AI參與的理想社會?》
作者:法蘭克・巴斯夸利(Frank Pasquale)
譯者:李姿儀
出版社:左岸文化
出版日期:2023/03/08

內容簡介

美國出版商協會PROSE獎「法律和犯罪學」決選

向艾西莫夫「機器人定律」致敬,為了二十一世紀而生的「AI機器人新律」
人類如何在AI時代,避免失去自身利益?

● 無人機因為打擊精準,運用在戰場上比較人道?
● 醫療AI因為被輸入大量資料,比醫師的診斷還可靠?
●當AI客服已經可以發出「嗯」「啊」幾可亂真的回應,
可以解決最單純的餐廳訂位服務,
為什麼會有倫理的問題?


  如果我們對AI的想像力只及於將AI自動化當作降低人力成本、替代人類勞動力的方法,我們不只被毫無創意的「成本病」綁架,還失去與AI一起邁向理想社會的契機。是時候該討論如何更積極介入由AI打造的新社會了,而不只是讓演算法黑箱作業。也不能只是批評演算法,而是要在政策、立法和倫理議題上,有具體的原則和作法,建立課責制度,當AI產品違反社會秩序時,我們有完善的制度可以追究責任。

  作者巴斯夸利不只在學術領域卓然有成,更在政府部門擔任諮詢委員,提供建議供現下邁向AI社會的指引。於書中,他先向艾西莫夫「機器人定律」致敬,再提出「機器人新律」,作為我們與AI互動的準則。

  第一、機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作。
  第二、機器人系統與AI不應該假冒人性。
  第三、機器人系統與AI不得強化零和軍備競賽。
  第四、機器人系統與AI必須隨時標示其創造者、控制者及擁有者的身分。

  作者從健康照護、教育學習、新聞輿論、法律判決、信用評價、軍事國防等方面,示範如何將這四個原則應用在這些領域。這四個原則背後所揭示的是AI與人類社會的理想關係,不僅能揭露不遵守將帶來的惡果,更能使我們在確認大方向之後,維持人類的尊嚴,保衛我們的民主成果。

作者介紹

作者簡介
    
法蘭克.巴斯夸利Frank Pasquale

  現為美國布魯克林法學院教授,專長領域為人工智慧法律、資訊法等。

  畢業於美國耶魯大學、英國牛津大學。其研究領域著重於健康照護、隱私、資訊、網路、演算法之法律與政策、數位科技法制以及智慧財產權法等,學術成果斐然。二○一五年出版《黑箱社會》(The Black Box Society: The Secret Algorithms That Control Money and Information)一書,針對當代演算法應用所形成的黑箱社會及其運作、影響進行深入討論,並試圖提出解決方法。該書不但獲選為當年度最受矚目書籍、最佳學術論著外,現已翻譯為中、韓、法等超過七種不同語言。

  同時,巴斯夸利目前為美國國家人工智慧諮詢委員會(U.S. National Artificial Intelligence Advisory Committee,NAIAC)成員,為美國總統和商務部人工智慧倡議辦公室(National AI Initiative Office,NAIIO)提供建議。過去他亦曾為各國政府及民間單位提供醫療衛生、網際網路和金融相關領域專業諮詢,包括美國衛生及公共服務部(HHS)、美國眾議院「司法、能源與商業委員會」(U.S. House Judiciary and Energy & Commerce Committees)、美國參議院銀行委員會(Senate Banking Committee)、美國聯邦貿易委員會(FTC)、歐盟執委會各署(directorates-general of the European Commission)及加拿大和英國官員等十數個政府或民間單位。

  巴斯夸利不僅專精於學術研究,更將複雜的法律政策論述,透過公開演講、著述以及公共服務傳遞於社會公眾,以因應近來人工智慧等資訊技術持續蓬勃發展所可能產生的法律、倫理及社會議題或困境,提出解方。


譯者簡介    

李姿儀

  現為國立台灣科技大學專利研究所助理教授。

  美國伊利諾州大學芝加哥分校法律博士(JD)、加州大學柏克萊法學院法學碩士(LLM)、台灣大學地理學博士(PhD)、英國華威大學文化政策碩士(MA)。國際隱私權專家協會(IAPP)美國資訊隱私專業認證(CIPP/US)。曾擔任美國聯邦法院伊利諾州北區分院法院助理、美國納粹大屠殺藝術追索計畫公益法律服務,及台灣文化部助理研究員。

 

目錄

【推薦序一】
人類社會的演算法:我們將往何處去?    劉靜怡 (台大國家發展研究所)

【推薦序二】
人工智慧無法到達的他方    王柏堯(中研院資訊科學研究所)

【推薦序三】  
通抵應許之地的律法  邱文聰(中央研究院法律學研究所研究員兼中央研究院智財技轉處處長)

第一章    緒論
以撒.艾西莫夫(Isaac Asimov)的機器人定律/機器人新律/專業精神與專業知能/專業知能(expertise)兩大危機/成本的好處/本書內容架構

第二章 療癒人類
決定何時該尋求醫療照護/AI的核心能力:避免常見錯誤/資料、歧視及健康不平等/不負責任四騎士/誰來訓練「學習型醫療照護系統」?/你的治療應用程式為誰工作?/解放護理人員?還是將護理工作自動化?/機器人照護的政治經濟學/在醫學中保持人味

第三章 超越機器學習者
教育的多重目的/簡單的新自由主義思維/將教育自動化/你的教學機器人究竟為誰工作?/持續注意與關注的缺點/修補或結束教育科技監控/對於機器人幫手,應有更積極的選項/跟什麼比?AI教育科技與低度開發國家/抵抗新行為主義/以人為本的教育

第四章 AI自動化媒體的「異智慧」
當文字可以殺人/大型科技公司的「不在席投資者」 問題/恢復網路媒體的責任/打散網路注意力的工具/正義和包容性的治理不是演算出來的/被遺忘的權利:人性自動化的測試/馴服自動化的公共領域/終極機器人來電者/回歸新聞專業精神/將媒體AI人性化

第五章 由機器評價人類
機器人評價(robotic judgments)的吸引力(和危險)/誤認,就是不尊重/以貌取人:從人臉辨識到人臉分析/當銀行業普惠金融 成為可怕的掠奪性工具/信用評等社會中的內化服從/扭轉局面,轉而占「評價式AI」的上風/生產力vs.權力

第六章 自主的力量
想像一下用機器人進行屠殺/殺手機器人令人不安的案例/殺人機器人與戰爭法/在大國競爭中加碼賭注/施行禁令的障礙/對戰爭機器人負責/讓武力更為昂貴/合作的邏輯/「科技不作為」與軍用AI商業化的內在阻力/合作之路

第七章 反思自動化的政治經濟
從職業訓練到創新治理/從補助到輔助原則/高等教育的本質和工具性/在自動化時代重整稅收政策/從全民基本收入到工作保障/質疑「成本病」/自然而然的經濟轉型/負擔的方法:公共財政的更新/從「更多的AI」到「更好的AI」

第八章 運算能力和人類智慧
自動化的政治、經濟與文化/自我感覺良好是種自欺欺人/最終的顛覆/具像化的心靈與人工資訊處理者/外包人性/藝術、本真性與擬像/勞動的願景/擴大「可說」的範圍/藝術的回應與道德的判斷/自動化「自動化發動者」/共同創造工作的未來

推薦序之一

人類社會的演算法:我們將往何處去?
劉靜怡教授 (台大國家發展研究所)


  本書作者巴斯夸利是我相熟多年的哈佛學弟和學術界好友,除了長年以來在歐美法學界相當活躍之外,目前更是美國商務部「國家人工智慧諮詢委員會」(National Artificial Intelligence Advisory Committee,簡稱NAIAC)這個法定委員會中,絕無僅有的兩位具法律學者背景的諮詢委員之一(另一位是任教於史丹佛大學的Daniel Ho教授)。

  這個委員會是根據《國家人工智慧創新法案》(the National AI Initiative Act of 2020)此一聯邦法律的授權二○二一年秋季正式成立,接著在二○二二年春季確定委員人選而開始運作的。這個委員會的職責,主要是針對人工智慧(AI)相關議題向美國總統及其他聯邦政府機關提供建議,究其目的,不單單是美國想藉此確保其在人工智慧研發上的領導地位而已,也決意在公私部門中推動「可信賴的人工智慧」(responsible AI)此一價值取向濃厚的原則,並且針對人工智慧對勞動力與工作樣貌所帶來的影響預作準備,以及討論人工智慧對個人基本權利所造成的衝擊等等。

  對於熟悉作者學術關懷和學術成就者而言,巴斯夸利作為NAIAC首任委員這個在美國人工智慧領域極具象徵意義的重要職位,可謂實至名歸。而對於作者著述來說,本書是其在哈佛大學出版社所出版的第二本專書,其誕生可以說是他學術寫作生涯中極其自然的發展。

  就近年來歐美學界關於演算法相關議題的開發耕耘歷史來看,作者的前一本書,也就是同樣由哈佛大學出版社二○一五年所出版的《黑箱社會:控制金錢和信息的數據法則》(簡體中譯名,The Black Box Society: The Secret Algorithms That Control Money and Information)這本書,可以說是具有定錨作用。在該書中,作者以相當細膩的描寫手法說明了各種目的及其運作幽微不清的公私部門資料庫,以及相應之下各種人工智慧演算法的運用,對於政治、教育、財金、商業等領域,帶來了哪些幾乎難以逆轉的負面影響,並且,基於上述觀察,巴斯夸利也從法學者獨有的訓練和視野出發,在該書中提出了不少既具有嚴謹論證特色又堪稱務實的主張和建議。

  二○一五年《黑箱社會》書出版至今,在歐美學界各領域均獲得高度重視和廣泛引用,幾乎已是不容否認的事實。例如嗣後在二○一九年出版《監控資本主義時代》(The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power)此一巨著備受矚目的哈佛商學院教授肖莎娜.祖博夫(Shoshanna Zuboff),就曾經明白指出巴斯夸利的論述,對她的思維與寫作產生頗為深遠的影響。

  於是,隨著書名,「黑箱社會」廣為人知而逐漸成為資訊及演算法相關議題的主軸之一後,人類社會在人工智慧的潮流下,到底將走向何方,也就自然而然地成為作者接下來難以拒卻的知識探索和寫作之旅。

  因此,作者在新冠疫情全球爆發之際於二○二○年所出版的第二本書中,以艾西莫夫(Isaac Asimov)的「機器人定律」為基礎,提出「機器人四大新律」的主張,並且具體而微地以醫療、教育和媒體等領域當成分析和探究對象,說明人工智慧的優劣長短所在,並且進一步從各種AI評分判斷系統、自動武器系統的正反辯論、人工智慧政治經濟學分析、以及以人為本的AI(human-centered AI)等面向,勾勒出作者對於人類專業智能在人工智慧潮流下應該扮演何種角色的看法。以上所述種種,在我讀來,幾乎都可以說是作者延續了前一本書所提出的主張,進而透過旁徵博引和更為深入的論證,嘗試為儼然已經到來的演算法社會,奠定「人之所以為人」的理論基礎。

  巴斯夸利可說是個人工智慧樂觀主義者,他認為人類應該有能力延續「維護的文化」而非「破壞的文化」,此種人工智慧文化的內涵,是對人類的輔助與補充,而不是取代人類。雖然,乍看之下,本書在提倡二十一世紀機器人新律之餘,似乎是以人類專業智能在人工智慧社會中如何繼續扮演核心角色為論述主軸。然而,這個以人為本的人工智慧原則,似乎也促使我們思考演算法社會「人之所以為人」的另一個重要面向:當人工智慧相關科技衍生出對人類社會的各種衝擊時,對於像我這樣關心憲法議題的資訊法學者來說,正是民主憲政的運作又遭受另一波嚴峻挑戰的關鍵時刻。

  換言之,如果「以人為本」是「我們」「人類」對人工智慧或演算法社會的基本共識,那麼,人類的憲法傳統運作模式,究竟應該以及如何因應演算法社會的「人類基本權利」保障挑戰,以免披著技術決定論與效率外衣的演算法所形塑和支撐的各種有形無形權力,可以巧妙而令人難以察覺地迴避民主監督,導致民主憲政的基本價值在科技創新的口號下遭到淹沒或稀釋。保障人類基本權利或許也是我們在思索作者所期待的由人類治理而不是機器統治的世界是如何可能、如何維護之際,必須齊心合力做好的功課。

  最後,要附帶一提的是,在這本書的寫作與誕生過程中,作者曾經受筆者之邀三度來到台灣進行學術訪問,所以,本書絕大部分的內容,曾經在訪台期間多個演講中發表過,作者也就本書內容和台灣人工智慧法律和科技等相關領域多位學者深入討論,這也是本書謝辭中出現多位台灣法律學者名字的背景。然而,更重要的是,如果要說台灣出版這本書中譯本具有任何重要意涵的話,不應該僅止於這本書的台灣連結,而是向來追求科技潮流的台灣社會,應該認真思考這本書所標舉的「以人為本的人工智慧」,其真正價值與啟示所在。

內容連載 

緒論(節錄)
 
基於上述目標,本書將深入探討機器人四大新律。
 
1.機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作 。
 
因為科技會造成失業的說法,促使社會大眾開始討論未來的工作。有些專家預測,所有的工作都將因科技的進展而消失;有些專家則指出自動化發展路上的障礙與限制。政策制定者所關心的問題是,對於機器人技術的發展,什麼樣的限制是合理的?而哪些障礙應該再仔細評估和予以移除?例如,切肉機器人的發明,好像頗為合理,但是,托嬰機器人(robotic day care)就讓有些人質疑。對托嬰機器人的擔憂,是一種單純盧德主義式 的反應?還是蘊含著對於人類孩童成長的本質,有其他更深層的反省與思考?再舉個例子,與執照相關的現行法規,是規定分析疾病病理症狀的應用軟體,不得以醫生診斷之名行銷。究竟,這些限制作法究竟是不是好的政策?
 
本書分析這些案例,並且引進經驗面向與規範面向的論證角度,主張在各領域採用AI時,應該減緩或加速的原因。這裡涉及很多重要因素的考量,尤其會因工作與管轄權面向而異,但是若能發展出一個統一、有組織性的原則,就等於是對人的自我價值,以及對社群治理做出有意義的工作。自動化議題中的人性思維,本書會優先著重在協助勞工職場與勞動專業的創新;這些人性思維會讓機器做危險或細瑣的工作,同時也確保目前做這些工作且未來可能由機器替代的勞工能夠獲得公平的補償,並且有機會轉換到其他社會角色 。
 
但是,這種持平觀點,卻會同時讓科技愛好者與科技恐懼者不滿。同樣地,強調治理的立場,也會同時得罪反對「干預」勞動市場的一方,以及厭惡有個「專業管理階級」的另一方。各種職業儼然形成經濟種姓制度,讓某些工作者相對於其他工作者享有不公的特權,這樣說來厭惡專業管理階級者所抱持的懷疑,的確有其道理。然而,想要一方面促成各種職業追求更崇高的目標,同時鬆動職業的階層化,還是有可能的。

職業專業化的核心價值,在於賦予工作者在生產組織中能保有一些話語權,以此來交換組織加諸在他們身上的專業倫理義務,以促進公共善 。由於高等教育與研究的推進,無論在大學的學門分科或在實務場域的辦公室現場,各種職業已經培養出「分散式專業知能」(distributed expertise),不同的專業知識分散在不同的多數人身上,使組織內各階層均有相關專業人員,藉此也減緩了專業技術官僚與一般文官階級之間的緊張關係。我們不應該贊同破壞式創新者的主張──也就是廢除或禁止職業分類;相反地,想要發展人性的機器自動化,必須強化既有的專業社群,也要同時創造新的專業能力。
 
什麼是「專業」?妥適的定義應該是寬泛的,而且應包含許多加入工會的勞工,特別是那些保護涉及危險技術的工會組織。例如,教師透過工會組織提出專業意見,反對透過自動化系統過度「訓練與測驗」(drilling and testing)的政策,除了保護教師工作權益之外,在很多情況下也都是同時提升學生利益。當前各種工會已逐漸專業化,讓工會會員更有能力與權力保護他們所服務的對象(例如老師與其服務的學生),因此工會也應該在AI革命中扮演重要角色。

有時候很難證明「以人為本的處理程序」會比「自動化程序」更好;粗糙的金錢衡量指標(crude monetary metrics)也能產出複雜的關鍵標準。例如,在「暴力自然語言處理」(brute-force natural language processing)的基礎上,機器學習的程式可能很快就能預測某一本書是否會比另一本書熱銷;從純粹經濟觀點來看,這種程式可能比真人編輯或者老闆挑選文稿或劇本來得更有效率,然而,創意產業工作者可能會站出來捍衛自己的鑑賞能力。市場上有些作品可能不是普羅大眾喜歡但卻有存在必要性的作品,此時,真人編輯在出版、判斷、挑選與行銷方面,就扮演著極為重要的角色。同樣的邏輯,也適用於新聞記者這個專業,即使內容自動產生器可以生產出大量的文字著作,然而,這種數量上空洞的勝利,卻無法取代一篇真實、誠摯、又有深度人性觀點的報導。因此,大學中的專業學院,其重要任務之一,即是應該闡明並重新檢視媒體、法律、醫學與許多其他領域的專業標準,避免採用那些為了自動化而過度簡化的專業標準。
 
即使是在物流、清潔、農業和礦業等等那些看起來最有自動化需求的領域,勞工也將在AI與機器人技術的長期過渡過程當中,扮演關鍵角色。蒐集或創建AI所需的資料,對很多人或領域來說,都是艱鉅的任務,而法規可以使這個工作任務產生更多意義與自主性。例如,相較美國對卡車司機三六〇度的監控和控制,歐洲的司機可依據歐盟隱私相關法規抵抗這種美國卡車司機所受到的壓榨 。但要說明的是,提出歐洲的作法,並不表示主張危險的職業不須受到監督。安裝監測感應器可能可以發現駕駛的反射本能所導致的問題,然而,以安全漏洞爲目標的感應器偵測行為,和使用影音持續記錄駕駛所有活動、進行長時間的監控,前者是偵測,後者則是監控,這兩者之間仍有很大的差異。在缺乏人性尊嚴的監控(surveillance),以及合理且有限的監測(monitoring)兩者之間取得恰當的平衡,對絕大多數領域來說,都是至關重要。

此外,我們也可以在技術科技的轉型過程中把人類設計進去,亦即把人類放在這個轉型的藍圖中,或至少讓人類掌有選擇權。例如,豐田汽車公司已經用機器涉入程度的高低,來推廣他們的汽車;從私人司機模式(需要真人司機極少的監督),到保護者模式(當人類操作汽車時,汽車電腦系統協助避免意外發生) 。又如,飛機的自動駕駛功能,已有數十年歷史,但是商用客機仍然要求至少有兩位真人飛行員;即使是偶爾才飛行的旅客也會同意,自動化飛行駕駛無法馬上取代真人飛行駕駛 。
 
交通工具是最容易應用AI的範例之一,一旦設定目的地,旅行的重點就確定下來,不再有爭議。其他服務領域則不同,客人或客戶的想法,可能隨時會改變。一個班級的學生,可能在春光明媚的日子裡,太過煩躁興奮而無法反覆練習九九乘法表;某位社交名流可能在自己挑選了客廳裝飾掛畫之後,卻又告訴他的室內設計師,擔心太過俗艷;健身教練可能會猶豫與擔憂她的客戶在跑步機上跑太久。在這些案例中,溝通是關鍵,而人際互動中的耐心、謹慎與洞察力,也同樣是關鍵 。
 
假如幾千個健身教練都配置Google眼鏡,並且記錄他們工作過程中所有的遭遇,那麼,因此蒐集到的各種鬼臉、白眼、受傷事件或成就感的表情與行為資料,也許可以匯集成不錯的資料庫,而這資料庫則能協助健身教練在面對抑鬱寡歡的健身客人時,決定最佳的人際互動反應。不過,即使我們開始想像如何建構這種資料庫(什麼樣的動作表情,以及到什麼程度,可以被標示為好的或壞的結果),也必須理解到,未來建構與維護優質AI與機器人時,人類將扮演非常重要的角色。人工智慧必須保留人工,因為它永遠是從人類協作中所建構出來的產物 。再者,近年AI科技的多數進展,都是專門用來執行工作中的特定任務,而不是承擔整個工作或社會角色 。

許多科技讓工作更有生產力,更有意義,或是二者兼具;正如義大利政府所設立的「數位義大利」機關(Agency for Digital Italy)所指出的,「科技通常不會完全取代專業人士,只會替代某些特定活動」 。當代的法律系學生可能很難相信,網際網路世代之前的律師,必須爬梳多少古老冷門的文獻,才能評估某個案件的有效性。當前的法律研究軟體把案件評估過程變得更為容易,而且拓展了資料取得的便利程度,讓我們能取得更多的資料,以支持我們主張的論點;但是,這並不是把事情簡單化,反而可能讓這些工作變得更加複雜 。對於律師來說,可以花更少時間埋首在搜尋案件相關的研究文獻上,換取更多時間用於整合案件這類花費腦力的工作上,可以說是非常正向的好事。至於在其他領域,自動化也可為其工作者帶來類似的高效率,而非只是替代大量勞力而已。以上說的這些,不只是一種觀察而已,也可以是適當的政策目標 。
 
2.機器人系統與AI不應該假冒人性。
 
從艾西莫夫的時代,到炫麗的美國電視劇影集《西方極樂園》(Westworld),人們對於人形機器人前景的想像,既迷幻又嚇人,也總是挑逗人心。有一部分鑽研機器人的研究者渴望找到完美比例的金屬骨幹及塑膠皮膚,以打破「恐怖谷」(uncanny valley)理論──也就是看到幾乎是人類但又不完全是人類的人形機器人,可能產生的厭惡噁心感。機器學習已經能成功駕馭產製「假人」照片的技術水準,而讓人信以為真的合成聲音,也可能很快地就能普遍化 。當工程師們努力微調修正這些演算法,以追求以假亂真的完美時,我們都忘了提問一個更重要的問題:我們是否想要生活在一個根本無法知道眼前所面對的是人類還是機器人的世界裡?
 
人性化的科技,與假冒獨特的人類特質,是完全不同的兩件事,而且,兩者差異很大。歐洲重要的倫理學家主張「當人們實際上面對的是演算法或是智慧機器時,法律應該對這些誤導人們以為自己是在跟真人打交道的技術,有所限制。」 立法者也開始針對各種線上情境,制定有關「機器人揭露」(bot disclosure)的法律。

儘管此等倫理共識越來越普及,不少AI的次領域──例如分析與模擬人類情緒的情感運算技術(affective computing)──仍致力於達到讓人無法辦別真人或機器的AI技術層次。這些研究計畫也許會以創造出有如史蒂芬史匹柏《A.I.》電影裡面那種難以辨別的先進機器人為最高目標,而「那樣的人形機器人應該如何被設計?」,也是倫理學家們長期以來辯論的議題;但是,如果那種令人難以分辨真假的機器人,是根本自始至終不應該被創造出來的呢?

arrow
arrow
    全站熱搜

    神仙、老虎、狗 發表在 痞客邦 留言(0) 人氣()