殺手機器  

作者認為,為無人飛機和機器人加入情緒覺察,可以降低平民傷亡,或是避免在戰鬥中遭到濫用,但是許多時候具備情緒的自主武器說不定一樣糟糕。(Alex Evers@Wikipedia / CC BY 2.0)

殺手機器人的潛在威脅

2018-01-19 風傳媒

理查.楊克(Richard Yonck)

*作者為未來學家、作家暨演講者,專精於發展中的趨勢與科技,為多家報章雜誌和網站撰寫文章和封面故事。本文選自作者著作《情感運算革命》(商周出版)

近幾年來,軍方一直在實驗許多科技,這些技術或許能從提升情緒覺察中獲益,尤以無人飛機與機器人為最。只是無人飛機或無人飛行載具(unmanned aerial vehicle, UAV)的概念已經存在超過一個世紀了,卻直到過去二十年才開始廣泛用於戰爭中。在此同時,一系列的機器人和其他自主武器系統(autonomous weapons systems, AWS)也開發用於各種軍事行動。這種逐漸轉向仰賴自主或半自主工具與武器的變化,引來最終將發展「殺手機器人」的疑慮。

儘管還需時數年,但是對這種潛在威脅的警覺,足以讓軍方內部對可能的利益與風險持續對話,同時也有成熟的公民運動尋求制定國際法以禁止這類武器。國際機器人武器控制委員會(International Committee for Robot Arms Control, ICRAC)就是其中之一,該組織認為我們只有稍縱即逝的機會能遏制這個威脅,否則將悔之晚矣。國際機器人武器控制委員會是一個稱為「阻止殺手機器人運動」(Campaign to Stop Killer Robots)的非政府組織之非正式成員,企圖預先禁止全世界的致命性自主武器。
這類武器的主要疑慮之一,是缺乏同理心和情緒智慧。諾埃爾‧夏基(Noel Sharkey)是英國雪菲爾大學(University of Sheffield)的人工智慧與機器人學教授,同時也是國際機器人武器控制委員會的創辦人之一。夏基指出:

這不只是視覺辨別的問題,還要看涉及的推論。我有一個軍方提供的絕佳例子:幾個海軍陸戰隊隊員將一些叛亂分子圍堵在巷子裡,準備殺了他們。正當海軍陸戰隊隊員舉槍正要射擊時,突然注意到叛亂分子抬著一具棺材,於是放下槍,脫下頭盔,並且恭敬地讓對方通過。因為不可以殺害葬禮中的人,如果他們在這時候殺死叛亂分子,就真的會有麻煩了。但是,換成機器人的話,大概就會直接開槍射殺。也許你能將機器人的程式設定為在這些情況下不能開槍,但是如此一來,所有叛亂分子到哪裡都會帶著棺材了。

這又回到易壞軟體的問題。如果必須將某種情況的條件反應硬寫進程式中,但這種情況又不是完全可以預期的,那麼長期下來是行不通的。最後不是會發生預期範圍以外的狀況,就是會有類似人的因素企圖利用這樣的程式設計。情緒智慧和為周遭不同元素及情況賦予價值的能力,對於解決這個問題大有裨益,特別是當如果一個智慧體不但能確立自身的價值,還能為所有參與的各方賦予價值時。換句話說,該智慧體是否展現心智理論,並表現同理心。

情緒的相似物有可能是未來我們接受自主殺戮機器的關鍵嗎?有可能,只是若有可能,但願不會太久。對於自己沒有真正控制權的殺戮決定,指揮官是不會願意負責的。就算人工情緒智慧可能十分逼真,但是它的反應與思考過程能有多「人性」,這種不確定性在人工智慧達到人類水準後仍將久久不去。另一方面,可能還要數十年,機器才能達到近乎逼真、即時的同理心。

欠缺同理心的自主殺戮機器夢魘

自主武器系統的目的是要獨立於人類操作者之外。這種自主可能只出現幾秒或幾分鐘,但是也可能長達數個月或數年。理論上,可能在衝突結束許久後仍在運轉。美國國防部將自主武器系統定義為「一種武器系統,一旦啟動,可以選擇並鎖定目標,不受人類操作者進一步的干預」。如果你認為不會有人故意發射長期自主武器系統,請記住,全球估計還有一億一千萬顆具有殺傷性的地雷埋在地底。雖然就定義而言,這些殺戮機器並非真的自主,但是確實缺乏同理心,也沒有能力關心殺戮對象。它們可以持續運作數十年,在確定停火之後很久仍會造成死傷。將這個意象延伸到可以追捕、挑選並攻擊曾為敵人,但是現在可能已經握手言和的人,就真的是要設法解決的惡夢了。

二○一五年,宇宙學家馬克斯‧泰格馬克(Max Tegmark)在國際人工智慧聯合會議(Inter-national Joint Conference on Artificial Intelligence)上發表一封公開信,呼籲全世界禁止自主武器,而這封信已經有來自全世界超過兩千五百名人工智慧與機器人學研究人員簽署。由於挑選攻擊目標及追蹤的能力是由人工智慧驅動,其智慧在接下來幾年也將持續改良,這些科學家擔心軍備競賽將會導致大規模毀滅性武器變得平價且容易取得。儘管有些國家或許會選擇不用,但是這些武器勢必會在黑市出現,對恐怖分子和獨裁者極具誘惑。

正如公開信的作者所言:「自主武器最適合諸如暗殺、顛覆國家、鎮壓群眾,以及選擇性殺害特定族裔等任務。」公開信的作者在後續的一篇文章中指出,仰賴在這些武器的程式裡設定道德功能,是假定這樣會符合所有人的利益,但是顯然即使有國際法反制,這種功能也會被敵手關閉。

結合情緒和同理心的機器人與人工智慧,情況大概也會一樣。有鑑於幾乎所有裝置或系統都能被駭客攻擊和進行逆向工程,我們應該預料得到,至少會有部分人類參與者涉及其中的最壞情況。

雖然有些人或許認為,為無人飛機和機器人注入情緒覺察可以降低平民傷亡,或是避免在戰鬥中遭到濫用,但是許多時候具備情緒的自主武器說不定一樣糟糕。一個具有先進的情緒智慧,外表還像是親戚、朋友,甚至母親或小孩的人形機器人,輕易就能滲透到安全地帶,並且奪走無數生命。菲利普‧狄克(Philip K. Dick)於一九五三年的經典短篇科幻小說《第二終結者》(Second Variety)中,末日反烏托邦的居民面對的就是一個充斥著自我複製殺手機器人的世界。這些機器有的演化到與人類真假難辨,就是為了用來進行滲透和殺戮。正如同狄克的許多故事,隨著時間經過,這個故事似乎變得愈來愈有可能成真。不用多說,這應該不是我們想要的未來。

情感運算革命
延伸閱讀:
「殺人機器人」令人心驚 專家警告別讓悲劇發生

arrow
arrow
    全站熱搜

    神仙、老虎、狗 發表在 痞客邦 留言(3) 人氣()