環報第86期:巴黎協定是弱者俱樂部?從氣候訴訟說起

環境法治觀察站

「機」戰未來: 殺手機器人、人道與環境
隨著人工智慧與仿生機器快速發展,未來戰爭可能是機器人對人類,或是機器人對機器人。2017年五角大廈宣布投入10億美元投入自動化軍事武器的研發,預計到2025年,美軍的機器人數量會超越真人。現在全球已知投入致命自主武器的國家至少有六國: 美國、中國、英國、俄羅斯、以色列和南韓。

很多人對這樣的趨勢感到憂心,擔心機器人一旦被輸入程式後,就會變成「無血無目屎」的殺人機器;但是有一些機器人專家則持反對意見,他們認為致命的自主武器反而可以減少戰爭中的平民傷亡人數,因為機器人更精準、不會累、沒有報復情緒,如果程式設定得宜,更可以避免在戰爭中「濫殺無辜」,甚至設定座標避開自然保護區。事實上,美國國防部在2012年就已發布一項指令,所有致命自主武器的設計,都要遵守「由人類判斷武力行使適當程度」的條件,並禁止由人工智慧自行選擇人類目標,即便是防禦性武器也是如此。但即便科技大國自制,自主武器技術一旦成熟,難保恐怖主義陣營不會取得技術而濫用。

2019年5月10日,台灣國際法學會、中正大學法律系共同舉辦「Killer Robots 及國際人道法論壇」,邀請山東大學(威海)法學院講師—崔岩博士;中正大學財經法律學系助理教授—林韋仲博士;與廖老師共同探討自主殺人武器規範的現在、過去與未來。並邀請淡江大學航太工程系蕭富元副教授;中華民國紅十字會總會聯絡發展處黎健文副處長;國防大學管理學院法律學系田力品上校副教授參與會後與談,匯聚國際法、工程、人道、國防領域的專家意見。

活動主持人廖宗聖教授首先釐清,這些致命自主武器並非沒有規範,針對自主性武器如何規制的問題,可以先看日內瓦公約第一附加議定書--關於保護國際性武裝衝突受難者的附加議定書, Conventionon Certain Conventional Weapons, CCW第36條以及《特定常規武器公約》及其五項議定書: 不可檢測碎片武器、限制使用地雷誘殺裝置、限制使用燃燒武器、限制雷射致盲武器,及清理戰爭遺留爆炸物。CCW第36條要求武器的研發要審查相關規範,公約的立法進程就是最原始的相關規範,我們未來在針對新的武器的規範就可以從這些既有的規範去找尋可能的規範模式。

來自山東大學的崔岩博士將焦點集中在自主性武器的「自主性」問題: 其規範起源來自美國國防部的文件,提到自主性武器的定義,亦即:「一旦啟動後不需要人為操作便能自主選擇目標的武器」,在此定義下展開對於自主性武器如何攻擊與問責的一系列討論: 我們能不能根據國際人道法上的作戰規則,建立一種理性的控制系統? 例如在國際人權理事會當中,許多關注的議題是,成員國應該暫停自主性武器的測試和研發,直到各國在控制機制上達成共識,但實際上各國卻持續加強這自主武器的軍備競賽;其他國際人道法與自主致命武器相涉的議題包括:審查原則、武器的有效控制、公眾良心原則、區分原則、預防原則、問責原則等;最後國際人權法涉及的是:尊嚴權、生命權、禁止酷刑以及不能進行不人道的行為等問題,機器能不能尊重人的尊嚴也是研究中的問題。

中正大學林韋仲助理教授統整目前國際上對致命自主武器的討論進度: 第一,對自主性致命武器系統國際間還沒有清楚定義;第二,必須將國際人道法和國際人權法納入討論;第三是對於可責性,不管自主性有多高,我們都不能否定人類必須承擔最終的責任;第四個問題是對武器透明化的要求。

其後的圓桌會議中,蕭富元副教授指出,什麼叫做robot? 通常翻譯是機器人,但是這個翻譯不精確,事實上只要可以用程式進行控制,對外在環境作出反應都叫做robot,廣義應該包括人造衛星、太空船等等。人工智慧的自主程度從完全依照設定好的程式走,到自己規畫路徑,到由機器決定自己要做什麼(目前科技還做不到),武器應該也可以有這樣的區分,相應也要有不同的責任歸屬的法律規範。

田品力上校副教授認為軍人在使用自主性武器的時候,就像是躲在螢幕後面像打電動一樣,恐怕很難對自主性武器產生的傷害有所警惕,這與一開始發展自主性武器是想要精準打擊、減少傷亡的初衷不一樣。目前台灣對於自主致命武器的討論比較少,但是我們現在不討論的話,等到將來發生衝突的時候,我們就非常難區分出責任的歸屬為何。

黎健文副處長提醒,自主武器的研發過程分為:研發、製造、販售、部署與使用,我們要對哪個環節課責?目前各國競相發展自主武器,但責任不應推給社會,最終負責的應該是個人。

最後以環品會謝英士董事長的發言作為結尾:

殺手機器人、戰爭、人道,應該是三位一體的,問題的發生與解決都要一併思考。

在武裝衝突中,如何維持人道的精神?一直都是個牽涉道德與法律的問題。殺人本來就不對,換成機器人殺人,不會因此有所不同;尤其是設計來殺人的那些武器;機器人沒有人類與生俱來的情感,沒有歷史、宗教、文化、人性的包袱,是不是會帶來更致命的結果?必要性、比例等等原則,是否足以適用?對平等、正義與自由的衝擊,恐怕比想像的還要來得大。

怎麼教機器人有關生命權的意義?高度致命的殺人武器是不是應該禁止?如何可能禁止?這些既是戰爭法,也是人道法的挑戰。戰爭法與人道法也是隨著技術的演進而愈發艱鉅;新型武器的出現,就會帶來新型的人道問題;

人工智能與武器結合,人道主義會是什麼景象?

戰爭、飢荒、災難,要救誰?在哪裡?有沒有效果?這些是最大的交集。機器人最能達到中立與不偏頗的原則,人道最需要的精神元素。但,會不會還沒有帶來優點之前,機器人的使用就對人道主義帶來致命性的干擾?

人工智能如果無所不能,那麼投入戰爭,大概也不是不能想像,且會愈來愈頻仍。

也許現在預測將來人工智能是否會完全取代人類資源或者會不會發生機器人戰爭還言之過早。當前國家的人工智能技術相差很大,這個領域顯然還很難成為「國際普遍的共識」;國際法上的「實力路徑」還是主旋律,國際人道法的焦點還是要放在「實力國家」。人道法的解釋與應用會不會因此而有所不同?人工智能的設計、應用與決定,終端使用者的責任、所屬國家的歸責性、以及國際刑事法院的見解,都是可能的變革。
 
 
發行人:謝英士主編:高思齊
環境品質文教基金會編輯發行
Copyright © 2016 財團法人環境品質文教基金會 All Rights Reserved.
環境品質文教基金會
電話:(02)2321-1155
信箱:info.eqpf@msa.hinet.net
傳真:(02)2321-1120
官網:http://www.eqpf.org
地址:10641台北市大安區信義路2段88號6樓之1