環報第135期:環境權與健康環境權的思辨

汪洋中的一滴水

人工智能與人權的新挑戰
小試人刀

人與生物有沒有差別?或者,差別多少?其他生物有的,人也有;人有的,其他生物也有;所以,當數據運算或計算機控制的機器人也可以執行與人相似的任務時,在文字與圖像等方面,扮演愈來愈重要的角色,重要到幾乎可以改變人類原本的生活型態,這就是人工智能的時代及其特徵。

人工智能之發展從傳統的模式到當前的廣泛且全面覆蓋,早已對既有社會規範與秩序造成全方位的衝擊。生成機器人則加深這樣的顧慮。「人」權在人工智能的時代是不是會雪上加霜?不無可能。不論人工智能的定義與範圍為何,人工智能為人類帶來巨大的改變,卻也同時引發巨大的風險與危害,尤其在人權方面。

跟最近頗受矚目的ChatGPT的對話方塊提問:人工智能與人權,不到幾秒鐘的時間,這個讓人畏懼的新興物種給出以下答覆:(原文是簡體字)

人工智慧(Artificial Intelligence,AI)在現代社會發揮著越來越重要的作用,它對人權的影響也日益凸顯。人權是指個人享有的基本自由和尊嚴,包括言論自由、隱私權、公平審判等。人工智慧技術的應用對人權產生了積極和消極的影響,以下是一些相關討論。

積極影響:

醫療保健:人工智慧在醫療領域的應用可以提高診斷準確性和治療效果,從而改善人們的生命品質和健康狀況。

教育:人工智慧技術可以根據學生的學習特點和需求,提供個性化的教學和輔導,促進教育的平等和包容。

公共服務:人工智慧可以改進城市交通管理、公共安全和緊急救援等領域的效率,提供更好的公共服務和保障。

可辨識性權利:人工智慧技術可以通過面部識別、指紋識別等手段,加強辨識權的保護,防止欺詐和濫用。

消極影響:

隱私權:人工智慧技術的廣泛應用涉及大量的個人資料收集和分析,可能對個人隱私權產生威脅。必須採取措施確保資料的安全和保護隱私。

人權歧視:人工智慧系統的設計和訓練可能存在偏見,導致對某些群體的不公平對待,加劇現有的不平等現象。應當加強對演算法的審查和監管,確保公正和平等的對待。

就業機會:人工智慧的廣泛應用可能導致某些工作崗位的自動化,造成一些人失業。社會應該關注這一問題,並採取措施提供職業培訓和轉崗機會,確保人們的就業權利。

透明度和問責制:人工智慧系統的決策過程通常是複雜的,難以解釋。這可能導致缺乏透明度和問責制,使人們難以理解和挑戰其決策結果。需要確保決策過程的可解釋性和可追溯性,以保護人權。

為了確保人工智慧與人權之間的良好關係,需要採取一系列的措施:

法律和政策:制定相關法律和政策,明確人工智慧應用的界限和規範,保護個人隱私和人權。

倫理和規範:制定人工智慧的倫理準則和行業標準,確保其設計和應用符合人權原則,並考慮社會和道德影響。

監管和審查:建立監管機構和審查機制,對人工智慧系統進行監督和審查,確保其公平、透明和符合人權。

教育和意識提高:加強公眾和決策者的教育,提高對人工智慧技術和其與人權關係的認識,推動公眾參與和對話。

總之,人工智慧技術對人權具有雙重影響,既有積極的潛力,也存在潛在的風險。通過合適的政策、倫理規範和監管措施,可以最大程度地促進人工智慧與人權的和諧發展。

人工智能與人權未來

Nvidia創辦人暨執行長黃仁勳五月27日在台大演講提到他創業的經驗,特別強調『現在是人工智能時代。你將創造什麼?無論是什麼,像我們一樣,創造之後奔跑,不要緩慢行走。請記住,你要嘛是為了覓食而奔跑,要嘛是為了逃離被當作食物而奔跑。往往,你無法分辨哪一種情況,不管怎樣,奔跑吧,在你的旅程中吸取一些我的經驗教訓,尋求幫助,忍受痛苦和苦難來實現你的夢想,做出犧牲,致力於你的人生工作。』為人工智能即將創造的新時代做了強而有力的註解。

如果人權反應在人類社會的每個層面,那麼,人工智能以其無所不在的影響,自然會衝擊到人權的方方面面。以人工生成語言而言,隨著功能進化,強大的訊息流量以及語言藩籬的突破,人權的「收與受」,亦即訊息的接收、運用、判斷,這種訊息數據的流量的覆蓋界面太廣,以致一時之間尚難適切加以評估其實際影響之高低與深淺。

一言以蔽之,我們所熟悉的一切事物,又要重新刷新並組合一遍或者很多遍,包括人權的概念以及人權的適用。

不過,人工智能的飛越進步不能被過度神秘化或神聖化,畢竟這依舊是一種科技運用,尤其是考慮到人工智能是以巨量的數據為基礎所進行的語言模式,從設計伊始,就存在可能的人權疏漏。也難怪歐洲人權事務專員的報告指出,不能誤以為人工智能可以逃脫國家的有效監管,忽略其所可能造成的人權危害;

人權自古多厄,歷經不同年代的不同淬煉,人權固然成為人類的基本價值之一,但人權之脆弱也不斷反應在人類的不智與魯莽之中。人工智能的橫空出世,在各領域漸漸成熟,數據運算帶來更精準的趨勢分析,包括天氣、交通、消費、教育、研究等等,人們既依賴這樣的便利,卻也在無形中交出一些出於信任、出於公正、出於責任的權柄,也因此「人權」又被提起,只是這次面對的是更複雜的計算、運用、問責挑戰。

可以想像,人工智能在「隱私」方面的全方位介入,與人的尊嚴、安全、信任息息相關的這種「私密」,與自我認同及認知緊叩,進而影響政治觀點、健康傾向、家庭概況,無所不包的「數據」,是不是會取代、忽略、犧牲「人」,頗值擔憂。所謂包容與多樣,在蒐集數據、運用數據之前,是否得以納入規範?還是任其發展,進而導致歧視與偏見的漫溢?脆弱族群是不是會在「數據」面前更加脆弱?更加弱勢?運算的「人為」偏差,或許是以歷史為範疇的數據「先驗」基礎,社會有多歧視或縱容歧視,就會以「數據」呈現,如果成為決策,其後果可想而知。為人工智能設定倫理框架似已不可避免,且相當迫切。

除隱私之外,言論的自由也必然受到衝擊。如果運算數據對於言論類型無法過濾篩選,就無法嚇阻網路、社群媒體層出不窮的各式違法或走在邊緣的違法、非法言論的恣意橫流。此類基於數據卻不利於言論市場公平的情況,對規制形成障礙,進退失據。科技中立性的假設是創新之必要,卻是人權嚴峻的考驗。

人類享有自由、幸福的前提是盡可能的公平的運用科技。人權是另一把尺,為未來把關的重要依據。歐洲人權法院一向以尊重私人生活、自由與安全為人權設定明確的界限,要求國家有義務提出有效措施,以確保私人生活不受侵犯,並免受非法監視。本來以法院出具的監聽許可為條件,現在掌握更大、更多數據的人工智能及其背後控制的公司,成為更實質的權力控制者。這樣的矛盾難道不值得重視?運算如何為個人實踐透明、問責?教育上的人工智能素養如何成為可能?人工智能或許還沒有辦法自己探索保障人權的具體方法,現階段還是要靠國家、企業、研究機構、非營利組織等彼此合作,將人工智能的人權衝擊充分反應,並研商具體對策。

國際人權法體系對於人工智能的發展所引發的人權關切愈來愈積極,但現有機制是否能夠有效發展出一套因應的作法?以平等與非歧視的原則作為政府識別風險、盡職調查、採取措施、進行監管等或能在人權因為人工智能而更為崩壞前發揮一定作用,但人工智能的全面性衝擊與影響,其與人類社會密不可分的關聯,勢必超越既有人權概念與作為,而必須更快速、更有效的予以回應。例如「數據」本身的保護需有規則、運用數據的權利來源以及範疇界定、國家與私營部門利用人工智能的相關保障措施以及糾錯機制等。

人工智能必然衝擊對待人權的態度及其所形成的人權文化,是一個新興且涉及全面思維的領域。當人權問題以數據化型態出現,牽動著隱藏在每個領域的人、事、物時,我們對於誰有人格?人格的展現形式?運算數據的財產或公共財爭議、權利的主體及救濟的途徑等,無一不牽動已經浮移不定的人權適用,人工智能對人權的負面影響可謂昭然若揭。

歐盟為人工智能所擬的道德準則包括:尊重人類自主、防止侵權、公平及可解釋性等。特別重視脆弱族群及訊息不對稱與權力不對等的情況(包括職場及消費市場)。由於人工智能可能造成的風險不易預測,例如會在多大程度傷害民主、破壞法治、影響分配正義之實踐、腐化人類思想等,其所採取的防免措施如何符合比例等基本原則。以人性為基礎的人權在人工智能時代會被侵蝕到何種程度?人權的優先性在人工智能時代的救濟性如何確保?司法與警政能否適應此種挑戰?生命、安全、隱私、健康、救濟、民主參與、非歧視、智慧財產、工作、知情、身分、行動、人道、集會、結社、選舉、言論、食物、酷刑等等,沒被列舉的,是潛伏的角落,也不能忽視。沒有與人工智能並進的人權工作是不可能應對這個勢頭的,國家的監管雖然重要,但整體施政真能跟上?也很難樂觀。

人工智能的新日常會對每個人、每個社會、每個族群帶來深刻的影響,如何讓人工智能以公益為核心,在其設計、收集、運算的過程就加以監管,確保最大可能降低或避免新型的歧視與不平等隱藏在數據之中。聯合國永續發展目標以及全球協議都已經注意到這個議題的重要性,在避免或降低人工智能的負面人權影響之外,如何更積極的發揮人工智能對人權的積極作用,也是值得思考的目標。
發行人:謝英士主編:鄭佾展
環境品質文教基金會出版
Copyright © 2016 財團法人環境品質文教基金會 All Rights Reserved.
環境品質文教基金會
電話:(02)2321-1155
信箱:info.eqpf@msa.hinet.net
傳真:(02)2321-1120
官網:http://www.eqpf.org
地址:10641台北市大安區信義路2段88號6樓之1