gotopgi

【生醫評析】發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-I~值得信賴的AI之構成要素及相關倫理原則

2020-04-21 孫世昌 資深顧問


       如筆者先前在介紹歐盟對「以人工智慧(Artificial Intelligence,簡稱AI)為基礎之醫療器材軟體新近規範趨勢觀察」系列文章中所曾提到過的,將找機會為讀者們介紹一下由「歐盟執委會」(European Commission)於去(2019)年4月8日所正式發布的一份最終版「值得信賴的AI倫理指引文件」(Ethics Guidelines for Trustworthy AI,以下簡稱「新AI倫理指引文件」)內容,而根據筆者先行觀察與整理後的感想是,這整份文件內容,在論述與編排上,是採取了從抽象的概念到具體的實踐這樣的順序,是從前一章節來抽剝出後一章節的內容而彼此緊密相扣的,所以如不從頭到尾的依序看過,確實是不容易掌握箇中的精神,不過…既然筆者先前都說過要來介紹了,所以…也就只好把這份未來對歐洲境內AI技術發展具相當影響力的文件,盡力的為各位讀者們從頭到尾的來好好的檢視一下。

       有關上述新AI倫理指引文件內容,係由歐盟執委會下設之「AI-高階專家工作小組」(Artificial Intelligence-High Level Experts Group,簡稱AI-HLEG )所研擬,經採納公眾意見徵詢程序所收集之回饋意見完成修正後,於去年4月由歐盟執委會正式公布,如我們將觀察重點擺放在「建立值得信賴的AI規範架構」此點上,則涵蓋3個部分,從抽象到具體依序包括:規範架構之基本基礎、如何實現及實務運作評估等,不過,考量文章篇幅,筆者不得不決定再將其拆分為兩篇來進行介紹,其中一篇,將簡單說明「構成值得信賴的AI規範架構之基本要件及相關基礎為何?」(即本文);而另一篇文章,則將來看看在實務上「有哪些建議的方法可被用來實現值得信賴的AI」。以下我們就先來一同觀察一下歐盟值得信賴的AI規範架構的基本構成要件及其背後的支撐基礎:
(一)指引文件適用範圍
1. 就文件中所列相關建議,可處理所有受AI設計、開發、部署、實施、使用所影響利益相關者之相關問題,包括(但不限於):企業、公共服務、政府單位、民間團體、學術機構、研究人員、個人、勞工及消費者等。
2. 本項文件,主要是為AI之應用提供共通性指引,並為實現值得信賴的AI 建立起一水平橫向基礎。
3. 對承諾並打算實踐「值得信賴的AI」之利益相關者來說,於開發、部署或使用AI系統時,可「自願性」的選擇使用本項文件,並將之作為落實其承諾的一種方法。
(二)值得信賴的AI概念
1. 於本文件中,AI-HLEG專家直接點明,「可信賴度」(Trustworthiness)是人民及社會在開發、部署及使用AI系統之重要先決條件。
2. 對AI系統之開發、部署及使用而言,信任不僅僅是與技術本身所具特性有關,其同時也涉及在社會-技術系統中各種AI應用之品質,且從觀察發生在航空、核能及食品安全等領域喪失社會大眾信任之相關案件可知,我們不只須考慮AI系統本身之可信賴度,更應將其整體性及系統性方法同時納入考量,此包括在:(1)AI系統之整體生命週期、及(2)社會-技術環境下所有參與者及過程中所含之可信賴度,因為此將牽涉到整體系統能不能真正的取得大眾的信任。
3. 說明「值得信賴的AI」包含3項構成要素,且應在AI系統之整體生命週期中加以滿足,如下:
(1)應為「合法的」:即應遵守所有應適用之法律及法規規定(第1項構成要素);
(2)應為「倫理的」:即應確保可貼合「倫理原則」及「歐盟本身之價值觀」(第2項構成要素);及
(3)應為「穩健的」:因為從技術面與社會面等角度來看,即便是具良善意圖,AI系統也有可能導致非預期的危害,故應確保其穩定與健全(第3項構成要素)。
上述各構成要素均屬必要,且於理想狀況下,各構成要素間應彼此交互重疊並和諧的一同運作。
(三)值得信賴的AI倫理規範架構之思維基礎-基本權利保護
依文件內容指出,經過AI-HLEG專家評估,下列於「國際人權法」、「歐盟條約」及「歐盟基本權利憲章」中所規定應加保護之基本權利,相當適於用來涵蓋AI系統,包括:
1. 尊重人性尊嚴:
  • 所謂的「人性尊嚴」,在概念上是指「每個人所擁有的『內在價值』,不應被他人-或類似像AI系統此類新興技術所削弱、損害或壓抑」。
  • 基此,此處所謂的「尊重人性尊嚴」,也就意味著「所有人均因其為道德上個體而應受尊重,而不應僅是將其作為客體來供篩選、分類、計分、訓練或操控」。
  • 再按上述脈絡,將概念套用至AI領域中時,此即是要求AI系統應因此而採取一種尊重、服務與保護人類身/心上完整、個人及文化上認同感、滿足基本需求的方式來進行開發、設計。
2. 個人之自由:
  • 指明「人類應保有可為自己生活做決定之自由」,這也就是說,承諾讓個人可於其生活上保有較高程度的控制,例如:個人可控制自己本身的生活(此包含保護個人的執業自由、藝術及科學自由、言論自由、私人生活與隱私權利以及集會結社自由等)。
  • 上述各項自由確保,需要政府及非政府組織適當之介入,例如:需緩減在AI環境下所可能發生的各種直接(或間接)之非法脅迫、或對內心自主及心理健康之威脅、或不合理之監督與欺騙、或不公平操控等。
3. 尊重民主、正義及法治:
  • 民主憲政國家所有政權,必須依法授權並受法律限制。
  • AI系統應為維持與促進民主進程、尊重個人多元價值觀及其生活選擇來提供服務。
  • AI系統不得破壞民主進程、人民自由選擇或民主投票制度。
  • AI系統須承諾,確保其不會以破壞法治基礎、強制性法律/法規之方式運作,且亦必須確保合法程序及在法律之前人人平等。
4. 平等、不歧視:
  • 所謂的「平等」,在概念上是指「必須確保所有人類於倫理上價值及尊嚴之平等與尊重」。
  • 而所謂的「不歧視」,在概念上是指「應容忍基於客觀正當理由,於不同情況下所產生的不同差異」。
  • 將上述概念套用於AI環境下時,則轉化為要求「AI系統之運作,不可以產生不公正或偏誤之輸出(例如:用於訓練AI系統之資料組群應盡可能涵蓋能代表各類人口族群之數據資料),同時也應適度尊重那些較弱勢的個體及族群,例如:工人、婦女、殘障人士、少數民族、孩童、消費者或其他有被排除風險之人」。
5. 公民權利:
  • 所謂「公民權利」,在概念上是指,人民可廣泛從各項權利中受益,包括:投票權、管理或近用政府文件資料及向政府請願等權利。
  • 雖然,AI系統對政府在提供公共財或相關服務給社會大眾時,不論是在規模或效率上,均極具潛力,但因為公民權利仍有可能會受到AI系統負面影響,故仍應加保障。
(四)植基於歐盟價值觀與相關基本權利之AI倫理原則
為確保AI系統之開發、部署與使用,均是以「值得信賴的」方式進行,故在參考並以「歐盟基本權利憲章」所列相關基本權利(如上述)為基礎前提下,AI-HLEG專家從中汲取出如下4項相近似之「倫理原則」,用以架構AI倫理規範,如下:
1. 尊重人類自主原則:
  • 基於歐盟基本權利之建立,是朝向確保尊重人類自主及自由為目的,故人類與AI系統之互動,必須能保有其自身的完整性及有效的自我決定,且能夠參與民主程序。
2. 危害預防原則:
  • AI系統不應引起(或加劇)危害、或對人類產生不良影響,這意味著,必須要能夠保障人類尊嚴及其身心的健全,從實務面來看,這也就是指…AI系統本身及其所運作的環境,必須是安全且可靠的,且在技術上,亦必須足夠穩健並應同時確保其未開放供惡意使用。
3. 公平原則:
  • 此係指,AI系統之開發、運用及使用均須公平。
4. 可解釋性原則:
  • 對建立並維持使用者對AI系統的信任來說,「可解釋性」至關重要,這意味著,除所採程序必須透明外,就AI系統本身之功能與目的,亦應可公開進行交流討論,且其最終產出之決策,亦可對那些受到直接或間接影響者加以解釋(於一定可能的程度上)。

       從上述內容我們可大致觀察出,AI-HLEG專家架構歐盟AI倫理規範背後的思維邏輯:首先,是先藉著提出3大構成要素(即合法的、倫理的與穩健的等構成要素)來明確的對什麼是他們所謂的「值得信賴的AI」此抽象概念加以定位;而第二步,是再以「歐盟基本權利憲章」中所列有關人類基本權利保護之強制性法律規定為藍本(這同時也包含了歐盟本身的基本價值觀),最大範圍的來圈劃出在AI環境下,最容易受到影響或者說是最應加以保護的相關基本權利範圍(也就是有其急迫性);緊接著第三步,則是再從所前述圈劃出的「最應加保護的」相關基本權利範圍中,藉由汲取其精神而轉化出極近似的4項倫理原則,來作為歐盟AI倫理規範架構的4大支柱,而雖然在上一段落中,筆者以摘要的方式,簡短的為讀者們列出了AI-HLEG專家於第三步所成功轉化出的4項倫理原則,但因為對這些抽象倫理原則的內涵及其彼此間關係的掌握,對後續所將介紹的歐盟AI倫理規範架構的具體實踐方法的理解上,可能會產生一定程度的影響,故筆者決定再提出如下幾點補充,來作為補強:
(一)各項倫理原則之實際內涵:
1. 關於「尊重人類自主原則」部分:此是要求AI系統,不應不合理的附屬化、脅迫、欺騙、操控、限定或集牧人類,而相對的,應朝可提升、補充、賦予人類於認知、社交及文化等方面技能此方向進行設計;除此之外,就人類-AI系統間之功能分配,亦應循著「以人為中心」的設計原則,並留下有意義的機會,供人類選擇(也就是說當運用AI來為我們處理相關事務的時候應確保具有人為監督的機制)。又,因為AI系統也可能從根本上改變人類的工作領域與型態,故於工作環境中應支援人類並創造有意義之工作(比方說設計可用的AI系統來協助醫師為病患進行治療而不是取代醫師)。
2. 關於「危害預防原則」部分:此乃要求在開發、運用及使用AI系統的過程中,應更加關注弱勢族群,且應特別留意 AI系統所可能導致(或加劇)基於「權力或資訊不對稱」所產生的負面影響(比方說在雇主-員工間、企業-消費者間或政府-人民間)。
3. 關於「公平原則」部分:雖然,就「公平」一詞有許多不同的解釋,但AI-HLEG專家認為,於此份文件中所使用的「公平」二字,在概念上,是既包含「實質面」也包含「程序面」的公平。先以前者來說,主要應確保在利益及成本兩者公正/平等的分配、及個人及族群不會受到不公正之偏見、歧視與污名化,並應促進民眾近用教育、貨品、服務與技術機會的平等性(且AI系統的使用也絕不可導致民眾在選擇的自由上受到欺騙或不合理的妨害);而再就後者來說,則是要求考量在競爭力與尋求效率兩者間應作適度的調修,以補強經人類操作下的AI系統所作成的決定(例如:就該項決定負責者必須是可識別的且其決策過程亦為可解釋的)。
4. 關於「可解釋性原則」部分:從實務上開發與設計AI系統的角度思考,對於某一模組為何產出了一項特定之輸出或決策?或者到底是使用了何種輸入參數組合才導致此項輸出?在某些情況下,確實有可能很難被解釋(這些案例我們稱之為黑箱演算法),對此,或可以藉著要求提供其他可解釋性方法(如整體系統之可追溯性或可稽核性方法),來證明該系統確實已將基本權利納入考量,而應留意的是,就對於可解釋性之要求,在相當程度上,是取決於該AI系統的輸出(倘若該輸出是錯誤的或不正確的)最終所可能導致結果的嚴重性。
(二)實務上於各項倫理原則間或可能會存在著緊張關係:
在正常情況下,上述各項倫理原則應是彼此交疊互相補充的共同發揮作用,然而,在某些案例中,不同倫理原則間或也可能會產生衝突,我們舉Predictive Policing為例,這種結合AI技術及大數據來降低日常犯罪的方法,本質上,是屬於一種必須侵犯個人自由及隱私的監視活動,這也就是說,在使用AI技術來協助警務單位減少犯罪發生的同時,於「傷害預防」及「尊重人類自主」這兩項倫理原則間,也必然的隨之產生了衝突,對此,歐盟AI-HLEG專家們也直白的說,如果於實務上遭遇此類倫理上困境(衝突)時,有時候很有可能會無法找出於倫理上可接受的折衷方案(這是因為各項基本權利及相關原則均為絕對的,不能成為衡平操作之客體或對象,例如:人性尊嚴),故其建議相關人員,仍應以證據為基礎並採理性取捨之的方式來加以解決,而不應僅單憑直覺或任意之判斷處理,且如果可能的話,建議最好能夠事先建立一種負責任的審議機制,來因應發展AI技術時所可能面臨到的倫理上議題。

       總合上述,歐盟之所以發布上述新AI倫理指引文件的目的,主要是為了協助落實歐盟AI政策、正向導引境內以AI為基礎之重點產業領域(例如:行動醫療、自動化無人駕駛載具及資料探勘等)發展,而我們從前文有關於倫理方面的論述可知,與其他新興科技發展相同(例如:胚胎幹細胞技術、人造生命、人體生物或基因資料應用等),就對於未來人類生活影響甚深且廣的AI科技,也如同一把兩面刃般,一方面,可以為我們的生活創造出許多利益,但另一方面,卻也可能同時會為我們帶來風險,而事實上,一直以來,包括歐盟以外之其他先進國家政府對於充滿著高度不確定風險的新興科技發展,按例都會對該項技術在倫理(Ethic)、法律(Legal)、與社會(Social)等三個面向上(也就是所謂的ELSI)所引發之相關問題或疑慮進行事先評估,這樣做的目的,並不是要強制性的限制技術開發者對此類新興技術所為的創新研發工作,也不是要對以這類具一定潛在風險之新興科技為基礎所開發出之相關產品或服務的大眾近用,創造出不必要的阻礙,而是要在各種可能的AI發展的未來逐漸被限定並被現實化前,要我們先捫心思考,究竟我們打算憑藉著AI技術來實現的…是一個什麼樣子的未來?或者說,在未來人類與AI技術共存的世界裡,我們是打算沉浸在怎麼樣的一個生活環境當中?而那樣的生活環境…是我們內心所真正期待的嗎?還是說…那只是一個我們不得不妥協或被迫接受的與AI共存的生活環境?在這樣的思維脈絡下,其實在此項文件中也自然而然地導引出了對AI科技發展的一項重要核心概念,也就是:「不論是任何新興科技或者是以該類科技為基礎所開發出之相關產品或服務,均必須先取得廣大民眾或消費者之信任,才能順利發展」,而這樣的概念,也正是歐盟政府為何會使用「值得信賴的」一詞來為其所公布的新AI倫理指引文件進行命名背後真正的原因,並再透過前文所提之3項構成素、4項倫理原則在前述概念的周沿,巧妙地圈劃並形塑出甚麼是歐盟政府眼中「值得信賴的AI」。

參考資料
1. 
About the full test of the “Draft Ethics guidelines for trustworthy AI”, available at this website:
https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
2. For more information about the AI-HLEG, please refer to this website:
https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
3. For more information about the “Stakeholder Consultation on Guidelines' first draft”, please refer to this website:
https://ec.europa.eu/futurium/en/ethics-guidelines-trustworthy-ai/stakeholder-consultation-guidelines-first-draft#Top
4. About the full text of “Ethics Guidelines for Trustworthy AI”, available at this website:
https://ec.europa.eu/futurium/en/ai-alliance-consultation
5. About the full text of the “EU Charter of Fundamental Rights”, available at this website:
https://ec.europa.eu/info/aid-development-cooperation-fundamental-rights/your-rights-eu/eu-charter-fundamental-rights_en
6. About the full text of the “Treaty on European Union”, available at this website:
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A12012M%2FTXT
7. 有關「歐洲慢半拍? 歐盟對以AI為基礎之醫療器材軟體新近規範趨勢觀察」系列文章,可至巨群網站參考:
http://www.giant-group.com.tw/law-detail-786.html