gotopgi

【生醫評析】發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-II~值得信賴的AI倫理原則之落實(下)

2020-07-22 孫世昌 資深顧問


       在分享筆者於前一篇文章中所提到的可用來落實各項要求的「技術性」及「非技術性」方法前,有幾個簡單的概念,建議各位讀者在閱讀時,可不斷將其與本文內容相互結合並加以咀嚼:其一,是以動平衡的角度思考,在一個具備自我學習能力的AI系統與所接觸不斷變化的外在環境下,該系統本身為適應或解決環境條件變化所產生的問題,將會不斷的演進,並持續地對所接觸的環境產生交互作用;而其二,是在前述脈絡下,就所謂的值得信賴的AI此目標的現實化,就成為一種須持續不斷的評估與進行調適的過程(如附圖一)。
附圖一:透過系統之整體生命週期現實化值得信賴的AI
資料來源:Ethics Guidelines for Trustworthy AI (2019)”, p.20.

       承上述,就「新AI倫理指引文件」中所建議可用來落實各項要求的「技術性」及「非技術性」方法,現簡要分述如下:
(一)  「技術性方法」(主要針對AI系統的開發及使用階段):
1. 結構體系:依文件說明,就先前所提出值得信賴的AI的7項「要求」,應被進一步轉譯為「程序」與(或)於程序上的約束,並應連結至AI系統的結構體系中。舉例來說,或可藉由針對AI系統:(1)建置該系統應始終遵循的一系列「白名單」規則(指行為或情況)、或(2)建置該系統應始終均不應違背的一系列「黑名單」限制等方式來加以完成、或(3)納入其他更多更複雜的系統保證措施。另外,於系統運作期間,亦可設計獨立程序(或機制)來監控該AI系統是否有確實依循事先建置的相關規則(白名單)或限制(黑名單)。
2. 倫理與法治設計:此方法的關鍵,是在於可以將應遵循的行為準則,直接落實在AI系統的設計當中,如從公司企業的角度來看,也就是在開發AI系統之初,即應針對所開發AI系統本身所具潛在影響進行評估,並鑑別出該系統相應需遵循的準則,以避免對產生負面衝擊。
3. 解釋方法:為使系統值得信賴,我們就必須要能夠理解為何該系統表現為某種方式?及其又是為何提供了所給定的解釋?因此,所謂的可解釋的AI與解釋方法,其主要目的,都是為了要讓使用者能夠更好地理解AI系統本身的基本機制,並在發生問題時更快的找到解決方案。
4. 測試及驗證:有鑑於具自我學習能力的AI系統本身的「非決定性」(non-deterministic)與Context-Specific等性質,故傳統的測試方法已有不足,基此,建議宜就資料處理的實際情況進行驗證,以確保該系統的運作係屬穩定且健全的,且其經規劃處理後所產出的結果,亦可與所輸入的資料保持一致。
5. 服務品質指標:建議可為AI系統定義合適的服務品質指標,以確保該系統於開發過程中有確實考量其防護及安全性,且均已通過基本測試。
(二) 「非技術性方法」(主要針對AI系統的保護與維護):
1. 法規:此文件點明,針對值得信賴的AI相關要求的落實,就歐盟現行法規部分,或有可能需要進行修正、調整或導入,以保障安全並作為將來促進發展值得信賴的AI的要素。
2. 行為準則:各機構組織及利益相關者可藉由簽署指引文件,並調整其企業責任章程、關鍵績效指標(即KPI)、行為準則、或內部政策文件等方式,致力朝建立值得信賴的AI方向發展。
3. 標準化:這裡所稱的標準,是指例如在設計、製造及商業實務上,藉由AI系統的使用者、消費者、組織機構、研究機構與政府採購時,認知與鼓勵落實倫理準則 來做為品質管理的方式進行運作。舉例來說,例如:目前的ISO標準或IEEE P7000標準系列,不過,此份文件也指出,在不久的將來,採用「值得信賴的AI」標籤,或有可能是較為合適的,而具體的方法,是藉由參考特定技術標準來進行確認,例如:符合安全性、技術穩健性、及透明性等要求。
4. 認證:由於不可能期待每個人均能完全理解AI系統背後的工作原理及影響,因此建議…可以考慮透過認證機制,來向大眾證明取得認證的AI系統,是透明的、負責任與公平的,而這些認證,也可搭配針對不同的應用領域、不同的AI技術所開發的標準進行套用,並應適度與不同產業及社會環境標準間保持一致。
5. 透過治理架構強化有責性:建議各組織機構應建立內/外部的治理架構,以確保就AI系統的開發、部署及使用相關決策於倫理面向上的責任擔負 其可能的方式包括:指派與AI系統有關的倫理相關問題的負責人、或內/外部倫理小組或委員會,而此負責人(小組或委員會)將負責執行監督及提供相關建議。
6. 藉教育及意識提升倫理觀念:此文件強調,值得信賴的AI乃鼓勵所有利益相關者的告知/參與,因此,對廣泛宣傳與AI系統本身潛在影響相關的倫理知識,並使大眾意識到他們可以一起來參與形塑社會發展等事項來說,溝通、教育及訓練,均扮演著相當重要角色。
7. 利益相關者的參與及社會溝通:建議相關組織/機構可藉由創設透過利益相關者平台(小組)來討論AI系統與資料的分析、使用(此類平台的成員可包括:法律專家、技術專家、倫理學家、消費者代表及勞工等)。
8. 多元化與具包容性的設計團隊:當開發將於現實世界中使用的AI系統時,多樣性與包容性扮演著極重要的角色,而此項方法的關鍵點在於:就負責執行AI系統的設計、開發、測試、維護、部署的團隊,如其本身的成員組成,可以反映出使用者及整個社會的多樣性時,或將有助於能從不同觀點來更客觀的思考及兼顧不同使用者真正的需求及目標。

       透過上開少許的文字解釋,相信讀者對於歐盟「新AI倫理文件」中所建議的各種「技術性」與「非技術性」方法,理應可有一初步的瞭解,然而,僅單純憑藉著上述內容,筆者認為離可讓讀者能實際的在AI系統的開發或使用階段正確的操作或運用那些「技術性」方法,應該還是有一段距離,因此,筆者決定再另以較具體化的方式,額外增補些許說明供感興趣的讀者們參考:
(一) 關於「結構體系」部分:我們從AI系統本身所具備「可進行動態適應行為的學習能力」此角度思考,理論上應可將之視為是一種「非決定性系統」(non-Deterministic Systems),且有可能會表現出非預期的行為,而在這樣的思維脈絡下,就AI系統的動態適應行為的學習、及非預期行為的產生,大多數是因為論者採取了「感應-計劃-行動(Sense-Plan-Act)」循環此項理論觀點進行觀察後,所做出的結論,故如進一步循此最廣被使用的三步驟循環理論來加以推想,其實並不難發覺到,只要我們將於文件中所提到可用來落實AI倫理原則的相關要求,分別嵌入此周期循環中的三個步驟中,原則上就應該能從AI系統的結構體系上來現實化值得信賴的AI的目標,其可能的建議如下:
1. 於「感應」步驟:建議AI系統應被開發為,使其可認知到於所處環境中所存在的可與各項要求相合致的所有要素;
2. 於「計劃」步驟:建議將AI系統設計為,僅應考慮可與各項要求相合致的計劃;
3. 於「行動」步驟:建議AI系統所採取的行動,應僅限可實現(或滿足)各項要求的行為。
(二) 關於「倫理與法治設計」部分:文件指出,目前在AI系統的設計與開發上,已有許多不同的 “by-design”概念被廣泛使用,例如:“privacy-by-design”與“security-by-design”,而如果我們從AI系統應要贏得使用者的信任此角度來進行思考,那麼在技術面上最基本的一件事,就是安全性的確保,換句話說,就所開發或設計的AI系統,必須得要確保其在處理流程、數據資料以及產出的最終結果上,均為安全,且應被設計為對資料與攻擊具備強大的對抗能力。除此之外,針對失效-安全(fail-safe)關機 亦應設計一項機制,使系統在被迫強制關機後(例如:遭駭客惡意攻擊),可重新恢復操作。
(三) 關於「解釋方法」部分:根據文件內容,其強調,現階段要想針對以神經網絡為基礎的AI系統所做出的決策、或經其判斷後所反應出的行為加以解釋,是一項不小的挑戰(此可能成為被惡意攻擊的弱點),舉例而言,在AI系統實際運作的過程中,在某些情況下,有可能會因被辨識物件或資料數值的細微改變,而導致AI系統在識別理解上產生戲劇性的變化(例如:混淆了校車與鴕鳥、或找不到被貼上小貼紙的停止號誌),由此可知,就涉及可解釋的AI的研究方法,不僅對於在向使用者解釋AI系統所為的行為上非常重要,就部署可靠的AI技術來說,也是應該被重視的。
(四) 關於「測試及驗證」部分:此文件建議,應儘早就所開發AI系統進行測試及驗證,以確保在其整體生命週期中,該系統均可按預期的方式運行(尤其是在部署後) 而至於測試的範圍 建議宜涵蓋該AI系統的所有元件,例如:資料、預先訓練模型、環境及該系統的整體行為,且就測試過程的設計與執行,亦建議宜儘可能的由不同的團隊成員來負責,舉例來說,可嘗試藉由各類型的「紅隊作業」(Red-team)故意破壞所開發的AI系統的方法,來發現任何潛在的漏洞,或者可考慮採取給予「漏洞賞金」的方式,來鼓勵外部人員發現並報告該系統所存在的錯誤或弱點。
(五) 關於「服務品質指標」部分:就文件中所提到的服務品質指標,其範圍包含:可針對那些用以測試與訓練AI系統演算法的工具進行評估的方法、或針對傳統軟體功能、性能表現、可用性、可靠性、安全性與可維護性進行評估的相關軟體指標等。
 
       總的來說,就歐盟政府所提出的「值得信賴的AI」的倫理規範的落實,基本上其背後的思維邏輯,應該可以拆解為這兩條線:其一、是由抽象概念到具體工具(方法);(二)以基本權為基礎並從中汲取出各項原則,經轉化為7項要求後,再分別藉由所建議的各種「技術性」與「非技術性」方法,以藉此導入AI系統的整體生命週期的各階段中,而按前述脈絡,我們回頭檢視適於歐盟社/經條件的值得信賴的AI的倫理規範的推行,其實並非如想像般僅停止在提出抽象理念(原則)或呼口號式的階段,而是已預先性的將實踐目標的具體方法或工具,透過這份文件,清晰的傳遞給未來可能受AI影響的所有利益相關者(這影響範圍可能也不僅僅止於歐盟),基此,雖然筆者認為歐盟政府為推動值得信賴的AI倫理規範所採的自律性管理的思維似乎過於佛系,但從其清晰的提出甚為具體的實踐工具(方法)及相關配套(如成效評估-附表一)來看,或許是該再多給予其一些肯定與期許。
附表一:如何將值得信賴的AI納入組織機構內部之參考清單
 層級 相關規定(視何種組織機構而定)
管理層與董事會 最高管理階層討論並評估AI系統之開發、部署或採購,當檢測到嚴重問題時,作為評估所有AI之創新及使用之升級。其涉及導入AI系統時,那些於整體過程中可能受影響之人員(如勞工)及其代表者,通過資訊、諮詢及參與程序,來進行處理。
法遵/法律部門/企業責任部門 權責部門負責 評估清單之使用 及其必要的演進 以符合技術上或法規上的調整。其更新標准或有關AI系統之內部政策,並確保此類系統之使用,可符合現行法律、法規管理架構、及組織價值觀。
產品與服務開發或相似部門 產品及服務開發部門,使用評估清單進行評估,以AI為基礎之產品及服務,並記錄所有結果。這些結果將於管理階層被討論,並於最後批准新的或經修訂後的以AI為基礎之應用。
品質保證 品質保證部門(或相同部門)確保並確認評估清單結果,如結果未令人滿意、或檢測到非預期的結果時,則應採取措施,將該項問題加以強化。
人力資源 人力資源部門,應確保AI系統開發商多元能力及相關資料之多樣化。其應確保在適當時間,於組織內部,就值得信賴的AI,提供適當訓練。
採購流程 採購部門,應確保以AI為基礎之產品或服務之採購流程,包括:確認為值得信賴的AI。
日常運作 開發人員及專案經理,應將評估清單納入員工之日常工作中,將結果及對於產出所進行之評估進行文件化。 
資料來源:Ethics Guidelines for Trustworthy AI (2019)”, p.25
 
 
參考資料
1. About the full text of “Ethics Guidelines for Trustworthy AI”, available at this website:
https://ec.europa.eu/futurium/en/ai-alliance-consultation
2. For more information about the “The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”, please
refer  to this website:https://standards.ieee.org/content/ieee-standards/en/industry-connections/ec/autonomous-systems/
3. 有關「分析百位資安專家思考模式!劍橋科學家的 AI 系統清楚抓出網攻所有細節」新聞資料,可參考網站:
https://buzzorange.com/techorange/2019/11/05/cambridge-online-security-ai/

4. 有關「可能導致AI失效的微小變化」新聞資料,可參考網站:
https://kknews.cc/zh-tw/tech/b23jy6n.html
5. 有關「機器與人類視覺能力的差距(1)」新聞資料,可參考網站:
https://kknews.cc/zh-tw/tech/63k8ylm.html
6. 有關「發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-II~值得信賴的AI倫理原則之落實(上)」系列文章,可至巨群網站參考:
http://www.giant-group.com.tw/law-detail-930.html