gotopgi

【生醫評析】發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-II~值得信賴的AI倫理原則之落實(上)

2020-07-22 孫世昌 資深顧問


       自上回簡單與讀者們分享由「歐盟執委會」(European Commission)於去(2019)年4月8日所正式發布的一份最終版「值得信賴的AI倫理指引文件」(Ethics Guidelines for Trustworthy AI,以下簡稱「新AI倫理指引文件」)的前半部內容後(即AI倫理規範架構基本要件及相關原則),算了算好像也過了小一段時間,而在筆者持續關注其他國家近年間針對AI技術發展所公布相關規範措施的同時(例如:美國),差點忘了自己曾提過,會為讀者們針對於上開新AI倫理指引文件中所提到的包括:(一)就AI系統整體生命週期中的相關參與者(例如:開發者、部署者、最終使用者等)應如何來實踐該份文件中所列明的各項AI倫理原則?以及(二)於實務上又有哪些具體方法(措施)可被用來實現「值得信賴的AI」等部分,再整理出一篇文章;故以下,筆者將嘗試藉適度篇幅,就此份「新AI倫理指引文件」的後半部內容,擇要與讀者們進行分享。
 
       關於上述歐盟「新AI倫理指引文件」後半段內容 就其所提出AI倫理原則的落實,直接點明,必須先將之轉化為數項相對應的「要求」(也就是說如能夠滿足這些要求,基本上即等同於可符合其相應的倫理原則規範),且再透過實施合適的「技術性」或「非技術性」方法(可視己身需求與條件自由擇選),便可進一步地將前述各項要求確實導入AI系統的整體生命週期中。現在我們就趕緊來一同瞧瞧,這些轉衍出的「要求」以及「技術性」或「非技術性」方法究竟為何?
(一)值得信賴的AI之相關要求
1. 適用範圍:
按文件內容,就其於前半部所抽剝出之抽象性倫理原則,如欲用以現實化值得信賴的AI,尚必須再進一步轉化為相關要求,而這些要求,原則上可適用於AI系統整體生命週期中各不同階段參與之利益相關者群體,其包括了開發者、部署者、終端使用者,甚至是整個社群。
2. 用詞定義:
就上述所提到的各利益相關者群體,其定義如下:
(1) 開發者:是指進行研究、設計與/或開發AI系統的人員。
(2) 部署者:係指在其業務流程及向他人所提供的產品或服務中,使用AI系統的公部門或私人組織(機構)。
(3) 終端使用者:是指那些直接或間接與AI系統接觸者。
(4) 更廣泛的社群:於文件中,乃是指包括受到AI系統直接或間接影響的其他人。
3. 自AI倫理原則轉化出的相關要求:
(1) 人為代理及監管:此係指包含對基本權利保護、人為代理及人為監督等要求。
(2) 技術穩健性及安全性:此係指包括對遭攻擊的恢復力、完整備援計畫、及整體安全/準確性/可靠性與再現性等方面的要求。
(3) 隱私與數據治理:此指包含對於應尊重隱私、數據資料的品質與完整性、及對數據資料的近用等方面的要求。
(4) 透明性:這是指對可追溯性、可解釋性與連結的要求。
(5) 多樣性、不歧視及公平:此指對包括應避免不公平的偏見、可近用性、通用性設計及利益相關者的參與。
(6) 社會及環境福祉:此指包含對永續發展與環境友善、社會衝擊、社會及民主等方面的要求。
(7) 有責性:係指包括對於應具可稽核性、負面影響的最小化與通報、衡平及糾正措施的要求。
4. 不同利益相關者群體的落實:
就上述7項要求的落實,原則上,不同利益相關者群體,其實際落實的方式,也會稍有不同:
(1) 對開發者而言:應於設計及開發過程中,套用並落實各項要求。
(2) 對佈署者而言:應確保所使用的AI系統及所提供的產品與服務,均可符合相關要求。
(3) 對終端使用者及更廣泛的社群而言:應被告知上述相關要求,並能要求開發者及部署者應持續落實。
(二)各項要求與AI倫理原則的對應&補充說明
為讓讀者們能更進一步的掌握上述所列各項要求的實質內涵,筆者決定將其背後所對應的AI倫理原則及於文件中所提到的相關解釋,再簡要作個整理與補充:
1. 人為代理及監管要求
(1) 相應倫理原則為「尊重人類自主原則」。
(2) 涵蓋面向:
a. 基本權利保護:雖然AI系統可藉由如協助民眾追蹤其個人資料、或增加民眾對教育資源的可近用性等方式帶來利益,但,由於AI系統所涉範圍與能力亦可能會對公眾的基本權利造成負面影響,故要求應在系統開發前,完成對此類風險的評估工作(包括評估在民主社會中是否能降低此類風險或鑑別其合理性與必要性),以尊重他人的基本權利及自由。
b. 人為代理:考量於某些情況下,AI系統可能會被運用到,藉由以某種可能難以被發現的機制(例如:利用人類潛意識的認知流程)來塑造並影響人類的行為,而這類的運用方式,有高度的可能性將威脅個人自主權,故要求就由AI系統所做出的自動化決策,應向其使用者作適當的告知,且亦應給予使用者相關知識及工具,以充分理解並使其與AI系統互動可達到滿意的程度。
c. 人為監管:之所以要求「人為監管」,主要目的是為了協助確保AI系統不會破壞人類自主權或引發其他不利的影響,除可以藉由相關治理機制來加以實現,例如:Human-in-the-loop(簡稱HITL)、Human-on-the-loop(簡稱HOTL)、或Human-in-command(簡稱HIC)等,亦宜視該AI系統的應用領域及本身所具潛在風險,來決定所採監管的方式及程度。而此份文件也提醒,於其他條件相同的情況下,對AI系統所使用的人為監管程度越低,其需要更廣泛的測試與更嚴謹治理的程度,也相對的就會越高。
2. 技術穩健性及安全性要求
(1) 相應倫理原則為「傷害預防原則」
(2) 涵蓋面向:
a. 對攻擊與安全性之恢復力:此即要求應保護並對抗可能會被惡意人士發現並進一步利用的系統漏洞(或稱為弱點),例如:駭客針對數據資料、模型或底層的設備結構(含軟/硬體)等處進行攻擊(資料中毒或模型洩漏),以嘗試改變數據資料或甚至是系統行為,繼而導致受攻擊的系統作出不同決定(或使其完全關閉)。其次,是安全性不足的處理流程,也可能導致AI系統作出錯誤決定甚至造成人身傷害 因此 此文件要求應將AI系統的非預期性應用(如雙重用途應用)及惡意行為人對系統潛在的濫用等問題納考量,並採取相關措施來防止或緩減可能的負面影響。
b. 備援計畫及一般性安全:此部分是要求,當AI系統一旦發生問題時,應具備能立即啟動的備援計畫(即安全防護措施),除系統不同程序間的切換外,於系統再運作前亦先行詢問人類操作,確保所將續執行的工作,不會對生物或環境 造成傷害,以最小化非預期性結果與錯誤。
c. 準確性:此係指對AI系統作出正確判斷能力(如正確分類)的要求,比方說正確的將資訊分類為適當類別的能力,或者是以數據資料(或模型)為基礎來作出正確預測、建議或決策的能力,而對於會直接影響到人類生命的AI系統而言,這項要求將顯得特別重要(例如:交通運輸工具的自動駕駛AI)。值得注意的是,雖然就偶發性的不準確預測,雖然不太可能得被事先避免,不過,從傷害預防的角度思考,要求設計AI系統使能顯示出此類偶發性錯誤的發生率,似乎是一種較合理的替代方案
d. 可靠性及再現性:AI系統結果的再現性與可靠性是非常重要的。簡單來說,一個可靠的AI系統,是一種可在一定範圍內的輸入及環境中保持正常作業的系統。而所謂的再現性則是指對於一再重複的相同條件下,該AI系統是否可產生相同行為的實驗所作的描述(此項要求可讓科學家們與政策制定者能正確的描述該AI系統實際上到底做了些甚麼)。
3. 隱私與數據治理要求
(1) 相應倫理原則為「傷害預防原則」
(2) 涵蓋面向:
a. 隱私權及資料保護:此為要求AI系統必須保證在其整體生命週期中,均能夠兼顧隱私及資料的保護,這包括了「使用者最初所提供的資訊」及「使用者與系統互動的過程中所產生的資訊」。有鑑於人類行為的數位記錄,或可能讓AI系統不但能輕易的推斷出該使用者的個人喜好,甚至還能夠進一步的推斷出其性取向、年齡、性別、宗教或政治傾向,因此,要想讓使用者信任其資料收集的流程,就必然得確保使用者們被該AI系統所收集的個人相關資料,不會被拿來作為非法使用,且也不會因而導致對該使用者產生任何不公平的歧視。
b. 數據資料之品質及完整性:由於AI系統所使用資料組群的品質,對其性能表現來說,具重要的影響,因此,在將所蒐集的資料組群提供給AI系統進行訓練前,應要求需事先經過處理,以確保數據資料的品質與完整性(於所蒐集且未經處理的原始資料中或有可能會包含社會性結構的偏誤、不準確、誤差與錯誤)。而必須留意的是,對於具有自我-學習能力的AI系統而言,如在訓練階段刻意飼予惡意資料,將很有可能會造成該系統行為的改變。
c. 近用資料:於任何所給定負責處理個人資料的機構內,要求應就資料的近用(Access),制定資料協議,並亦應於前述協議中列明,究有哪些人員?以及在哪些情況下方得近用資料。
4. 透明性要求
(1) 相應倫理原則為「可解釋性原則」
(2) 涵蓋面向:
a. 可追溯性:這部分是指要求某AI系統產生決策的資料組群與流程(例如:所蒐集的資料、資料標示及使用的演算法),均應儘可能的文件化,以提高透明性,並使經AI系統所作出的任何決策,均可被追溯。而事實上,之所以會要求可追溯性的目的,主要是為了協助相關人員可在AI系統萬一發生決策錯誤時,能快速的鑑別出原因。
b. 可解釋性:此部分是要求任何經過AI系統所作出的決策,都可以被人類理解並且進行追溯,更進一步的來說,鑑於AI系統對大眾的生活具重要影響,因此,於必要情況下,要求相關人員對某項AI系統的決策流程提供適當的解釋,原則上應具一定程度的可能,且前述解釋,亦應及時提供給與該AI系統有關的利益相關者或領域專家(例如:特定產業領域中的法規監管或研究人員)。
c. 互動溝通:對於使用者而言,AI系統不應視其本身即可代表為人類,因此,在實際使用上,使用者理應有被告知其正在與AI系統進行互動的權利,而換個角度來看,也就是要求AI系統必須透過這種方式來被使用者識別。
5. 多樣性、不歧視及公平要求
(1) 相應倫理原則為「公平性原則」
(2) 涵蓋面向:
a. 不公平偏誤的迴避:由於AI系統所使用的資料組群(包括用於訓練及運作的資料),或可能會受到例如:被疏忽的歷史性偏誤、不完整、不良的治理模式影響,且此種偏誤的持續,或有可能會直接(或間接)的導致或加劇對某些族群或民眾產生非預期性的偏見與歧視,因此,於資料收集階段,就可被識別的或具有歧視性的偏見宜要求應加以消除。其次,就於AI系統開發過程中所採的方式而言(例如:演算法程式編寫),或也有可能會導致不公平的偏誤產生,對此,建議可藉由實施監督、流程分析、及足夠透明化的方式,謹慎的就該系統本身的目的、限制、要求與決策等環節進行處理,以消彌此類疑慮。
b. 可近用性及通用性設計:原則上,AI系統的運作應以使用者為中心(特別是在企業-消費者此領域中),且應要求朝向可讓所有人使用AI產品或服務的方向進行設計(亦即無論其年齡、性別、能力或特徵)。其次,就AI系統的設計,建議不宜採用一種千篇一律(One-Size-Fits-All)的方法,而是宜考慮是否採用一種通用性(或全方位)的設計原則,也就是說…要在最大可能範圍內來處理使用者(例如:殘疾人士)的問題,儘量使所有人都能平等的近用並參與當前所有以電腦為媒介(或輔助)的人類活動。
c. 利益相關者的參與:此係建議宜定期向在AI系統整體生命週期中將會直接或間接受到影響的各利益相關者徵求回饋意見,且亦建議宜針對前述各利益相關者的參與,設計或建置較長期性的回饋或反應機制。
6. 社會及環境福祉要求
(1) 相應倫理原則為「公平及損害防止原則」
(2) 涵蓋面向:
a. 永續的及環境友善的AI:AI系統雖可被用來處理某些最急迫的社會問題或疑慮,但前提是,必須要求該系統將會以對環境最為友善的方式進行運作,換句話說,就是指在AI系統的開發、部署、使用流程乃至於整個供應鏈中,均應將這項要求納入考量(例如所開發的AI系統是否有過度消耗資源或能源的情形?)。
b. 社會衝擊:當AI系統廣泛的被應用在我們生活的各個領域中時(諸如教育、工作、照護或娛樂等領域),其或可能在不知不覺中影響了我們原本的社會關係及依附性,而當AI系統被使用來提升各種社交技巧時,也同樣的可能會改變人與人之間原本的社交關係,而當前述改變是朝負面方向發展時,將會對人們的身心健康造成影響,因此,建議宜謹慎評估並監控AI系統對社會所可能帶來的衝擊。
c. 社會與民主:​除評估AI系統的開發、部署與使用對個人所造成的影響外,亦建議宜從社會面觀點,考量其對組織機構、民主及整體社會所可能帶來的衝擊(尤其是與民主程序有關的AI系統的使用)。
7. 有責性要求
(1) 相應倫理原則為「公平性原則」(此項要求亦同時作為上開相關要求的額外補充)
(2) 涵蓋面向:
a. 可稽核性:此處所稱的可稽核性,其實是指可對AI系統所使用的演算法、數據資料及設計流程進行評估,不過,這項要求並非暗示著,就那些與AI系統有關的商業模式或智慧財產等相關資訊,均必須公開可得。而事實上,不論是由內/外部稽核人員針對AI系統所為的評估,又或者是提升前述評估報告的可得性,均有助於強化使用者對AI系統的信賴感。
b. 衡平:建議應先就某項AI系統所牽涉的相關利益及價值加以鑑別,而如於落實各項要求的過程中發生利益衝突時,即應明確地加以衡平,並依倫理原則進行風險評估(包括基本權利),且就任何「衡平決定」的作成,均應提出合理說明並將之文件化,而決策者,亦必須以適當的方式來對所作成的衡平決定負責,並要持續檢視該項決定的合適性,以確保有需要時可對該AI系統再次進行必要的修正。
c. 糾正:​此係指當AI系統發生不良影響時,原則上應可預見具有可被用來糾正該系統的適當機制,也就是說,當某AI系統發生錯誤時,使其使用者知道對該系統所產生的錯誤進行糾正是可能的,是確保其對AI系統信賴感的一項重要關鍵(尤其是針對弱勢個體或族群)。
 
       整體來看,就上開所描述的各項要求,雖然原則上每一項均係同等重要且彼此相互支援(如附圖一),不過,如欲實際將之套用至各不同領域(或產業)時,此份文件也提出了幾點建議作為補充:(1)應仔細評估各項要求彼此間所可能造成(或潛在)的緊張關係並將之納入考量;(2)應於AI系統的整體生命週期中,視該特定的應用方式為何來加以落實;(3)即便大部分的要求對所有的AI系統均有適用的空間,但就會直接(或間接)對個體造成影響的AI應用,建議應更加留意。而最後,針對筆者於文章開頭所提到的可用來落實各項要求的「技術性」及「非技術性」方法,考量篇幅,將留待下篇文章,再為讀者詳細說明。

附圖一:7項要求間之相互關係:每一項均同等重要,彼此相互支援,且於AI系統之整個生命週期中應加以落實及評估圖示。

資料來源:Ethics Guidelines for Trustworthy AI (2019)”, p.15.

參考資料
1. About the full text of “Ethics Guidelines for Trustworthy AI”, available at this website:
https://ec.europa.eu/futurium/en/ai-alliance-consultation
2. For more information about the “Stakeholder Consultation on Guidelines' first draft”, please refer to this website:
https://ec.europa.eu/futurium/en/ethics-guidelines-trustworthy-ai/stakeholder-consultation-guidelines-first-draft#Top
3. 有關「發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-I~值得信賴的AI之構成要素及相關倫理原則」系列文章,可至巨群網站參考:
http://www.giant-group.com.tw/law-detail-786.html