gotopgi

【生醫評析】值得信賴的AI倫理規範的另類落實? 美國政府就轄下公部門機構未來對私部門AI技術開發與應用之管理發布10項原則

2020-04-22 孫世昌 資深顧問


       繼美國「食品藥物管理署」(Food and Drug Administration,簡稱FDA)於2018年一口氣核准了兩項以AI軟體為基礎之醫療器材產品上市(其中一項是用來協助檢測「糖尿病視網膜病變」的醫療器材;而另一項則是用來預先警示醫師該病患是否具潛在中風危險的醫療器材),並於2019年4月2日,針對利用「人工智慧」或「機器學習」(Machine Learning,簡稱ML)技術之醫療器材管理,公布一項新草擬之法規管理架構概念「討論文件」(Proposed Discussion Paper)後,為確保美國境內AI技術的開發及於相關產業領域運用(例如:醫療或自動化交通運輸工具等),不致因過度嚴格法令或規定之不當限制,而對美國未來於全球市場競爭及經濟發展造成不利影響,美國政府於今(2020)年1月7日時,在納入「值得信賴的AI (Trustworthy AI)」此項倫理性理念並以之為目標的前提下,透過發布一項「備忘錄」(Memorandum)形式,正式公布了10項原則(依2019年2月由川普總統所簽發第13859號行政命令-「維持美國在AI方面之領導地位」中所指示),要求境內聯邦政府下之各執行部門及相關機構對AI技術應用之規範管理,應採取更具彈性及效率之法規與非法規監管措施,以促進美國AI技術之研發創新與使用,並建立美國民眾對受適切規範之AI技術與產品之信賴感。

       關於上述備忘錄內容,主要是為反映出先前川普總統所簽署第13859號行政命令的目標與相關要求的基本內涵,並在此基礎上,就境內聯邦政府下的各法規監管執行部門與單位,日後擬針對AI應用所進行的設計、開發、部署及操作而制訂一般性或特定產業領域之「法規」(Regulatory)或「非法規」(Non-Regulatory)監管措施時,定出10項應遵循之原則,如下:
(一)公眾對AI之信任(第一項原則):
       雖然,AI可對社會與經濟生活(例如:運輸、金融、醫療照護、人身安全及製造等)帶來正面影響,但各種AI 應用,有可能會對隱私、個人基本權利/自主權及自由產生某些風險,故就AI技術或產品的採用與接受與否,勢必也得取決於大眾對其是否信任及認同,鑑此,要求政府機構未來對AI管理所訂定之各項「法規」或「非法規」管理措施,必須盡可能採取一種能促進「可靠的、穩健的及值得信賴的」AI技術與運用方法之開發,且可在此基礎上提升美國民眾信賴感的方式。
(二)公眾參與(第二項原則):
       要求於那些AI使用與個人資訊相關之案例中,應納入公眾參與機制(亦即為公眾提供資訊並於決策過程中提供參與機會),以助於改善政府機構之責任承擔及法規監管成果,並同時提升公眾信賴。
(三)科學誠信與資訊品質(第三項原則):
       要求政府機構對AI應用所採取之「法規」與「非法規」監管措施,應槓桿化利用科學與技術相關的資訊及流程。也就是說,在維持科學誠信前提下,政府機構應該抱持一種可告知民眾所採政策決定為何,且又能同時促進其對AI信賴感之態度,研擬及制訂AI之法規管控方法(例如:於最佳實施例說明文件中,完整說明AI系統之優點、缺點、如何降低誤差及其應用結果之合理使用等),且就被用來訓練AI系統之數據資料,亦應要求需具備與其預期用途相應之合適品質。
(四)風險評估與管理(第四項原則):
       要求政府機構對AI所採之「法規」與「非法規」監管措施,應:1.與「對該AI應用所執行之風險評估結果」保持一致、及2.以「跨單位與跨技術領域之風險管理」為基礎。另外,就前述對AI應用所為之風險評估結果,以及於一段期間後依所提出假設而執行之再評估與結論,皆應保持透明化,以提升政府機構之有責性。
(五)利益與成本(第五項原則):
       要求政府機構,應依其權限,評估與那些尚未經鑑別(或預測)的責任追究方法相關之利益、成本及效益分配,且在遵守既有法律前提下,於考量制訂或採取與AI應用之開發及部署相關法規監管措施前,亦須先仔細考慮全部的社會成本、利益及分配效應。此外,當進行AI之成本及利益評估時,還應考量關鍵性依存關係,比如說:技術性因素(如數據資料品質)、及於AI執行過程中的人工流程變更,是否將改變其風險及利益的性質與高低(於無法與現行系統或流程進行比較的案例中,亦可針對不執行該AI系統之風險及成本進行評估)。
(六)彈性(第六項原則):
       要求政府機構於研訂「法規」或「非法規」管理措施時,均應探求可順應AI應用本質上所具「快速改變」與「快速升級」等特性之「以功能表現」為基礎之彈性化管理方式。舉例來說,嚴格的「以設計為基礎」的法規監管措施,在多數情況下,嘗試對AI應用之技術規格加以限制及規範,多是不切實際且又無效的,如再考慮AI實際演進的速度,此也將會進一步導致權責管理機構必須不斷地對新的資訊與證據進行反應,有鑑於此,要求政府機構應考慮採取「以功能表現為基礎的」監管措施,以確保未來境內相關公司企業不會受到過度嚴格的法規上限制所產生的不利影響。
(七)公平與不歧視(第七項原則):
       雖然,AI應用在一般情況下,具有可降低因人類本身所為主觀判斷所造成的歧視的潛力,不過,在某些案例中,AI應用卻也有可能被不經意地(或刻意)或因疏忽而將現實世界的偏誤導入,從而產生具歧視或偏頗的結果(或決策),破壞了公眾對AI的信任感,因此,當政府機構在研訂與AI應用相關的「法規」或「非法規」管理措施時,應就該項AI應用最終所產出結果(或決策)本身,是否具影響公平性或不歧視等爭議問題加以考量。
(八)揭露與透明化(第八項原則):
       透明化及揭露(此類揭露或可包含鑑別甚麼時候是AI正在使用或運行的時間),除有助於提升公眾對AI應用的信任感外,於某些案例中,亦可增加使用者的自主性,對此,於政府機構於思考有無其他額外之揭露或透明化措施前 除應先就現行相關法律、政策與法規環境之合適性詳細考量外 於判斷何為適當的揭露及透明化措施時 建議亦應視具體情況而定(取決於該政府機構針對某項AI應用本身所可帶來之潛在利益、當時技術水準、潛在危害及危害程度所進行之評估結果)。
(九)安全性與弱點防護(第九項原則):
       當評估或導入AI政策時,要求政府機構應注意任何潛在的安全及弱點防護風險(此包括潛在的AI應用的惡意部署及使用),且亦應促進業者所為AI系統的開發,是在安全、具防護並按原預期狀況運作前提下進行;另外,也鼓勵政府機構,宜一併針對於整體過程中AI之設計、開發、部署與操作相關的安全及弱點防護等問題進行考量。
(十)跨機構間協調(第十項原則):
       從國家整體對AI管理應具一致性角度出發,要求各政府機構間彼此應協調、分享與AI政策之相關經驗,共同確保在法規監管上的一致性及可預測性,且針對特定產業領域之AI應用,亦應按前述原則採取適合的法規監管措施,以促進美國創新及AI的成長,保障個人隱私、公民自由及美國價值觀。

       除上述原則外,於此份備忘錄中亦特別指明,當政府機構針對某特定AI應用之管理進行評估後,於認為有:(一)現所採行的法規監管措施已屬足夠、或(二)採取新的法規監管措施可創造的利益,不能合理化其所衍生的成本等情況時,該權責機構或可考慮「無須採取」任何法規管理措施,或者,是另行鑑別出可適切處理由該特定AI 應用所帶來風險的「非法規管理方法」並加以採用,其包括:
()發布特定產業之政策指引或規範架構:
       亦即建議政府機構可依現行得適用之法規授權方式,發布非法規監管政策聲明、指引文件、或與該項特定AI 應用相關之測試與部署之基本規範架構,以鼓勵該產業領域AI之創新。
(二)提供先導型計畫或相關實驗:
       即政府機構可依現行得適用之法規授權方式為某特定AI應用之開發 例外性的豁免於現行法規上所具有之相關限制 或先期性計畫(或試驗性計畫),例如:駭客馬拉松(Hackathons)、技術衝刺、各種挑戰競賽、及其他類型的先期性計畫,而於過程中,政府機構或可就該特定AI應用之設計、開發、部署、操作或產出結果之數據資料進行收集(事先將此作為前期性計畫之一部),以藉此改善已知的利益及風險,並同時產出可供未來制訂法規或非法規管理方法重要參資料。
(三)自願性共識標準:
       有鑑於私部門與其他利益相關者,為順應技術快速發展下需求,或有可能會針對某些特定的AI應用,開發相關的「自願性共識標準」(Voluntary Consensus Standards),以為其所具風險提供非法規管理方法,故此備忘錄建議政府機構,或可主動地將其管理上偏好(或基本要求),提供給制訂該「自願性共識標準」之私部門或利益相關者(亦可運用獨立的標準制訂機構),並宜考慮借重私部門所採的「符合性評鑑」(Conformity Assessments)措施及相關活動。

       在簡單檢視上述新發布的備忘錄內容後,相信讀者們對美國政府機構未來就其境內AI應用的開發與使用所採的管理上態度究竟是寬是嚴?應該已約略有些感受,而除上開各項原則及所提到的非法規管理方法外,還有些部分,筆者認為,可稍微再跟讀者們做個補充:
(一)此項備忘錄的適用範圍值得留意   
       雖然,美國聯邦下的政府機構老早就開始使用AI來執行他們的任務,不過呢…依據本項備忘錄內容,主要是針對政府機規範私部門對AI技術(或應用)的法規或非法規管理方式加以要求,而就其境內政府單位本身對於AI的使用,其實是並不屬於本項備忘錄適用範圍的。其次,根據備忘錄內容,就於文件中所使用AI一詞,雖然是直接援用了美國現行相關法律上最新的定義,但在概念上,其實也並不是甚麼都包,說白一點…這份文件對於AI技術(或應用)之管理,基本上,還是有個不成文的界線,據筆者觀察,這份文件對於「將來各政府部門或機構就AI技術(或應用)所採的管理方式」所為之要求,主要是針對所謂的「窄人工智慧」(或又稱「弱人工智慧」),其在本質上是一種超越傳統電腦的高階運算,藉著從「資料集」(Data Sets)、或其他「結構性」或「非結構性」資源萃取出所需資訊的方式,來學習與執行「領域-特定」或「具較高專業度」的工作,換句話說,對於可符合前開概念的「窄(或弱)人工智慧」,有此項備忘錄的適用,但…對於更具理論性的AI應用,亦即可能會展現出知覺(或自我意識)而可被更廣泛的應用於更多元的跨領域活動,或可能具備可就其原先的功能不斷進行自我能力改進來效仿(或超越)人類能力的所謂的「強人工智慧」(或稱「通用性人工智慧」),則已然超越出此項備忘錄的適用範圍。
(二)避免不當法規管理措施背後之思維~從管理面間接促進境內AI之創新成長   
       根據筆者觀察,在此份備忘錄中,對美國政府機構在決定「是否」以及「如何」在可能影響AI應用的產業領域進行法規監管時,有特別要求其應就「採取法規監管後對AI創新與成長所可能產生之潛在效果(包括利益與風險)」進行評估,來避免因政府機構對AI系統採取類似極高標準的「過度預防性措施」而導致發生民眾最終無法享受到AI可為我們生活或經濟所可帶來的各種利益的負面結果,除此之外,在此項備忘錄也建議,就對國家市場將造成不良影響的不具一致性的、繁瑣的或重複性的州法律,相關權責機構或可依評估結果並按其本身權能來妥善處理,對此,若我們換個角度來看,在此種要求政府機構應考慮是否宜停止不當的法規管理措施、避免採不適切且過度嚴格的一致性規格標準來限制AI應用的背後思維,其實…也就是要盡可能地避免因公部門單位採取了過度的預防性管理措施而阻礙(斷)了日後AI創新與成長的機會,並同時要藉此來間接地刺激及提升相關業者開發AI技術與衍生產品的意願。
()10項原則的外觀下納入AI倫理規範之核心精神
       經筆者再三檢視上述由美國政府所發布的10項原則內容後發現,其整體所包含的規範精神,與筆者在另一篇文章中所介紹的「歐盟AI倫理指引文件」中所提及的幾項基本原則相對較下,雖然在規範方式與管理強度上不太一樣(一為超國家層級的自律性指引文件,而另一則為國家聯邦層級的規範政府機構所為行政管理措施的備忘錄)
,但在各項原則所要求應納入考量的規範精神上,卻意外地讓人有種異曲同工之感,這種直觀性的感受,筆者認為…或許可藉由簡單的點出兩者相近似之面向,來讓讀者們自由判斷,例如:1.均以發展「值得信賴的AI」為目標;2.均將值得信賴AI的三大要素,亦即應為「合法的」(即須符合該國現行相關法律規定)、「倫理的」(即任何AI技術的開發,其先決條件必須要同時兼顧個人自由保護、尊重法治並維護其公民權利)、及「穩健的」(即應確保AI技術與應用的穩定性與健全性)納於其中;3.均將尊重人類自主、預防危害、公平性(包括不歧視)與可解釋性(此包括透明化與公眾溝通機制)等AI倫理原則納入等;而值得一提的是,雖然在此項備忘錄中,美國政府並未像歐盟政府般採取較細緻化且條理性的推導並逐一解釋各項AI原則的內涵,而是將之混和的納於備忘錄中,但這由上而下的行政落實力道與效果,恐怕…也不是僅單純仰賴自律性規範方式所可比擬的,且這樣預先性的對政府機構日後可能會基於對此類AI應用「因在本質上具有某些不確定風險所可能會導致其採取的過度嚴格的預防性法規管理措施」加以緩解的方法,倒也同時點明了一部分專家所擔憂的…未來AI的創新及發展或有可能會受到過度保守性法規管制的綑綁或阻礙問題,對此,筆者相信曾經對歐盟第2016/679號規則(即歐盟一般性資料保護規則,簡稱GDPR)相關規範內容做過瞭解或探究的讀者們,應會對政府如採取較偏向理論性的嚴格規範條文對實務上將帶來何種影響有較為深的理解(不過於實務上必須遵循該法令的業者來說感觸自然會來得更深刻些)。而至於有外界指稱,美國政府對AI發展將採取放任態度的說法,筆者反倒認為,這樣的預先性的避免該國政府機構保守性的對AI採取嚴格的法規管理措施方式,對促進類如AI此種新興科技發展來說,其實是一種在必須管理但卻又不宜過度(或不當)限制的規範光譜間,將之交由權責主管機關於保持彼此協調溝通並經評估權衡下,選擇出一個最適當衡平點的一種原則性的彈性管理方法。(讓人感到好奇的是…這樣別出心裁的規範方式,是否真可為美國在全球AI技術與市場競爭上取得其所預期的優勢與主導權?或許…也只有等待其後續實務的發展逐漸明朗後,外界才有機會加以印證)

參考資料:
1. 有關「全美第一款人工智慧醫療器材,一張照片判斷眼睛隱疾準確率 90%!」新聞資料,可參考網站:
https://buzzorange.com/techorange/2018/04/13/ai-idx-dr/
2. About the full text of “Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD)”, available at this website:
https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device
3. For more information about “The US just released 10 principles that it hopes will make AI safer”, please refer to this website:
https://www.technologyreview.com/2020/01/07/130997/ai-regulatory-principles-us-white-house-american-ai-initiatve/
4. About the full text of “Memorandum for the heads of executive departments and agents-Guidance for Regulation of Artificial Intelligence Applications”, available at this website:
https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf
5. About the full text of “Exec. Order No. 13,859, Maintaining American Leadership in Artificial Intelligence, 84 Fed. Reg. 3967 (Feb. 11, 2019)”, available at:
https://www.whitehouse.gov/presidential-actions/executive-order-maintaining-american-leadership-artificial-intelligence/
6. 有關「量身打造以AI技術為基礎之醫療器材軟體上市法規環境~美國FDA公布新管理架構概念討論文件」文章,可至巨群網站參考:
http://www.giant-group.com.tw/law-detail-734.html
7. 有關「發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-I~值得信賴的AI之構成要素及相關倫理原則」文章,可至巨群網站參考:
http://www.giant-group.com.tw/law-detail-883.html