美國食品藥物管理署(U.S. Food & Drug Administration, FDA)在2021年1月12日發布有關人工智慧醫療器材上市管理的「人工智慧/機器學習行動計畫」(Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan)。該行動計畫的制定背景係FDA認為上市後持續不斷更新演算法的機器學習醫療器材軟體(Software as Medical Device, SaMD),具有極高的診療潛力,將可有效改善醫療品質與病患福祉,因此自2019年以來,FDA嘗試提出新的上市後的監管框架構想,以突破現有醫療器材軟體需要「上市前鎖定演算法、上市後不得任意變更」的監管規定。
2019年4月,FDA發表了「使用人工智慧/機器學習演算法之醫療器材軟體變更之管理架構—討論文件」(Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine earning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback)。此一諮詢性質的文件當中提出,將來廠商可在上市前審查階段提交「事先訂定之變更控制計畫」(pre-determined change control plan),闡明以下內容:(1)SaMD預先規範(SaMD Pre-Specification, SPS):包含此產品未來可能的變更類型(如:輸入資料、性能、適應症)、變更範圍;(2)演算法變更程序(Algorithm Change Protocol, ACP):包含變更對應之處理流程、風險控制措施,以及如何確保軟體變更後之安全及有效性。
根據「人工智慧/機器學習行動計畫」內容所述,「事先訂定之變更控制計畫」構想被多數(包含病患團體在內)的利害關係人肯認,並於相關諮詢會議當中提出完善的細部建言。FDA將根據收到的反饋意見,於2021年以前正式提出有關人工智慧/機器學習上市後監管的指引草案(Draft Guidance),並持續研究提高演算法透明度、避免演算法偏見的方法。
隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
美國政府設立Apps.gov網站推動雲端科技運用美國政府在9月15日宣布,為了減少基礎建設的相關費用以及降低政府運算系統的環境衝擊,因此設立Apps.gov網站,展示並提供經政府認可的雲端科技運用。 據美國聯邦政府CIO Vivek Kundra表示,Apps.gov網站是美國政府首度對外發表,針對減少IT花費政策的成果。目前美國政府IT預算幾乎都花費在設立資料中心,單在國家安全部下就設有23個資料中心,而這也造成了聯邦政府的資源消耗在2000年到2006年間增加了兩倍,為了落實減少基礎建設花費的政策,並基於安全性的考量,希望能夠盡量利用現有的系統。 美國政府目前推動的雲端運算倡議計劃有三個主要內容,第一個主要內容即為全新的Apps.gov網站,提供企業一個情報交換平台、社交媒介與雲端IT服務。雖然目前網站尚未完全運作,甚至還曾造成一連串的錯誤訊息,但美國政府當局仍希望該網站最終能成為一次即可滿足的服務商店(one-stop shop),可在一個平台上提供多種類的雲端運算服務。Kundra表示,美國能源部已經開始使用該網站執行部分相關業務。 該計畫的第二個重點則是預算,美國政府在2010年將會致力推動雲端運算領航計畫,並為此編列年度預算,希望能投入更多輕量的工作流程(lightweight workflows)至雲端科技的發展。而在2011年,美國政府則預計會發布相關指導準則至各機關部門。 最後,該計劃亦會配合安全性、隱私及採購等相關政策。Kundra表示,將會確保所有資料都受到完善保護。 Google創辦人之一Sergey Brin也宣佈Google將會投入部份雲端運算系統專供聯邦政府使用,此系統與Google提供給一般企業的系統相似,但會針對政府需求稍做修改。除了Google之外,Microsoft、Facebook、Salesforce.com及Vimeo等公司亦提供雲端運算服務予政府機關使用。
中國大陸國家新聞出版廣電總局重新建構網路服務管理規範 歐盟發布「人工智慧白皮書」以因應人工智慧未來可能的機遇與挑戰人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。