FDA發佈人工智慧/機器學習行動計畫

  美國食品藥物管理署(U.S. Food & Drug Administration, FDA)在2021年1月12日發布有關人工智慧醫療器材上市管理的「人工智慧/機器學習行動計畫」(Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan)。該行動計畫的制定背景係FDA認為上市後持續不斷更新演算法的機器學習醫療器材軟體(Software as Medical Device, SaMD),具有極高的診療潛力,將可有效改善醫療品質與病患福祉,因此自2019年以來,FDA嘗試提出新的上市後的監管框架構想,以突破現有醫療器材軟體需要「上市前鎖定演算法、上市後不得任意變更」的監管規定。

  2019年4月,FDA發表了「使用人工智慧/機器學習演算法之醫療器材軟體變更之管理架構—討論文件」(Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine earning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback)。此一諮詢性質的文件當中提出,將來廠商可在上市前審查階段提交「事先訂定之變更控制計畫」(pre-determined change control plan),闡明以下內容:(1)SaMD預先規範(SaMD Pre-Specification, SPS):包含此產品未來可能的變更類型(如:輸入資料、性能、適應症)、變更範圍;(2)演算法變更程序(Algorithm Change Protocol, ACP):包含變更對應之處理流程、風險控制措施,以及如何確保軟體變更後之安全及有效性。

  根據「人工智慧/機器學習行動計畫」內容所述,「事先訂定之變更控制計畫」構想被多數(包含病患團體在內)的利害關係人肯認,並於相關諮詢會議當中提出完善的細部建言。FDA將根據收到的反饋意見,於2021年以前正式提出有關人工智慧/機器學習上市後監管的指引草案(Draft Guidance),並持續研究提高演算法透明度、避免演算法偏見的方法。

相關連結
※ FDA發佈人工智慧/機器學習行動計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8628&no=57&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
美國總統簽署有關監管數位資產的行政命令

  美國總統於2022年3月9日簽署有關監管數位資產的行政命令(Executive Order on Ensuring Responsible Development of Digital Assets),有鑑於加密貨幣(cryptocurrencies)在內的數位資產於過去大幅成長,自5 年前的 140 億美元市值快速增長到去年11月的 3 兆美元市值,並且有100 多個國家正在探索央行數位貨幣(Central Bank Digital Currency, CBDC)。為使美國政府有整體性的政策以應對加密貨幣市場的風險與數位資產及其基礎技術的潛在利益,該行政命令以消費者與投資者保護、金融穩定、打擊非法融資、增進美國競爭力、普惠金融、負責任的創新為六大關鍵優先事項。   為實現關鍵優先事項,行政命令中所採取的具體措施包含:(1)政府機關應合作來保護美國消費者與企業,以因應不斷成長的數位資產產業與金融市場變化; (2)鼓勵金融監管機構識別與降低數位資產可能帶來的系統性金融風險,制定適當的政策建議以解決監管漏洞;(3)與盟友合作打擊非法金融與國安風險,減輕非法使用數位資產所帶來非法金融與國家安全風險;(4)運用數位資產的技術,促進美國在技術與經濟競爭力上保持領先地位;(5)支持技術創新並確保負責任地開發與使用,同時優先考慮隱私、安全、打擊非法利用等面向;(6)鼓勵聯準會研究CBDC,評估所需的技術基礎設施與容量需求。

新加坡個人資料保護委員會針對企業蒐集、使用、揭露永久居留證(NRIC)號碼提出新的諮詢指引

  考量各行各業的從業習慣及民眾對企業蒐集、使用、揭露永久居留證(National Registration Identification Card, NRIC)號碼之看法,新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2017年11月提議修改個人資料保護法的諮詢指引(Advisory Guidelines on the Personal Data Protection Act ),明確界定企業蒐集、使用、揭露NRIC及其號碼之範圍。   依據舊的諮詢指引,新加坡個人資料保護法允許企業在基於合理特定目的並依法獲得當事人有效同意之情況下,蒐集、使用或揭露NRIC號碼。因此,不少企業活動習慣蒐集利用民眾的NRIC號碼,包括零售商店所舉辦的抽獎活動。然而,在PDPC提出新的諮詢指引後,企業可蒐集利用NRIC號碼的情況受到大幅限縮。   由於NRIC號碼與個人資訊息息相關且具不可取代性,無差別地蒐集利用將增加資料被用以從事非法活動之風險,故新的諮詢指引闡明,原則上企業不應蒐集、使用或揭露個人NRIC號碼或複印NRIC,除非有下列兩種例外情況之一:(一)法律要求;(二)為確實證明當事人身分所必要。第一種例外情況,雖因法律要求無須取得當事人同意,但企業仍應踐行告知義務,使當事人知悉NRIC號碼被蒐集、使用或揭露之目的,並確保企業內已採行適當安全措施,防止NRIC號碼被意外洩漏。第二種例外情況則仍須就NRIC號碼的蒐集、使用或揭露取得當事人同意,除非符合個人資料保護法規定下毋庸取得當事人同意之例外(如急救等緊急狀況)。   此外,PDPC針對得蒐集、使用或揭露NRIC號碼或複印NRIC的情況,以情境案例方式於諮詢指引中說明供企業參考,另給予12個月的審視期間,使企業得修正組織內部政策並尋找可行替代方案。

美國眾議院外交事務委員達成協議,修訂《國家關鍵能力防禦法案》建立對外投資審查制度

  美國眾議院外交事務委員會於2022年6月13日在兩黨創新法案(HR4521)會議上,就對外投資機制新提案發表聯合聲明。兩黨達成協議修訂《國家關鍵能力防禦法案》(National Critical Capabilities Defense Act of 2022, NCCDA),擴大對外投資審查制度。促使美國制定NCCDA對外投資審查立法乃係源於經濟和國家安全考量,美國關注特定技術向中國轉讓以及美國企業可能透過特定投資幫助提升中國能力之風險。因此,雖然NCCDA會給國際投資帶來不確定性,但美國兩黨及兩院內部仍支持實施特定形式的對外投資審查程序,並且與利益相關者就如何制定強而有力且具針對性的對外投資機制進行建設性的討論,目的是確保美國不會將關鍵產業製造能力拱手讓給外國競爭對手。   NCCDA授權成立國家關鍵能力委員會(Committee on National Critical Capabilities),由美國貿易代表署擔任主席並與供應鏈安全相關聯邦機構成員共同組成,審查特定對外業務交易和活動包括:界定需要境外投資審查的活動範圍、明訂出境審查流程、及關鍵產業項目等。依據NCCDA第11條「國家關鍵能力(National Critical Capabilities)」定義,指對美國至關重要的有形及無形的系統和資產,若此類系統和資產無法開發、失能或遭到破壞,將對國家安全造成破壞性影響。委員會應負責界定涉及「國家關鍵能力」產品、供應鏈和服務;列舉國家關鍵能力產業領域包括:能源、醫療、通訊、國防、運輸、航空航太、機器人、人工智慧、半導體、造船、水等。若美國人和外國實體從事「涵蓋活動」者,必須在展開活動前至少60天以書面形式通知委員會。委員會將會通知審查,若確定所涵蓋的活動對國家關鍵能力構成不可接受的風險,委員會可以實施緩解措施,或建議總統採取特定行動,包括暫停和禁止該活動。美國兩黨期待各方利益相關者能以書面形式參與討論,確保NCCDA法案通過並滿足各方需求,使美國與盟友國的對外投資機制保持一致。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP