英國展開醫療器材監管公眾意見徵詢並公布《人工智慧軟體醫材改革計畫》

  英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2021年9月16日展開期待已久的「英國醫療器材監管的未來」公眾意見徵詢(Consultation on the Future of Medical Devices Regulation in the United Kingdom),並公布「人工智慧軟體醫材改革計畫」(Software and AI as a Medical Device Change Programme)。英國欲從醫療器材上市前核准至其壽命結束進行監管改革,徹底改變一般醫療器材與人工智慧軟體醫療器材之監管方式。意見徵詢已於2021年11月25日結束,而該修正案預計於2023年7月生效,與英國針對醫療器材停止使用歐盟CE(Conformité Européenne, 歐洲合格認證)標誌並要求採用英國UKCA(UK Conformity Assessed, 英國合格評定)標誌的日期一致。

  人工智慧軟體醫材改革計畫則包含十一個工作項目(work package,下稱WP),WP1與WP2分別為監管資格與監管分類,皆涉及監管範圍之劃定;WP3與WP4分別涉及軟體醫材上市前與上市後,如何確保其安全性與有效性的監管之研究;WP5針對軟體醫材之網路安全進行規範;WP6與WP7涉及加速創新軟體醫材審核上市之特別機制,分別為類似「創新藥品藥證審核與近用途徑」 (innovative licensing and access pathway)的機制,以及允許適時上市並持續研究監控風險的「氣閘分類規則」(airlock classification rule);WP8為確保智慧型手機之健康應用程式安全、有效與品質之規範研究;WP9~WP11則分別針對人工智慧軟體醫材之安全與有效性、可解釋性(interpretability)以及演進式(adaptive)人工智慧進行法規調適之研究。

  MHRA預計透過指引、標準、流程之公布而非立法方式實現其監管此領域的目標。MHRA亦透露,針對上述工作項目,其已與重點國家和國際機構進行研究合作,已有不少進展即將公布。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國展開醫療器材監管公眾意見徵詢並公布《人工智慧軟體醫材改革計畫》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8765&no=67&tp=1 (最後瀏覽日:2026/01/17)
引註此篇文章
你可能還會想看
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式

澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。

摩托羅拉告蘋果專利侵權,手機大廠展開互告混戰

  摩托羅拉旗下子公司Motorola Mobility於10月6日向美國國際貿易委員會(ITC)提訴,指蘋果公司的iPhone, iPad, iTouch 以及一些 Mac電腦侵害其專利,同時Motorola Mobility也在伊利諾州北區和佛州南區的聯邦法院提出告訴。值得一提的是,在對法院提出的告訴中僅僅是 “指稱” 多種蘋果公司的產品如Apple iPhone 3G, Apple iPad等侵害其專利權,像這種沒有提出具體證據的告訴儼然已經成為風氣,似乎違反了最高法院於Bell Atlantic Corp. v. Twombly案中指出必須要提出明確的事證而非僅止於推論(speculation)的要求。   Motorola Mobility提出的3項告訴中共包含18項專利,乃是關於無線通訊技術,例如WCDMA (3G)、GPRS, 802.11、天線設計,以及關鍵的智慧手機技術,包括無線電子郵件、近距感測(proximity sensing)、軟體應用管理等。Motorola 智財部門的副總裁Kirk Dailey表示自蘋果進入通訊市場以來即開始與其長期磋商,但因為蘋果拒絕接受授權所以不得不提出告訴以阻止他們繼續侵權。近來手機市場上專利侵權互告頻繁,摩托羅拉的Android智慧手機日前也遭微軟控告侵權,HTC也與蘋果對簿公堂。Google、蘋果等手機市場的新秀顯然已對摩托羅拉、微軟等老前輩構成競爭壓力,形成手機大廠互相控告侵權的戲碼不斷上演。

美國眾議院提出「深度偽造究責法案」

  隨著人工智慧(AI)視覺處理技術愈發進步,圖片及影像的篡改也更加普遍,甚至使人難以分辨其真偽,例如一款應用程式(App)-DeepNude便是運用此技術,將人穿著衣服的照片改作為裸體圖像;此種AI技術因對於社會及被偽造之當事人權益影響重大,進而引起美國立法者的極度重視。   日前維吉尼亞州為了遏止如DeepNude此類的應用程式,便於該州之《復仇式色情法》(Revenge porn law),擴大復仇式色情的涵蓋範圍,使其包括利用機器學習技術偽造他人照片或影像等深度偽造(Deepfake)行為。   但該深度偽造技術之應用,實際上並不僅侷限於情色領域,故美國紐約州眾議員伊薇特.克拉克(Yvette Clarke)於本年度(2019年)6月即提出了《深度偽造究責法案》(Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019., DEEP FAKES Accountability Act.)草案,本草案令人關注之處除配合現今科技發展特性為規定外,另針對實務上曾衍生的爭議問題,特別將外國勢力或其代理人(foreign power or an agent thereof)介入美國國內政治行為,如意圖影響美國國內公共政策辯論(domestic public policy debate)、選舉或其他不得合法從事的行為等納入規範。   依該草案之內容,其所規範者包含視聽紀錄、視覺紀錄及錄音紀錄;意即任何人使用任何技術或設備製作假冒他人名義(false personation)的紀錄,並於網路或其他知識傳播管道發布者,應有浮水印、口頭陳述或是於文本中有簡要說明等揭露,以使他人得清楚知悉該紀錄並非真實,如行為人有違反該揭露規定並利用深度偽造1.意圖羞辱或騷擾(包含性內容);2.意圖造成暴力、身體傷害、煽動暴亂、外交衝突或干預選舉;3.詐欺犯罪等,將可處5年以下有期徒刑,或科或併科罰金。另若行為人修改或刪除他人揭露之資訊而有上述意圖或犯罪行為者,亦可處以同等罰責。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP