本文為「經濟部產業技術司科技專案成果」
一、緣起與目標 「依賴制度(reliance)」指一國有效利用他國的審查結果,而減少重複作業、提升效率,並促進病人更快取得安全、有效產品的政策。為此,國際醫療器材法規管理論壇(International Medical Device Regulators Forum, IMDRF)於2025年3月提出《醫療器材監管依賴計畫操作手冊》(Playbook for Medical Device Regulatory Reliance Programs)草案,協助各國建立與管理依賴制度。惟此制度並非「無條件接受他國決策」或「國際換證」,而須由各國自行決定如何利用依賴制度,並承擔最終監管責任。 二、應用範圍 該手冊適用於所有醫療器材(含體外診斷器材)或輔具,並涵蓋產品生命週期各階段(如技術文件審查或品質管理系統驗證等)。 三、依賴機制的類型 手冊歸納三類依賴機制並舉例說明: 1.工作共享(Work-sharing):指多國協作進行監管任務,可為聯合評估、聯合檢查,或共同推出監管標準等。如IMDRF推出的「醫療器材單一稽查計畫」,訂定多國之驗證機構對製造商的統一稽核標準,使廠商受稽後所作成的稽查報告可一次性符合數國法規。 2.簡化審查(Abridged Review):以他國完整的審查成果作為基礎,僅針對當地「特有」及「新增」的風險進行審查。如新加坡健康科學局已實施簡審制度。 3.承認(Recognition):正式接受他國監管決策結果作為判斷依據,可分為單、雙、多邊的承認。如CE標誌的醫材可在歐盟27個成員國內通行。 四、結語 IMDRF並非藉由該手冊推行「最佳模式」,而是協助各國依需求發展適合的監管依賴策略,加強協作與資源共享,進而促進全球監管上的一致性與產品流通性。近年世界衛生組織及區域組織(如歐盟、東協、非洲聯盟發展署)越加重視各國監管法規的一致性,並將審查資源移向人工智慧或高風險醫材的監管探索中,此監管趨勢值得我國持續關注。
從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例 美國地方法院裁定產品專利資訊標示不實之罰金計算以該產品之最高售價為基礎繼美國聯邦巡迴上訴法院於2009年底於The Forest Group Inc v. Bon Tool Co. 一案中將美國專利法35 U.S.C. § 292條中關於不實專利標示(false patent marking)的罰金計算方式認定為罰金之計算是以每一個標示錯誤專利資訊的產品為基礎,並將原案發回地方法院(the U.S. District Court for the Southern District of Texas)重審後,地方法院於今年4月27日裁定基於專利法第292條具懲罰性之本質,針對標示錯誤或標示無效專利號之產品之罰金應以該產品之最高售價而非被告基於販售該產品所獲得之利潤或經濟利益來計算。 於此案中,The Forest Group產品之售價介於美金 $103至 $180元間,法院因而裁定處以The Forest Group每一標示錯誤專利資訊產品 $180元之罰金。 Atlas 法官提到藉由將標示不實專利資訊者處以該產品之最高售價之罰金,The Forest Group所需賠償之罰金將超過其藉由販售該產品所獲取之利益,達到第292條遏制之目的。 預計此案之判決將對其他地方法院於處理類似案件之判定產生引響,尤其對那些將錯誤專利資訊標示在大量產品上的被告而言。此外,正如各界所預料,繼去年聯邦巡迴上訴法院對第292條提出罰金計算基礎之解釋後,提起相關訴訟案件之數量已大量提升,至今已累積約140案。另,聯邦巡迴上訴法院亦剛於6月10日於Pequignot v. Solo Cup 一案中針對標示過期專利、舉證責任等與第292條相關之爭議做出解釋,後續效應直得企業持續關注。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。