英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2022年6月22日公布「英國醫療器材監管的未來之公眾諮詢政府回應」(Government response to consultation on the future regulation of medical devices in the United Kingdom),確立未來醫材監管方向。本次諮詢收到將盡900件回應(民眾與業者大約各半),結果顯示民眾業者對於強化醫療器材安全監管的支持。
MHRA將強化MHRA的執法權力,以確保病患安全,並且關注健康不平等議題並減少AI偏見問題;其監管設計上會考量歐盟和全球標準,並致力於建立英國符合性評鑑(UK Conformity Assessed, UKCA)。MHRA於安全方面,將增加製造商、進口商與經銷商的責任,並要求有英國地址的負責人對瑕疵商品負擔法律責任(構成法律責任的要件與製造商同)。其亦將要求製造商賠償被不良事件影響的人、禁止行銷上使用引人錯誤之表示、導入醫材之單一識別碼(Unique Device Identifiers, UDI)與增加註冊所需提供之資料,且製造商須建置上市後不良反應監測系統並回報統計上顯著的不良事件趨勢。創新方面,MHRA欲增設「創新醫療器材上市管道」和「軟體醫材上市管道」,以顧及創新與軟體醫材特殊需求。針對一般軟體醫材(software as a medical device, SaMD)與人工智慧軟體醫材(AI as a medical device, AIaMD)的監管,MHRA僅欲於法規中增加「軟體」的定義,其他規範將由指引的形式公布。此外,其將AIaMD視為SaMD的一種,並不會額外訂定AIaMD相關規範。
本文為「經濟部產業技術司科技專案成果」
美國運輸部(Department of Transportation)於2018年10月4日公布「自駕車3.0政策文件」(Preparing for the Future of Transportation: Automated Vehicles 3.0)」,提出聯邦政府六項自駕車策略原則: 安全優先:運輸部將致力於確認可能之安全風險,並促進自駕車可帶來之益處,並加強公眾信心。 技術中立:運輸部將會依彈性且技術中立之策略,促進自駕車競爭與創新。 法令的與時俱進:運輸部將會檢討並修正無法因應自駕車發展之交通法令,以避免對自駕車發展產生不必要之阻礙。 法令與基礎環境的一致性:運輸部將致力於讓法規環境與自駕車運作環境於全國具備一致性。 主動積極:運輸部將主動提供各種協助,以建構動態且具彈性之自駕車未來,亦將針對車聯網等相關補充性技術進行準備。 保障並促進自由:運輸部將確保美國民眾之駕駛自由,並支持透過自駕科技來增進安全與弱勢族群之移動便利,進而促進個人自由。 「自駕車3.0政策文件」並建立五個策略,包括利益相關人參與、典範實務(best practice)、自願性標準、目標研究(Targeted research)與規範現代化等,配合以上原則進行。美國運輸部並肯認其先前提出之「安全願景2.0(A Vision for Safety)」中之安全性架構,並鼓勵技術與服務開發商持續遵循自願性之安全評估,並重申將依循自我認證(self-certification)而非特定認證管制途徑,以促進規範之彈性。
專利連結(Patent Linkage)-藥品研發與競爭之阻力或助力? - 談藥品查驗登記程序與專利權利狀態連結之發展 德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。