英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2021年9月16日展開期待已久的「英國醫療器材監管的未來」公眾意見徵詢(Consultation on the Future of Medical Devices Regulation in the United Kingdom),並公布「人工智慧軟體醫材改革計畫」(Software and AI as a Medical Device Change Programme)。英國欲從醫療器材上市前核准至其壽命結束進行監管改革,徹底改變一般醫療器材與人工智慧軟體醫療器材之監管方式。意見徵詢已於2021年11月25日結束,而該修正案預計於2023年7月生效,與英國針對醫療器材停止使用歐盟CE(Conformité Européenne, 歐洲合格認證)標誌並要求採用英國UKCA(UK Conformity Assessed, 英國合格評定)標誌的日期一致。
人工智慧軟體醫材改革計畫則包含十一個工作項目(work package,下稱WP),WP1與WP2分別為監管資格與監管分類,皆涉及監管範圍之劃定;WP3與WP4分別涉及軟體醫材上市前與上市後,如何確保其安全性與有效性的監管之研究;WP5針對軟體醫材之網路安全進行規範;WP6與WP7涉及加速創新軟體醫材審核上市之特別機制,分別為類似「創新藥品藥證審核與近用途徑」 (innovative licensing and access pathway)的機制,以及允許適時上市並持續研究監控風險的「氣閘分類規則」(airlock classification rule);WP8為確保智慧型手機之健康應用程式安全、有效與品質之規範研究;WP9~WP11則分別針對人工智慧軟體醫材之安全與有效性、可解釋性(interpretability)以及演進式(adaptive)人工智慧進行法規調適之研究。
MHRA預計透過指引、標準、流程之公布而非立法方式實現其監管此領域的目標。MHRA亦透露,針對上述工作項目,其已與重點國家和國際機構進行研究合作,已有不少進展即將公布。
本文為「經濟部產業技術司科技專案成果」
英國於三月份發布2021年度財政預算案,其中說明為鼓勵新創企業(快速成長型企業)發展而公布了八項策略,包含:立即提供救濟以抵抗新冠肺炎帶來的風暴、政府成立新基金「Future Fund: Breakthrough」投資新創企業、企業激勵員工措施(EMI)之重視、發行高科技技術簽證、培養下一世代人才、新創企業協助成長計畫(針對數位化及企業管理)、研發稅收減免計畫之修正以及英國主板上市規則之修正。 其中英國主板上市規則之修正部分,主要委託外部專家Lord Hill信行獨立審查。經審查後專家提出15項建議,包含: 財政部須向議會提交一份年度報告,並於報告中說明已採取或即將採取之專家建議。 財政部應隨時注意英國金融行為監理總署 (Financial Conduct Authority, FCA)是否為英國打造適合新創企業發展並擁有良好監管之公開市場。 應於優質板(Premium Listing)開放上市公司使用雙層股權結構,但須搭配相關監管措施以維持良好公司治理。 重新定義、命名標準板(Standard Listing)。 修正並降低股權分散之要求,並建議依據不同規模公司設置不同分散比例。 放寬特殊目的收購公司(Special Purpose Acquisition Company, SPAC)限制,同時為保護一般投資人建議新增「異議股東股份收買請求權」。 建議修正公開說明書相關部分,如:放寬豁免規定、允許使用替代文件。 建議考量於英國二次上市之企業毋庸另行製作公開說明書,而允許使用於其他國家上市之公開說明書。 建議修正董事以及發行人責任,促使其提供前瞻性訊息。 擴大科技研發公司上市時豁免獲利之要求至其他新創企業。 建議降低優質板歷史財務文件之要求。 考量如何運用科技提高一般投資人參與公司治理。 修改上市規則以利提高公司籌資之效率。 審查現行公開發行相關規則,確定各規則均有符合設立目的。 放寬廣泛金融生態系統限制,如:放寬養老基金投資限制、解決競爭稅收環境以及中小企業研發優惠。
眾議員提出新法以因應數位科技轉換產生的權利保護問題為避免數位科技轉換所可能發生的權利保護缺口,美國眾議院司法委員會主席 James Sensenbrenner Jr. 與議員 John Conyers 於本月 16 日共同提出了「 Digital Transition Content Security Act 」( DTCSA , H.R.4569 ),要求業者應在次世代的數位影像製品中加入反盜版技術。該草案的提出,無疑地為飽受盜版所苦的好萊塢注入一劑強心針。 原本可受到著作權法保護的數位內容,一旦由數位轉換為類比( analog )形式,再由類比轉換回數位後,其品質上雖稍受影響,但此一新的數位內容即不再受著作權法的保障,眾議員 John Conyers 將之稱為「類比漏洞」( analog hole ), DTCSA 的提出即在於因應此一棘手問題。未來草案若能順利通過,除非業者能提出有效阻斷違法複製的策略,否則在一年緩衝期過後,業者凡有製造或販售可將類比影像訊號轉換為數位訊號之設備,均將被宣布為違法。可能因此受到影響者,包括了電腦調頻器( PC-based tuner )與數位錄影機( digital video recorder )等。 全美電影協會( MPAA )對此新法大表歡迎,主席 Dan Glickman 認為 DTCSA 的提出,不僅保護了權利人,同時也將提供消費者更多的選擇。但另一方面,在 DTCSA 賦予商業部( Commerce Department )更大的權力以監視家電製造業者之下,草案無可避免地將遭致來自業者一方強大的反彈力量。
歐盟執委會規劃制訂新世代智慧電網規範,及研擬共通性評估要項工具歐盟執委會(European Commission)於去(2011)年10月公布一份「建立共通性智慧讀表功能要項及影響因素(Set of Common Functional Requirements of the Smart Meter)」調查報告,對於各會員國發出問券,調查對於建設智慧讀表(智慧電網SmartGrid系統首要基礎)之經濟評估要項,藉此瞭解各國於推動建立,所考量之優先因素及差異性,並藉此彙整出「成本效益評估項目(Cost Benefit Assessments , CBAs)」,建立歐盟層級之共通性功能要項,以利後續其他會員國援用導入之政策工具。 以及,歐盟執委會所屬聯合研究中心(Joint Research Centre , JRC),於去(2011)年7月亦公布一份「歐盟智慧電網關鍵挑戰及發展趨勢(Smart Grids: New Study Highlights Key Challenges and Trends in the EU)」研究報告,指出歐盟各會員國現今已投入219個智慧電網計畫,總經費達5.5兆歐元以上,並設立展示(Showcases)網站,供外界瞭解推動進度;此研究報告並指出,要健全智慧電網發展,除了大規模投入經費資源建設外,更應重視各會員國對於原既有能源管制規範之體檢審視;該報告呼籲各會員國應積極建立新世代智慧電網規範,因為於現有管制規範下,常導向各國推動實務,多僅強調可降低系統運作支出成本,而不是直接朝向升級為智慧性整合體系而發展,於現有監管模式(Current Regulatory Models)下,縱使眾多投資於智慧電網,亦無法出現突破性發展。該報告並倡議,新世代管理規範,至少應建立服務平台運作原則及遵守規範,並導引效益之公平分享。 此外,歐盟執委會於去(2011)年4月間,關於智慧電網發展重要法制政策之關鍵議題,亦曾發布「智慧電網創新發展(Smart Grids: From Innovation to Deployment)」政策文件,其中明列發展智慧電網,首要應重視資料隱私及安全性議題(Addressing data privacy and security issues),亦必須建立共通性標準(Developing common European Smart Grids standards),及提供優惠政策措施,並且應確保消費者資料接取(Access)權利,保證維持公開競爭市場並鼓勵增進消費者利益之各項發展。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。