美國食藥署(US Food and Drug Administration, FDA)於2022年2月23日提出「醫療器材品質系統規則修正草案(Medical Devices; Quality System Regulation Amendments proposed rule)」。本次修正旨在釐清現行條文與國際標準ISO13485醫療器材品質管理系統之異同,並進行適度調和。
根據修正說明,草案就現行條文與ISO13485一致之處將予保留,不一致者若屬落實授權母法「美國聯邦食品藥粧法(US Federal Food, Drug and Cosmetics Act, FD&C Act)」之必要內容,將斟酌條文用詞明確性調整後予以保留,其餘將予刪除。此外,草案也透過名詞解釋界定不同用語之定義範疇,嫁接現行條文與ISO13485落差處。對於現行條文中,與ISO13485性質相同但內容產生衝突之條文,基於依授權母法意旨,以現行條文為準。
FDA注意到,部分FD&C Act所重視的品質管理系統要求,在ISO13485中並未被重點凸顯,如記錄控管(control of records)、醫材標示(device labeling)及包裝控管(packaging controls)。本次修正特別針對此三部分保留並增補較ISO13485要求更為詳細的規範內容。在記錄控管部分,除依照ISO13485要求,記錄標的應為日期及簽署確認外,進一步依據FD&C Act規定,要求特定的服務及執行紀錄應予以紀錄,以作為醫材報告之內容。此外,也規定應詳實記錄醫療器材單一識別碼(Unique Device Identification, UDI)。在醫材標示及包裝控管部分,由於ISO13485僅指出產品應標示及包裝,但未詳述細節要求。因此,本次修正保留現行條文對於標示及包裝的細節性規定,以確保產品安全性及有效性。
本草案目前進入意見徵集期間,時間自2022年3月25日起至2022年5月24日止。後續FDA將視所徵集之意見,決定是否調整草案內容或公告施行。本次修定將使醫療器材品質系統規則與ISO13485趨於一致,預計可減輕廠商行政作業及支出負擔。
美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
智慧財產權管理標準之建立-由管理系統標準談起(上) 新加坡發布《無形資產揭露框架》,鼓勵企業主動揭露「無形資產」現況,以創造更高的價值新加坡政府於2023年9月4日發布《無形資產揭露框架》(Intangibles Disclosure Framework, IDF),鼓勵企業以系統化的方式,主動對外揭露所持有之「無形資產」(如品牌價值、專利等),使利害關係人(如投資者、合作夥伴等)能進一步瞭解其「無形資產」現況,藉此創造「無形資產」更高的價值。本框架是在「新加坡智慧財產局」(Intellectual Property Office of Singapore, IPOS)及「會計與企業管理局」(Accounting and Corporate Regulatory Authority, ACRA)主導下,由產業代表組成的工作小組歷時2年討論後制定發布。 框架中指出,過去20年間,全球「無形資產」的投資和所創造之價值逐步超過「有形資產」。然而,傳統會計準則往往無法完全真實反映企業所持有之「無形資產」價值,亦即「無形資產」價值往往被低估。因此,本框架鼓勵企業主動揭露,並建議可將「無形資產」現況納入公司年報(Annual Report)中,亦可獨立成一份報告,與公司財報(financial statements)一同發布。 此外,企業在揭露「無形資產」時可依循以下四項原則(簡稱「SIMM原則」): 1.策略(Strategy): 企業應揭露「無形資產」與其商業經營策略的關聯性、佈局狀況、貢獻度,使利害關係人瞭解企業是如何利用「無形資產」維持其競爭優勢及替投資者創造更多的收益。 2.識別(Identification): 本框架指出「無形資產」不用侷限於傳統會計準則的定義,企業應揭露「無形資產」的性質和特徵(包含如何取得),並建議可將「無形資產」分類,如:(1)行銷類;(2)顧客類;(3)契約類;(4)藝術類;(5)技術類;(6)人力資源類。 3.衡量(Measurement): 企業應揭露其評估(assess)「無形資產」價值的績效指標與驅動因子,並以量化方式呈現。如針對商標等「行銷類」之「無形資產」,企業得以顧客滿意度、國際品牌排名作為評估之績效指標。企業亦可選擇揭露「無形資產」的貨幣價值(monetary value),其評價應依照國際評價準則(International Valuation Standards , IVS)進行。 4.管理(Management): 企業應揭露其如何識別、評估、管理與各類「無形資產」相關之風險與機會,以及如何將這些程序整合至企業整體風險管理策略中,以協助利害關係人瞭解企業「無形資產」所面臨之風險和機會。譬如企業應明確揭露監控相關風險之頻率、定期更新風險管理政策和程序等。 新加坡總理公署部長(Minister of Prime Minister's Office)Indranee Rajah表示,本框架是「新加坡智慧財產戰略」(Singapore IP Strategy 2030, SIPS 2030)的重要推動措施之一,企業若能主動揭露「無形資產」現況,將有助於將其「無形資產」商業化、吸引更多的投資、增進風險管理、提升企業競爭力,持續強化新加坡作為全球智財活動及交易樞紐的地位。 本文同步刊登於TIPS網站(https://www.tips.org.tw)