奈米材質之特性雖有助於開發新穎產品,但對於環境與人體健康是否會造成危害,迄今仍未有定見;為避免奈米科技毫無節制地發展,2008年9月以降,美國環保署(Environmental Protection Agency,EPA)以毒性物質管制法(Toxic Substances Control Act,TSCA)管理奈米材料,並在10月底考慮將奈米碳管納入前述法規中;11月初,更進一步依據毒性物質管制法5(a)(2)發布「顯著新種使用規則(Significant New Use Rule,SNUR)」,將以矽氧烷(siloxane)所改造之奈米矽微粒(silica nanoparticles)與奈米鋁微粒(alumina nanoparticles)列入管理範圍內。 一般而言,化學物質如未列於由EPA所公佈之「化學物質目錄」者,皆應向環保署提出製造前通知(Premanufacture Notice,PMN);而顯著新種使用規則以指定特殊新種化學物質的方式,配合適用製造前通知制度,要求業界針對製造、加工、銷售與使用等過程,提出具體因應措施。申言之,關於前述兩項奈米物質,一旦涉及有別於以往的重大創新製造活動,業者即應於正式進行製造前之90天先行通報環保署,再由其評估該業者是否符合相關條件要求,否則得予以禁止或限制之。 根據環保署既有之測試資料,可以確認奈米微粒得由呼吸與皮膚接觸等方式進入人體。以矽氧烷所改造之奈米矽及奈米鋁,泰半係作為添加劑之用;然而,觀察過往製造前通知所登載之內容,該兩項化學物質無論在呼吸或皮膚接觸所造成之暴露程度尚屬輕微;因此,針對該等奈米材料而向環保署所為之通報流程及審查作業,可能會對於業者後續之生產製造活動形成不確定的阻礙。 有鑒於奈米材料可能對人體健康產生未知風險,為保障奈米工作環境中人員的安全,顯著新種使用規則將於2009年1月起正式生效,作為管理特殊化學物質的監督方式。對於製造或使用奈米材料所可能引發之風險,美國環保署正著眼於環境、健康與安全議題,逐漸採取較為謹慎的政策設計方向,以維護大眾利益。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
隱私暨個人資料保護與管理工具介紹(一)-隱私衝擊分析 歐美擴大永續報告書的揭露範圍,企業可透過歷程管理增進資料透明度根據美國瑞生國際律師事務所(Latham & Watkins)於2024年1月發布的ESG年度報告指出,隨漂綠議題延燒,ESG報告不受信任為一課題,因此國際逐步擴大ESG監管,多國透過立法強制企業應揭露永續報告書或供應鏈資訊,比如:歐盟於2023年1月生效之《企業永續報告指令》(Corporate Sustainability Reporting Directive, CSRD),要求企業揭露的永續資訊需增加供應鏈資訊的透明度;美國證券交易委員會(SEC)於2024年3月6日通過規則,要求上市公司及公開發行公司揭露碳排放報告等氣候風險相關資訊。 為因應ESG帶來的挑戰,報告建議企業應採取流程化管理方式,了解產品進出口涉及的其他國家對ESG揭露資訊的要求,加以規劃並建置資料控管規範、進行人員教育訓練以及確認ESG相關資料的所有權歸屬。 由於碳排放量的計算沒有一致標準,且難以確保供應鏈上下游所提供的碳排資訊真實、未經竄改等問題,外界不容易信任企業永續發展書提倡的供應鏈減碳策略。國內企業可參考資策會科法所創意智財中心發布的《重要數位資料治理暨管理制度規範(EDGS)》,透過流程化管理,從制度規劃及留存供應鏈二氧化碳排放量或二氧化碳減量等產品相關資料歷程來增進ESG資料透明度。 本文同步刊登於TIPS網(https://www.tips.org.tw)