奈米科技在化妝品領域之應用實例日益增多,對於此類產品之管理趨向也成各界關注的重點,可惜國際間遲遲未有突破性進展。
今(2009)年3月24日,歐洲議會初步通過化妝品規則之新法提案(提案編號:COM(2008)0049-c6-0053/2008-2008/0035(COD)),未來若獲正式通過,將可直接適用於歐盟各國。
就實質內容而言,歐盟在該規範中首次納入奈米科技之考量。其所界定之奈米材料為:「一種具有非溶解、抗生物性之材料,係經由人為單一或多次外部切割或內部建構,尺寸範圍在1至100奈米之間」。為確保奈米化妝品之安全性,該規範透過強制通報、安全評估,以及禁止使用有害人體健康之物質等機制進行管理。此外,化妝品倘若含有或使用奈米材料,製造人必須在產品包裝上之內容物清單中加以標明。
歐洲議會是以633位之多數票一讀通過了該法案,不過也有29位投票反對、11位放棄表示意見。 此外,各界對此立法之反應不一,消費者團體認為應儘早實施該法案;歐洲議會綠黨議員則對法案中的奈米材料之定義不予認同。
根據歐盟執委會評估,目前約有5%的化妝品使用奈米材料,主要是市面上銷售之防曬油、口紅以及抗老化乳霜。隨著此項運用趨勢的發展,很多消費者團體抱怨立法過於緩慢而無法趕上市售產品之發展腳步,而本次立法可望為奈米化妝品之管理開展新的契機與方向。
本文為「經濟部產業技術司科技專案成果」
美國於2018年10月11日正式簽署通過《音樂現代化法》(Orrin G. Hatch-Bob Goodlatte Music Modernization Act, MMA),該法搭起時代鴻溝的橋樑。《音樂現代化法》囊括三個從2017年分別通過的子法,並成為《音樂現代化法》中的三個大標題: 第一部份:音樂授權現代化(Music Licensing Modernization) 音樂作品本身的著作權、重製權是「大權利」(Grand Right),而公開傳輸權則是「小權利」(Small Right)。前者是恢復市場機制、自由議價,愈自由愈好;後者則是愈方便、愈能夠使音樂作品被世人看見愈好。《音樂現代化法》實踐了這個理想。《音樂現代化法》成立職司音樂著作授權的非營利組織「音樂機械灌錄集體授權組織」(The Mechanical Licensing Collective, MLC)。該組織是針對「數位音樂串流業者」量身打造,進行音樂數位使用(Digital Uses)的概括式授權(Blanket License)。再者,根據舊法,授權金是法定的,但《音樂現代化法》予以音樂創作人對其作品的授權金額保有協商權(Authority to Negotiate)。同時透過音樂資料庫的建立和免費線上檢索系統,方便音樂使用人查詢與媒合。 第二部份:經典音樂法(CLASSICS Act) 溯及賦予1923年1月1日至1972年2月14日之間的音樂,就未經授權而進行「數位錄音傳輸」(Digital Audio Transmissions)之行為,使之有從首次公開發行後95年的著作權保護。這裡授權的客體所會得到的權利相近於1972年後錄音著作「非互動式數位串流服務」所得到的保護。 第三部份:音樂製作人分潤(Allocation for Music Producers) 在科技世代,一個偉大的音樂創作,並非作曲人獨力完成的,《音樂現代化法》以分潤制度,讓音樂製作人、混音師及音訊工程師首次獲得法律上的權利。
美國與歐盟共同發布《藥品開發優良人工智慧實務指導原則》近年來,人工智慧(Artificial Intelligence, AI)於藥品生命週期各階段的應用快速發展,有望促進藥品研發創新並縮短上市時程。然而,AI技術開發、部署、運用與維護皆涉及複雜的治理議題,為確保AI產出結果準確且可靠,並保障藥品安全且有效,有必要於藥品監管體系建立AI管理機制。 美國食品及藥物管理局(Food and Drug Administration, FDA)與歐洲藥品管理局(European Medicines Agency, EMA)於2026年1月14日共同發布《藥品開發優良人工智慧實務指導原則》(Guiding Principles of Good AI Practice in Drug Development),建立AI應用於藥品生命週期的治理框架。 該文件提出10項指導原則,包括: 1.AI開發與使用須符合倫理原則並落實以人為本的價值 2.採取風險為本的方法進行驗證、風險緩解與監督 3.遵循相關法律、倫理、技術、科學、資安及與監管標準,包括優良實務規範(GxP) 4.明確界定使用情境(Context of Use) 5.整合AI技術與使用情境之跨領域專業能力 6.強化資料治理與文件化 7.依循系統設計與軟體工程最佳實務進行模型開發並採用適切資料 8.採行風險為本的效能評估 9.落實AI技術生命週期管理 10.提供清楚且必要的資訊揭露 兩大監管機關強調,該文件可作為未來制定共識標準與監管指引的基礎,並促進國際監管調和與合作。預期將成為各國監管機關建構AI應用於藥品監管體系相關政策、法規與指引的重要參考。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。