為促進美國境內個人化診斷醫療器材發展並進一步實現個人化醫療之理想與目標,於今(2011)年7月14日時,FDA於各界期盼下,正式對外公布了一份「個人化診斷醫療器材管理指引文件草案」(Draft Guidance on In Vitro Companion Diagnostic Devices)。而於此份新指引文件草案內容中,FDA除將體外個人化診斷醫療器材定義為:「一種提供可使用相對應之安全且有效治療產品資訊之體外診斷儀器」外,亦明確指出,將視此類個人化檢測醫療器材產品為具第三風險等級之醫療器材,並採「以風險為基礎」(Risk-Based)之管理方式。 依據上述新指引文件草案內容,FDA對於此類產品之管理,除明訂其基本管理原則外,於其中,亦另列出兩項較具重要性之例外核准條件。第一項,是關於「新治療方法」(new therapeutics)部分,FDA認為,於後述情況下,例如:(1)該項新治療方法係針對「嚴重」或「威脅病患生命」、(2)「無其他可替代該新治療方法存在」、或(3)將某治療產品與未經核准(或未釐清)安全或功效之體外個人化診斷醫療器材並用時,其為病患所帶來之利益,明顯高於使用該項未經許可或未釐清之體外個人化診斷醫療器材所將產生之風險等前提下,FDA或將例外核准該項新治療方法。其二,是關於「已上市治療產品」部分,依據新指引文件草案,於下列各條件下,或將例外核准製造商以補充方式所提出之「新標示」產品之上市申請案,包括:(1)該新標示產品乃係一項已通過主管機關審查之醫療產品,且已修正並可滿足主管機關於安全方面之要求;(2)該產品所進行之改良須仰賴使用此類診斷試劑(尚未取得核准或未釐清安全功效);(3)將此項已上市治療產品與未經核准或未查驗釐清安全(或功效)之體外個人化診斷醫療器材並用時,其為病患所帶來之利益,明顯高於使用該項未經許可或查驗釐清之體外個人化診斷醫療器材所具之風險等。 此外,FDA方面還強調,若針對某項個人化診斷醫療器材之試驗結果顯示,其具較顯著之風險時,將進一步要求業者進行醫療器材臨床試驗(Investigational Device Exemption,簡稱IDE)。而截至目前為止,此項新指引文件草案自公布日起算,將開放60天供外界提供建議,其後FDA將參考各界回應,於修正後,再提出最終修正版本指引文件;然而,究竟FDA目前所擬採取之規範方式與態度,究否能符合境內業者及公眾之期待與需求?則有待後續之觀察,方得揭曉。
歐盟MiCA擬於2024年生效並適用於規範NFT歐洲理事會在2022年10月5日公告歐盟加密資產市場監管法(The Markets in Crypto Assets regulation bill, MiCA)草案最終條文內容,此份草案已經歐洲議會眾議員通過並提交歐洲議會經濟貨幣事務委員會(European Parliament Committee on Economic and Monetary Affairs),MiCA將於2023年年初公告於歐盟官方公報,並於2024年生效施行。MiCA屬於歐盟數位金融政策(Europe’s Digital Finance Strategy)之一環,立法目的為統一多種加密代幣(crypto token) 發行和交易的法規架構,以保護加密代幣使用者和投資人權益,為歐盟金融法規未涵蓋的加密資產(如:穩定幣)提供法律確定性,及建立歐盟層級的統一規定。值得注意的是,相關規定歐盟目前並未排除適用於非同質的加密貨幣(non-fungible tokens, NFT)。 草案前言第6c點明文,不應考慮「獨特且非同質的加密資產」(unique and non-fungible crypto-asset)的小部分獨特性和非同質性,因為大量以一系列NFT形式發行加密資產應認定是具備同質性(fungibility)之指標。從而,未來在歐盟發行NFT將適用MiCA規定,包含: 一、適用傳統金融機構資金轉帳規則(travel rules),如:確保加密資產交易可被追蹤、得封鎖可疑交易等以達到防制洗錢與打擊恐怖主義融資之目的。 二、NFT作為一種加密資產,該服務供應商必須確認加密資產來源,確保加密資產並未涉及洗錢或恐怖主義融資之風險。 三、應透過NFT服務供應商協助,才能進行用戶間交易和轉帳。
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。
安全至上 監看有理?-論工作場所電子郵件監看法制爭議