歐盟對於體外診療器材(In Vitro Diagnostic Medical Devices,以下簡稱IVDs)之管制,最早起始於1998年的體外診療器材指令(Directive 98/79/EC on In Vitro Diagnostic Medical Devices,以下簡稱「1998年IVDD指令」),該指令依IVDs是否具有侵入性、接觸病人的時間長短及是否需要能源加以驅動等條件,進一步區分為四種風險等級:第1級(Class I)-低風險性、第2a級(Class IIa)-低至中風險性、第2b級(Class IIb)-中至高風險性、第3級(Class III)-高風險性。Class I因風險性最低,故1998年IVDD指令僅要求廠商建立品管系統、保留產品技術檔案、並自為符合性聲明後,即得於市場上流通;Class IIa與Class IIb則由於風險略高,所建立之品管系統需經過「符合性評鑑」;而Class III的風險最高,故其品管系統除須符合前述要求外,更應由經歐盟認證的代檢機構(Notified Body)進行審查,通過前述評鑑及審查後,始可於歐洲市場流通使用。 然而,隨著科學及技術的進步,市場上不斷出現創新性的產品,使得1998年IVDD指令已逐漸無法滿足管理需求,輔以各會員國對於指令的解釋和實施各有不同,致使歐盟內部在病患及公共健康的保護上有程度不一的落差,為歐盟單一市場的運作埋下隱憂。因此,歐盟執委會(European Commission)於2012年9月26日提出新的管制架構(Proposal for a Regulation of the European Parliament and of the Council on in vitro diagnostic devices),其主要變革包括: 1. 擴大IVDs的定義:將IVDs的範圍擴及用以獲取醫療狀況或疾病罹患傾向資訊(如基因檢測)的器材及醫療軟體(medical software)等。 2. 新的分類標準及評估程序:將診療器材重新分為A、B、C、D四類,A類為風險最低,D類為風險最高。A類維持原先1998年IVDD指令中的廠商自我管控機制,但當A類器材欲進行臨床測試(near-patient testing)、具備評量功能或用於殺菌者,須先由代檢機構就其設計、評量功能及殺菌過程進行驗證。B類器材因風險略高,故須通過代檢機構之品管系統審查;C類產品除品管系統審查外,需再提交產品樣本的技術文件;而D類由於風險最高,除前述品管系統審查外,需經過核准使能進入市場。至於A、B、C、D類產品進入市場後,代檢機構會定期進行上市後(the post-market phase)監控。 3. 導入認證人員(qualified person,簡稱GP):診療器材製造商應於組織內導入GP人員,負責確保製造商組織內部的一切法令遵循事宜。 4. 落實提升透明度(transparency)之相關措施:為確保醫療器材的安全性和效能,要求:(1) 歐盟市場內之經濟經營商(economic operator)應能夠辨認IVDs的供應者及被供應者;(2) 製造商應將單一裝置辨識碼(Unique Device Identification)導入產品中,以利日後之追蹤;(3) 歐盟單一市場中的所有製造商及進口商,應將其企業及產品資訊於歐洲資料庫(European database)中進行註冊;(4) 製造商有義務向大眾公開高風險性裝置的安全性與效能等相關說明資訊。 歐盟執委會已提交新管制架構予歐洲議會,若順利通過將可望於2015年起正式實施,未來將對歐洲IVDs產業有何影響,值得持續觀察之。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
美國將修法全力圍堵政府資料外洩美國國會於今年(2009)11月18日提出「聯邦檔案安全分享法案(Secure Federal File Sharing Act)」,內容主要是限制所有政府部門員工(包含約聘制人員),在未經官方正式同意之前,不得下載、安裝或使用任何點對點傳輸(Peer to Peer, P2P)軟體。期望藉由該法案的通過實施,徹底防堵政府及相關個人機敏資料的外洩。 該法案的制定,最初來自於政府部門對其財務資料保護的要求,早於2004年白宮管理及預算辦公室(The White House Office of Management and Budget)即已建議聯邦政府的各個單位應禁止其職員使用P2P軟體,以防止資料外洩。而於將近一個月前,國會道德委員會取得多位國會議員的財務狀況、經歷及競選贊助金額,並作成調查報告,未料一位新進職員將該份未經加密保護的報告存於自家裝有前述P2P軟體的電腦硬碟中,從而導致該份報告內容全部外洩。此一事件立即對向來注重政府及個人資料保護的美國投下了震撼彈,也促使該法案正式浮出檯面。 歐此項法案的提出毫無意外地得到視聽娛樂產業界的正面支持。主因來自多數人藉由此種軟體在網際網路上分享音樂、影片或其他應用軟體,時常侵害他人的智慧財產權,而法案的內容則是要求政府部門員工無論是在工作或是家中使用P2P軟體都須取得官方授權,無疑是直接限制了上述的分享行為。娛樂業者更進一步指出,P2P軟體對資訊安全的危害在於多數人無法明確知道該軟體的運作方式,而無法對其做正確的設定,使得軟體一旦被啟動,電腦內的所有資料:包含個人的社會安全卡號碼、醫療及退稅紀錄等,就立即暴露於網際網路之中!對此,除了推動此項法案的官員大聲疾呼:「用個人自律的方式防止資料外洩已經失敗,證明國會應該有所行動。 美國錄音產業協會(Recording Industry Association of America)則是預測前述國會調查報告的外洩,將會是資安法案重整的強力催化劑。
因網路詐欺受騙的銀行儲戶控告銀行美國佛羅里達州一名商人日常透過網路管理其帳戶資金出入,其資金主要是在美國與中南美洲間流動。該名商人發現其銀行帳戶有異常的資金流向拉脫維亞而向警方報案,經調查發現他的電腦被植入名為Coreflood的特洛伊木馬程式,致其銀行帳戶存取密碼被盜用。該名商人認為銀行明知網路上有此種危險而怠於告知客戶,且銀行明知拉脫維亞以網路犯罪猖獗而著稱,對於其帳戶內大筆的異常資金流出亦疏於防範,爰對銀行提起訴訟。據信,本案為銀行儲戶因受網路詐欺而控告其銀行的首例。