歐盟將2014年1月28日定為「2014個人資料保護日」(Data Protection Day 2014),倡議推動個人資料修法及規範革新,主要係位因應數位化時代,個人資料權利保護越形重要,並且為了強化保護線上隱私權利,歐盟執委會首於2012年1月25日所提出個人資料保護指令的修正草案─「保護個人關於個人資料處理及此等資料自由流通規章(一般資料保護規章)」(Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL(General Data Protection Regulation));該修正草案於2013年6月進入歐洲議會、理事會及執委會的三方協商,同年10月21日歐洲議會公民、司法與內政委員會(Committee on Civil Liberties, Justice and Home Affairs)審議通過,若進程順利預計將於2014年獲得通過,並於2016年生效施行。 歐盟「2014個人資料保護日」會議中,特別提到此次修法,係為歐盟跨時代的個人資料保護規範革新工作,具有特別重要意義,並且倡議應對於資料可攜權(Right to Data Portability),明文法制化加以落實保障,包括加強資料當事人控制及近取個人資料的權利,資料當事人更容易近取(aceess)個人資料(第14、15條);資料當事人有資料可攜的權利(第18條),當資料處理是以電子化方法,且使用結構性、通用的格式時,資料當事人有權利可以取得該結構性、通用格式下的個人資料(第18條(1)),且更容易自不同服務提供者間移轉個人資料。 國際間對於「資料可攜」議題,正反意見均陳,並未達成共識。歐盟執委會提出個人資料保護指令的修正草案第18條,倡議將「資料可攜性」明文法制化,並要求資料蒐集、處理與利用者對以電子化方法持有的個人資料,需使用結構性、通用的格式,以便利並確保後續個人資料可攜性。此修正草案一提出,隨即引發國際間各重要國家的熱烈探討:有反對者認為,此舉無異將形成未來國際間貿易障礙;有贊成者從確保使用者權益觀點,認為未來智慧聯網(IoT)環境下,資料可攜性是不可避免的趨勢,賦予資料當事人法律權利,有助於個人資料的保護。各重要國家對歐盟修正草案立場及意見,值得加以探究,以觀察未來法制發展趨勢。
台灣政府放棄等待流感藥物專利台灣官方已經向製造商申請取得複製抗病毒藥物- Tamiflu的權利。然而,在製造商同意之前,由於民眾對禽流感的恐懼日增,台灣官方在未經製造商的授權情況下,已經開始製造該藥物。 Tamiflu是由瑞士藥商Roche所生產製造的一種抗病毒藥物,其被製造來對抗人類流感病毒。雖然該藥物對於禽流感的治療能力仍有待評估,一般仍認為,該藥物是目前能對抗禽流感的最佳選擇。 自 2003年12月起,禽流感已經在亞洲造成至少60起死亡案例,並且迅速於東南亞各國蔓延。雖然台灣尚未有民眾受到感染的病例傳出,政府仍決定未雨綢繆,先行研製Tamiflu的非專利藥。台灣官方宣稱將製造6公斤的Tamiflu非專利藥,以維持足夠的庫存,並且該藥物將不會被商業化。 目前台灣官方仍在與 Roche方面談判,並且向Roche釋出最大善意,希望該公司能儘早授權台灣官方製造Tamiflu,以確保台灣民眾的生命安全。由於禽流感的迅速蔓延,除了台灣之外,許多國家也正在請求該藥物的製造權利,盡力降低這場恐怖的流感風暴所造成的傷害。
從英國 NHS 國家 IT 計畫看電子病歷之推動:以病患個人資訊隱私保護為中心 歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。