個人健康資料共享向為英國資料保護爭議。2017年英國資訊專員辦公室(ICO)認定Google旗下人工智慧部門DeepMind與英國國家醫療服務體系(NHS)的資料共享協議違反英國資料保護法後,英國衛生部(Department of Health and Social Care)於今年(2018)5月修正施行新「國家資料退出指令」(National data opt-out Direction 2018),英國健康與社會照護相關機構得參考國家醫療服務體系(NHS)10月公布之國家資料退出操作政策指導文件(National Data Opt-out Operational Policy Guidance Document)規劃病患退出權行使機制。
該指導文件主要在闡釋英國病患退出權行使之整體政策,以及具體落實建議作法,例如:
NHS已於今年9月完成國家資料退出服務之資料保護影響評估(DPIA),評估結果認為非屬高風險,因此不會向ICO諮詢資料保護風險。後續英國相關機構應配合於2020年5月前完成病患資料共享退出機制之建置。
所謂營業秘密相關的秘密保持命令(或稱保密令),指訴訟中當事人所提示的證據內含有營業秘密時,為防止該些證據所涵括的特定營業秘密在民事或刑事訴訟程序進行中,可能因他造請求閱覽或當事人之證據揭示義務等事由,造成該當營業秘密洩漏,得在當事人釋明後,由司法機關依當事人或第三人聲請而採取的制度性保密措施。營業秘密的核心價值與保護法益,在於其秘密性的維持,無論為技術性或業務經營上的秘密,若因相關訊息的揭露導致該資訊獨占性喪失,也將連帶使其市場價值大幅減損,基此,立法者將應實施防止秘密資訊外洩之相關措施的領域,自社會經濟活動場域擴張至訴訟場域,避免漏洞產生。 經司法機關發秘密保持命令所生之主要效果,包含限制該特定營業秘密僅得被使用於實施該當訴訟程序之目的,以及禁止揭露給未接受該秘密保持命令之人。此規範一方面係為確保該訴訟之當事人得有效行使防禦權,另一方面,則是考量到因訴訟程序進行中,關於營業秘密保護的規範相對完善,基於實施該當訴訟為目的之使用導致洩密的可能性較低而設。制度設計上,如我國智慧財產案件審理法第11條至15條中,針對涉及營業秘密的民事與刑事訴訟程序所制定的秘密保持命令相關規範,即為適例。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
歐盟計畫降低學名藥壁壘 開罰Teva和Cephalon 6050萬歐元歐盟執行委員會(以下簡稱執委會)於2020年11月以延遲平價學名藥進入市場、違反歐盟反托拉斯法為由,裁罰以色列學名藥廠Teva和美國生物製藥公司Cephalon共6050萬歐元。 Cephalon販售的Modafinil是用於治療猝睡症的藥物,為長年佔Cephalon全球營業額40%以上的暢銷產品。儘管其主要專利已於2005年在歐洲到期,但Cephalon仍保有部分Modafinil的延續性專利(secondary patents)。原先欲以Modafinil學名藥進軍市場的Teva也有Modafinil的相關專利,然而Cephalon和Teva達成「延遲給付」(pay-for-delay)協議,Teva同意暫緩進入市場且不去挑戰Cephalon的專利。執委會經調查發現,該協議排除Teva成為Cephalon的市場競爭者,使Cephalon的專利即使到期多年產品仍可維持高價位。 延遲給付協議在專利和解上通常是合法行為,但執委會認為此舉使患者和健保體系無法即早受惠於市場競爭帶來的低價,協議廠商卻享有缺乏競爭所產生的額外利潤。歐盟日前發布的《歐洲藥品戰略》(Pharmaceutical Strategy for Europe)更強調藥品應是全民可負擔、可取得及安全的,而維持自由競爭對達成此目標至關重大。執委會認為延遲給付協議違反《歐盟運作條約》(Treaty on the. Functioning of the European Union, TFEU)第101條,以協議限制或扭曲歐盟內部市場競爭,故裁處高額罰款。2022年歐盟將採取措施降低學名藥進入市場的阻礙,考慮進行審查、要求廠商使其專利藥品在全歐盟境內都可被取得,否則將縮短其智財權的保護期間。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
中國大陸財政部及科技部印發《國家重點研發計畫資金管理辦法》於2016年12月30日,中國大陸財政部及科技部為規範國家重點研發計畫管理,切實提高資金使用效益聯合發佈了《國家重點研發計畫資金管理辦法》。 該計畫以支援解決重大科技問題為目標,以“優化資源配置、完善管理機制、提高資金效益”為重點,辦法全文共8章57條,根據國家重點研發計畫特點,從預算編制到執行、結題驗收到監督檢查,針對全過程提出了資金管理的要求,明確《辦法》制定的目的和依據、重點研發計畫資金支援方向、管理使用原則和適用範圍,就重點專項概預算管理、專案資金開支範圍、預算編制與審批、預算執行與調劑、財務驗收、監督檢查等具體內容和流程、職責做了明確規定。 與原科技計畫資金管理辦法相比,《辦法》主要有以下變化: 1.建立了適應重點研發計畫管理特點的概預算管理模式。 2.遵循科研活動規律,落實“放、管、服”改革。適應科研活動的不確定性的特點,《辦法》堅持簡政放權,簡化預算編制,下放預算調劑許可權。 3.突出以人為本,注重調動廣大科研人員積極性。 為推動辦法有效落實,財政部及科技部並要求相關部門、專案承擔單位需要共同做好以下工作: 1.相關主管部門應當督促所屬承擔單位加強內控制度和監督制約機制建設、落實重點專項項目資金管理責任。 2.財政部、科技部將組織開展宣傳培訓,指導各有關部門和單位開展學習,全面提高對《辦法》的認識和理解,為政策執行到位提供保障。 3.科技部、財政部將通過專項檢查、專項審計、年度報告分析、舉報核查、績效評價等方式,對專業機構、專案承擔單位貫徹落實《辦法》情況進行監督檢查或抽查。