2018年6月5日歐盟法院針對Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein v Wirtschaftsakademie Schleswig-Holstein GmbH訴訟進行先訴裁定,擴大解釋《資料保護指令》(Directive 95/46/EC)之「資料控制者」範圍,認為Facebook和粉絲專頁管理者皆負有保護訪客資料安全的責任。由於「資料控制者」定義在《資料保護指令》與《一般資料保護規則》(GDPR)相同,因此裁定將影響未來使用社群媒體服務和平台頁面的個資保護責任。
本案起因德國Schleswig-Holstein邦獨立資料保護中心要求 Wirtschaftsakademie教育服務公司在Facebook經營之粉絲專頁必須停用,其理由認為Facebook和Wirtschaftsakademie進行之Cookie資料蒐集、處理活動並未通知粉絲成員且因此從中獲利,然Wirtschaftsakademie認為並未委託Facebook處理粉絲成員個資,當局應直接對Facebook要求禁止蒐集處理。歐盟法院認為Wirtschaftsakademie使用Facebook所提供之平台從中受益,即使未實際擁有任何個資,仍被視為負共同責任(jointly responsible)的資料控制者,應依具體個案評估每個資料控制者責任程度。
在原《資料保護指令》並未有「資料控制者需負共同責任」之規定,本案擴大解釋資料控制者範圍,對照現行GDPR屬於第26條「共同控制者」之規範主體,然而本案將資料控制者擴張到未實際處理資料之粉絲專頁管理者,是否過於嚴格?且未來如何劃分責任與義務,皆有待觀察。
去(2005)年11月,全球幹細胞研究先驅-韓國首爾大學黃禹錫(Hwang Woo-suk)教授承認其研究有國際醫學倫理瑕疵,引發軒然大波。其後,相關的醜聞頻傳,黃教授更被控研究造假,使得原本以前瞻之胚胎幹細胞研究技術(即體細胞核轉置技術”somatic cell nuclear transfer”)獨步全球的韓國科學界,研究信譽遭受嚴重打擊。 偵辦「黃禹錫科研論文造假醜聞案」的南韓檢察當局,經連日傳訊相關人員後,正考慮對黃禹錫等四人採取司法懲處。 對於被查出不法獲得並使用科研用卵子的黃禹錫,檢方考慮依據違反「生命倫理及安全之法律」等條文予以懲處。 據指出,檢方在調查中,掌握了2004年及2005年刊登在「科學」雜誌上的科研論文,黃禹錫等人捏造體細胞複製幹細胞,和為病患複製培育胚胎幹細胞的科研數據,矇騙了整個科學界。調查顯示,黃禹錫去年十一月檢驗幹細胞的遺傳基因(DNA)指紋之前,似乎真的不曉得根本就不存在為病患量身打造複製培育胚胎幹細胞的事實。但檢方卻證實黃禹錫確實指示屬下研究員,將部分照片等科研數據和資料,自我膨脹等造假的事實。 由於生醫研究給許多病患帶來新的治療希望,因此其通常會以實際行動(即自願捐贈研究用檢體、協助經費募集等)表達支持。惟研究瑕疵或造假則會讓病患及一般民眾認為遭受欺騙,進而影響其未來捐贈檢體或以受試者身份參與生醫研究之意願。可見生醫倫理並不僅是道德呼籲,也是生醫研究能否順利進行、生醫研究能否生根發芽的重要基石。 黃禹錫案之相關報導可參見 The Economists, December 3 rd 2005, p. 71; The Economist, December 24 th 2005, p. 109-110
英國猶疑應否開放人獸混合細胞之胚胎幹細胞研究英國之胚胎幹細胞研究活動,係根據「1990年人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)和「2001年人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,授權由「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)依法管理。 新堡大學東北英格蘭幹細胞中心(North East England Stem Cell Institute)Lyle Armstrong博士,在去年底向HFEA申請一項涉及混合人類與動物細胞製造胚胎幹細胞之研究許可;其計劃利用細胞核轉置技術,將牛的卵子細胞核取出,植入人類體細胞核,並刺激其分裂形成胚囊或早期複製胚胎,用以研究培養病患所需身體組織之技術。過去HFEA從未曾核准過此類研究,僅核准過2件利用細胞核轉置技術和單性活化卵母細胞製造胚胎幹細胞株作為醫學研究之申請。此研究申請訊息一流出,即引起保守團體嘩然及指責,要求英國政府應盡速立法,禁止製造人獸混合細胞之實驗活動。面對各界抗議聲浪,HFEA表示,會暫緩此申請案。 事實上,去年12月英國健康部提出了一篇報告-「人工生殖及胚胎學法之檢討」(Review of the Human Fertilisation and Embryology Act),建議國會應儘速立法規範人類動物細胞混合研究。而英國政府與人民究竟能否接受混合人類動物遺傳細胞研究之合法性、合道德性,則為未來立法動向之重要指標。
勢在必行的全球企業最低稅負制經濟暨合作發展組織(Organization for Economic Cooperation and Development,下稱OECD)為因應數位化時代下,跨國企業集團透過數位科技所帶來有別於傳統交易的新交易模式等避稅安排使其獲益與稅負顯不相當,亦即稅基侵蝕問題,於2019年提出兩大支柱:支柱一為連結關係與利潤分配;而支柱二為全球反稅基侵蝕規定(Global Anti-Base Erosion rules,下稱GloBE),即本文討論之全球企業最低稅負制。然而全球企業最低稅負制提出之初,因歐盟各國意見不同無法形成共識,直至今(2021)年4月5日因美國財政部長葉倫(Janet Louise Yellen)公開表示正與G20成員國研議推動全球企業最低稅負制,加上近期歐盟各國態度已轉趨支持並附和,此議題終於再度引發國際與我國關注。 事實上,最低稅負制在我國並非新議題,我國早已制定「所得基本稅額條例」並施行多年,其中包括個人與營利事業基本稅額,然而GloBE所規範之全球企業最低稅負制將無可避免地於一定程度上影響我國營利事業所得稅及基本稅額的稅(法)制的調整與變動。加上我國自2019年3月脫離歐盟避稅觀察名單(俗稱灰名單)後,為避免再次被認列避稅天堂,稅制持續與國際接軌,故由OECD提出且美國贊同之全球企業最低稅負制,如各國拍板,我國將勢在必行。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。