英國資訊專員辦公室(Information Commissioner's Office, ICO)於2019年12月20日發布首宗依據歐盟一般資料保護規則(General Data Protection Regulation, GDPR)之裁罰。
本案源於英國藥物及保健產品管理局(Medicines and Healthcare products Regulatory Agency, MHRA)接獲投訴前往倫敦當地一家名為Doorstep Dispensaree Ltd之連鎖藥局進行藥品違規調查,卻意外發現其後院存放大量敏感個資文件,約五十萬個文件檔案皆未做任何資料檔案保護措施,上面更記載名字、地址、出生日期、NHS號碼、醫療資料及處方籤等患者之個人資料,旋即通報英國資訊專員辦公室展開調查。最終英國資訊專員辦公室以該藥局違反歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第5條1項第f款、第24條第1項及第32條,裁罰275,000英鎊。其裁罰理由如下:
一、隱私政策並不符合要求,如未述明蒐集個人資料之類別,未訂定個資保存期限,當事人告知聲明不完備,無當事人權利行使等。
二、無適當安全維護措施
三、涉及敏感性個資,違法情狀嚴重
四、未積極配合調查
五、影響層面甚深,導致該藥局配合之上百家療養院,近千名當事人個資受損害。
此為英國資訊專員辦公室首宗依據歐盟一般資料保護規則確定裁罰之案例且涉及敏感性個資,有其指標性。除此之外,英國航空與萬豪酒店之個資外洩案亦欲依GDPR進行裁罰,實值持續關注後續發展。
日亞化學與前員工、現任美國加州大學教授中村修二(Shuji Maka mura)達成和解,日亞化學要支付中村修二本人8億4400萬日圓的費用,以補償其在日亞化學任內發明藍光LED晶粒技術,並帶給日亞化學日後龐大收入的功勞。 中村修二去年1月因不甘其在日亞化學工作期間,開發相關藍光LED晶粒技術,為公司帶進3300億餘日圓的收益,但日亞化學卻將專利獨佔,並未支付中村修二合理的費用。中村修二遂向日本地院提出告訴,日本地方法院一審判日亞化學敗訴,需支付200億日圓作為中村修二的補償金。日亞化學不服再向高院上訴,近日傳出雙方已達成和解,以8億4400萬日圓達成和解,其中6億850萬日圓係中村修二在日亞化學工作時開發出藍光LED晶粒後,為公司帶進約3300餘億日圓中屬中村修二的貢獻所得。 相較於一審判決日亞化學要賠200億日圓來看,此次只需支付8億4000餘萬日圓,替日亞化學省下了一大筆錢,且可早日解決此紛爭,日亞化學在此次官司中不能算輸,還可確立日亞化學日後擁有藍光LED晶粒的所有技術專利,有利日亞化學未來拓展白光LED及藍光晶粒市場。一般認為,日亞化學急於與中村修二達成和解之因,主要是藍光L ED晶粒市場仍在大幅成長中,預估今年全球LED市場需求可達到50億美元,其中白光及藍光LED也佔到一半以上,未來更是以倍數成長。日亞化學如未能快速解決與中村修二的官司,恐影響日亞化學在藍光及白光LED市場上的領先地位。
歐盟智慧聯網研發推動平台報告,物聯網共創價值的六大支柱成功的物聯網(IOT)平台生態系統取決於多種因素,2017年4月3日歐盟智慧聯網研發推動平台( European Research Cluster on the Internet of Things)在物聯網活動平台分析(Analysis on IoT Platforms Adoption Activities)中提出六個成功的重要因素: 策略與利害關係人的參與(Strategy & Stakeholder Engagement):成功物聯網平台除了要製定良好的願景外,並讓主要利害關係人適當的參與系統策略,與整體政策格局保持一致性。 社群的支持(Community Support):社群支持程度決定了物聯網系統的吸引力,透過適當的的機制和工具,以有效地減少參與的障礙。 開放性(Ecosystem Openness):非常封閉的物聯網系統,吸引較少參與者。透過適當的開放以鼓勵利害關係人之參與,並減少進入之障礙。 技術的進步程度(Technology Advancement):越是被廣泛使用的技術及技術特徵,越可以顯著增加物聯網系統的吸引力,除了提高績效以外,並增加系統存續之可能性。 市場機制(Marketplace Mechanisms):透過市場機制可以取得用戶間的信任感,以增加參與的可能性,透過參與者價值交流進一步鼓勵參與。 包容性(Technology Inclusivity):物聯網系統很少是孤立的,必須考慮許多外部因素,如架構技術、物聯網設備、服務等。物聯網生態系統越包容其他流行技術,越有可能被使用者接受。
解析中國江蘇省「企業知識產權管理規範」之內容與對台商的影響 英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。