VIZIO將為該公司為未獲消費者允可即蒐集收視行為等個人資料支付和解金。

  美國聯邦貿易委員會(Federal Trade Commission, 以下稱FTC)在2017年2月6號於其網站中公布, VIZIO, Inc.(以下稱VIZIO),世界最大的智慧電視製造商之一,在未取得購買該公司產品之千萬餘名消費者同意下,即於所生產之智慧型電視中,安裝蒐集消費者收視行為數據之軟體,然此舉業涉及違反美國聯邦貿易委員會法第45條(15 U.S.C. § 45 (n))以及紐澤西州消費者欺詐法(New Jersey Consumer Fraud Act)。為此VIZIO將支付和解金與美國聯邦貿易委員會及紐澤西州檢察總長辦公室。

  本案起訴狀內容指出,VIZIO及其相關企業於2014年2月起便開始於其製造之智慧電視中獲取消費者在收視有線電視、寬頻、機上盒、DVD播放機、無線廣播以及串流裝置等相關影像資料時之資訊。這些資訊包含了性別、年齡、收入、婚姻狀況、教育程度、住屋資訊等交付與VIZIO、第三方及其相關企業做為行銷、發送特定廣告使用。

  起訴狀中並稱該公司所謂之智能互動機制,雖可做為協助節目製作和建議,卻也同時於未對消費者詳細說明之下,逕行蒐集相關收視資訊,而此類追蹤消費者資訊屬不公平且欺騙的行為,已違反了FTC與紐澤西州對於消費者保護之法律。

  為達成本案之和解,該公司願支付兩百二十萬美元作為和解金,包含向FTC繳納的一百五十萬美元及一百萬美元罰款與紐澤西州消費者事務所。聯邦法院命令並要求VIZIO必須清楚揭露其蒐集資料及分享給他方單位之行為,並取得消費者明示同意;另一方面,該命令亦禁止VIZIO對他們所蒐集消費者之隱私、安全及機密性資訊做誤導性的不實陳述以及刪除於2016年3月1日前所有以不當方式取得之消費者個人資料。該公司尚須接受兩年一次的隱私權安全保障計畫(名詞),包括全面性隱私風險評估、識別消費者個資之潛在不當使用情形,並制訂相關措施來修復這些風險。另新增一項銷售管理計畫,以確保該公司產品經銷商及售後服務均能就消費者個人資料得到保障。

  此次事件而言,和解金雖非屬可觀之金額,然重點在於作為世界最大的智慧電視製造商之一的VIZIO,經揭露此一訊息後對其商譽之影響,或許才是最大的打擊。為了在大數據時代中能有效的管控法律風險,任何蒐集消費者行為等個人資料時,均應符合相關法令的規範,如建立個人資料保護機制並事前告知取得消費者蒐集之同意為宜。

相關連結
你可能會想參加
※ VIZIO將為該公司為未獲消費者允可即蒐集收視行為等個人資料支付和解金。, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=64&tp=1&i=67&d=7848&lv2=67 (最後瀏覽日:2024/04/21)
引註此篇文章
你可能還會想看
韓國人工智慧風險管理趨勢研析

韓國人工智慧風險管理趨勢研析 資訊工業策進會科技法律研究所 2020年6月25日   人工智慧技術正不斷地突飛猛進,後更因深度學習應用帶來令人難以置信的進步,迅速成為眾多產業轉型的重要推手。然而,當眾人專注於追求人工智慧的逐利時,也隱然意識到人工智慧與現實世界的互動,似已超越人類認知能力,或依當下技術知識經驗仍難加以掌握。以自駕車為例,其利用感測器感知外界進行影像辨識、理解預測進而做出決策的整體流程上,不論是在路人、車輛等圖像辨識、現場就路人及車輛行動之預測,乃至後端根據前階段路人、車輛行動預測與現在位置判斷最佳路徑的過程,處處是不可測的風險。申言之,從辨識正確率、現場狀況理解度至演算法決策來說,吾人所得掌控者有限。主因在於人工智慧的複雜與靈活性特色,實難通過統一概念加以界定。次者是人工智慧的自動化決策本身,事實上難以被確實地預見。甚至,就人工智慧可控性上,亦充斥各類不確定要素,特別是訓練資料偏差、又或設計者主觀意識之偏頗都可能造成預想之外的結果。   截至目前為止,人工智慧應用已然帶來已引發諸多風險議題,包含於開發、設計及製造端所論及之風險議題涵蓋歧視與偏見,如資料偏差、樣本資料結構性不平等[1]致使機器學習或有偏誤,進而影響判斷,產出具有歧視或偏見之結果[2];個人資料及隱私保護上,則係因人工智慧訓練對資料具有大量需求,涉及個人資料部分,將面臨蒐集(踐行告知程序)、處理和利用(於當事人同意之範圍內處理、利用)是否善盡保護義務與合乎法規要求;演算法黑箱帶來不透明的決策,難以預測與檢驗決策流程、判準是否有誤[3]。就此,考慮到人工智慧之重要性與風險,或有必要立基於風險預防理念進行相關風險控管,甚或以風險責任分擔角度,討論相關權責分配,以應對未來可能衍生的危害或重大風險。   人工智慧風險控管之法律基礎無法悖於倫理道德基礎。觀諸國際間討論,韓國早在2007年即已倡議機器人道德理念,並在2008年起接連有相關立法舉措。本文將以之為中心,探究其人工智慧在風險控管之相關立法政策措施,盼可從韓國做法中反思我國推行人工智慧風險管理之方向。 壹、事件摘要 一、韓國智慧機器人相關法制措施 (一)《智慧機器人發展和促進法》風險管控介紹   2008年9月韓國《智慧機器人發展和促進法》(지능형 로봇 개발 및 보급 촉진법)正式生效。該法旨在鋪設智慧機器人產業發展之法律基礎,包含在法律中嘗試引入智慧機器人定義(指通過識別外部環境並判斷狀況後自動運行之機器設備,包含機器設備運行所必要軟體),以此作為後續促進產業發展、規劃機器人責任歸屬或保險等討論之開展基礎;另外也以促進產業發展觀點,訂定產品安全開發與布建之支持法源依據;挹注國家科研能量確保技術穩定;建置智慧機器人產業分類系統,依此做為機器人產業統計基礎,為國家在機器人管理及政策提供相關數據。   其中,特別的是除了促進性規範外,亦首度於法律提出機器人倫理道德的概念,賦予主管機關訂定與「機器人倫理道德憲章」(로봇윤리헌장)相關內容之義務。   所謂「機器人倫理道德憲章」,係指針對智慧機器人功能及其智慧化發展,規範製造和使用人員之指導方針,以防杜危險發生並避免機器人不利於人類生活品質。換言之,機器人倫理道德憲章可認為是針對智慧機器人開發、製造、使用上的準則,盼可用以防止因智慧機器人功能而衍生之社會損害。就此,韓國工商部曾擬定《機器人倫理道德憲章草案》,可參考如下: 第一條(目標)機器人倫理道德憲章目標係為人類和機器人共存共榮,並確認以人類爲中心的倫理規範。 第二條(人與機器人的共同原則)人類和機器人應當維護相互之間生命的尊嚴、資訊和工程倫理。 第三條(人類倫理)人類在製造和使用機器人時,必須使用良好的方法判斷和決定。 第四條(機器人倫理)機器人是順從人類命令的朋友或是協助者、夥伴,不得傷害人類。 第五條(製造商倫理規範)機器人製造商有義務製造維護人類尊嚴之機器人,同時,必須承擔回收機器人、資訊保護義務。 第六條(使用者倫理)機器人使用者應當尊重機器人爲人類的朋友,禁止非法改造和濫用機器人。 第七條(實施的承諾)政府和地方政府應實施有效措施,以體現《憲章》的精神[4]。   觀察《智慧機器人發展和促進法》內涵,富有藉重法律效果與效能引領智慧機器人產業發展之精神,企圖形成政府政策借助立法促成經濟層面活動向上發展。然而,隨智慧機器人技術逐漸深入社會,韓國旋即意識到人工智慧在權益維護、風險管控上仍有進一步補強之必要,進而提出《機器人基本法草案》,並開展韓國在機器人倫理道德、歸責原則之相關討論,以順應社會整體的變革。 (二)《機器人基本法草案》   如前所述,意識到人工智慧發展已然滲入日常生活,有必要在機器人普及化的社會接受過程中,應對各類問題預先防範。韓國國會議員遂於2017年7月19日提出《機器人基本法草案》(로봇기본법)以反映機器人發展趨勢與問題。   《機器人基本法草案》主要目的是為機器人融入社會過程中的政策方向、原則進行引導,以有助於機器人產業健全發展。是以,該法在風險控管部分,通過二類做法予以調控,一是建立倫理道德準則之原則、二是嘗試提出歸責原則以釐清相關應用所生之爭議。   一者,藉道德倫理界線之提出使產業更為允當運用人工智慧。借用產品生命週期之概念,分就設計、製造以及使用者責任三階段規範。在設計階段,著重於產品內部構造、軟體介面設計的安全性,另就不侵犯人權及社會利益上,強調預先從設計確保產品永續性、倫理性及使用上的安全性;在製造階段,則從遵法性、說明義務及產品維護修繕責任等,揭示製造商在產品製造、銷售應行之事項;最後,則從使用者角度,以應用階段各項自律、他律規範,明示遵法義務與道德倫理原則,並特別指明宜避免過度成癮。   次者,在責任分配與歸屬上,於現行法令無以適用情況下,允許受損害者得向機器人之銷售者或提供者求償。然而,為免製造商或銷售者過度承擔賠償責任之風險,亦設置免責條款,規定當產品因缺陷致使損害發生,而該缺陷係以當時技術水準所無法發現之情況,或是該缺陷是製造商遵守當時機器人法令所規定標準所肇致,則將免除製造商之損害賠償責任。   綜合前述,《機器人基本法草案》在倫理道德及責任分配歸屬的風險管控上,提出諸多可資參考之方式,然而在基本法審議過程中,韓國政府認為雖有必要管制風險,卻不宜過早以立法手段介入遏止創新,而未能通過韓國國民議會。 (三)韓國人工智慧國家戰略   雖然《機器人基本法草案》未能立法通過,然而韓國相關立法脈絡已展現除關注於促進智慧機器人產業發展外,在倫理道德、責任上的風險調控亦不可偏廢態勢,且從智慧機器人進一步聚焦於人工智慧。   2019年12月第53屆總理會議(국무회의)[5],韓國擬定涵蓋科學資通訊技術部在內所有部會共同推動之「人工智慧國家戰略」(AI 국가전략)作為橫跨經濟和社會的創新專案[6],以攻守兼備方式發展人工智慧。分從技術、產業、社會三方面著手,為韓國發展人工智慧半導體產業取得先機,進而拔得在相關領域的頭籌;次者,完備先進資通訊技術基礎設施,借力人工智慧積極轉型為新世代數位政府;其三,從教育扎根,建設人工智慧教育體系以培植相關領域專業人才;第四,秉持「以人為本」精神發展人工智慧,建立人工智慧倫理原則、擴張就業安全網保障勞工,使人工智慧所產生之效益可散發至社會各個角落。預計通過該戰略,將可在2030年壯大韓國之數位競爭力,使人工智慧經濟產值增長至4550000億韓圜(約3800億美元),提升國民生活品質[7]。   整體而言,該戰略建立基於技術的立法、以人為本的道德以及改善整體社會法律體系三者為核心。基於技術的立法,如《信用資訊法》修訂,允許假名化資料利用,以鬆綁人工智慧資料應用需求,並平衡隱私保障;以人為本的道德,像是參考國際間道德倫理之標準,推行「人工智慧道德標準行動計畫」(AI 윤리기준 및 실천방안 마련),加速研擬建立在安全、責任或是擔保上的規範[8];改善整體社會法律體系,包含修正《國民就業援助法》擴大就業安全網,透過保險、教育、就業支援等方式協助受人工智慧衝擊影響之勞工、《就業政策基本法》中研擬為人工智慧業務建立相應人才教育。三者之推動,除帶動人工智慧產業蓬勃發展外,也兼顧社會層面道德、權益保障。 貳、重點說明 一、以剛性立法手段推進產業發展   觀察韓國,其人工智慧發展態度係以鼓勵為重。主因在於對企業來說,採用新興科技應用或可能囿於法遵成本、研發投資耗費過鉅、相關領域人才稀缺等多重因素而有所疑慮。有鑑於前開問題,韓國以正面態度,在風險控管措施上,嘗試藉由法規手段解消人工智慧發展所面臨之問題,即在賦予政府確實制訂與推進人工智慧發展政策責任,使業者可預期政府態度;次者,設置法律作為行政機關提供產品安全開發與布建支援依據,確保科研能量技術的穩定;再者,藉由智慧機器人分類系統建立產業管理與統計基礎,俾利後續依統計數據進行決策。   至於權益保障、風險如何評價及規範,雖有論者倡議另制定《機器人基本法草案》彌補《智慧機器人發展和促進法》於法律內部體系權利價值詮釋上的缺陷,然經立法成本與當時技術成熟度之衡量,並未過早規範技術之發展。 二、借軟性規範措施型塑兼容並顧之環境   另方面,觀察韓國在面對人工智慧機器人時的應對方式,發現在促進發展上,韓國無不餘力地大力採用剛性立法手段,以鋪設技術、投資所需之基礎建設及支援。而就尚難定論之技術風險管控,像是倫理道德、歸責原則調控等,考量技術尚未臻成熟,實難以剛性立法方式加之管理,而有以政策方式先試先行之傾向,形塑具有包容彈性之環境,鼓勵人工智慧機器人產業之投入,並依此作為後續法規調適之基礎。   鑒於人工智慧機器人所涉領域之多元,誠然有必要以宏觀角度全盤檢視與調適相應之規範及措施。故而,韓國2019年底提出富含權益保障與經濟逐利精神之「人工智慧國家戰略」,並鏈結不同部會共司建立彈性包容人工智慧機器人產業之環境。 參、事件評析   綜觀上述,韓國面對人工智慧及機器人,對內,以剛性立法手段,先行鋪設智慧機器人產業發展之基礎,包含界定智慧機器人範圍、賦予行政機關訂定倫理規範等一定義務、設置行政支持法源依據、以分類系統規劃作為數據統計基礎進行決策等,以拉抬、激勵企業投入研發,促成經濟層面活動之擴散與發酵;對外,以軟性規範宣示韓國政府發展智慧機器人產業態度、吸引國際間產學研能量挹注,並同步促成內部社會法體制之調整,不難看出韓國政府的企圖與決心,且整體上已約略有鼓勵、促進逐漸轉變為管理層面意味。   在我國方面,亦已意識到人工智慧風險管理之重要性,立法委員並在2019年5月倡議《人工智慧發展基本法草案》希望以制定基本法之方式,從研究、開發乃至整合等,厚植我國人工智慧實力,並嘗試建立人工智慧開發準則與倫理原則。韓國前述有關人工智慧之規範作法,或許可茲我國借鏡,就促進人工智慧技術經濟層面效益之面向,可由政府擬定具實質效力之法規範推動之;就現尚難明確定位之倫理準則及風險控管,採用軟性規範方式,先行以具包容性之政策、指引等作法試行,以待日後技術臻至成熟穩定,再行考量轉化為立法管理之必要。 [1] Crawford, K. et al. The AI Now Report: The Social and Economic Implications of Artificial Intelligence Technologies in the Near-Term, AI Now, 2016, https://ainowinstitute.org/AI_Now_2016_Report.pdf (last visited May. 22, 2019) [2] Cassie Kozyrkov, What is AI bias?, https://towardsdatascience.com/what-is-ai-bias-6606a3bcb814 (last visited May. 22, 2019) [3] BBC, The real risks of Artificial Intelligence, http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence(last visited May. 22, 2019). [4] 김성원 선임,지능정보사회의 도래와 법·윤리적 과제- 인공지능기술의 발달을 중심으로 -, National Industry Promotion Agency(2017/11/15), p10. [5] 總理會議係韓國特有的系統,主要由總統、總理以及15位至30位不等之國務院成員共同組成,成員包含各部會之首長。主要職能是做為國家決策的機構,並協調政策或行政事務。詳細資料可參見:http://theme.archives.go.kr/next/cabinet/viewIntro.do。 [6] 〈정부, AI 국가전략 발표…”AI 반도체 세계 1위 목표”〉,Bloter,2019/12/17,http://www.bloter.net/archives/364678 (最後瀏覽日:2020/2/1)。 [7] 〈인공지능(AI) 국가전략 발표〉,과학기술정보통신부,2019/12/17,https://www.msit.go.kr/web/msipContents/contentsView.do?cateId=_policycom2&artId=2405727 (最後瀏覽日:2020/2/1)。 [8]〈인공지능 국가전략〉,관계부처 합동,2019/12,頁36-38。

瑞士公投通過基改生物培育禁令

  瑞士國會在2003年通過法律,允許有條件種植基改作物,但是反對者要求禁種的聲浪仍高,為此,瑞士甚至特別舉行了公民投票。公投結果在11月底出爐,正式確定未來五年瑞士境內將禁止種植基因改造植物或培育基因改造動物。根據官方資料顯示,有55.7%的投票者支持這項公投案,支持者多為農民、環保人士、生態學家和消費者協會。   反基因改造生物(GMO)者表示,基改農作物對消費者與農民並無益處,禁令將可使得瑞士有更多時間來評估GMO對於生態環境安全的衝擊,並且可使農民有更多的機會銷售傳統農產品和有機農產品。   雖然此一決定僅禁止GMO之種植或養殖,並沒有禁止基因改造科技的研究以及基改產品的進口,但瑞士生技業及科學研究人員仍極憂心地表示,實驗室的基改研究成果若無法量產上市,仍將會嚴重打擊其國內基因科技研究,造成人才及產業外移。

我國去識別化實務發展-「個人資料去識別化過程驗證要求及控制措施」

我國關於個人資料去識別化實務發展 財團法人資訊工業策進會科技法律研究所 2019年6月4日 壹、我國關於個人資料去識別化實務發展歷程   我國關於個資去識別化實務發展,依據我國個資法第1條立法目的在個資之隱私保護與加值利用之間尋求平衡,實務上爭議在於達到合理利用目的之個資處理,參酌法務部103年11月17日法律字第10303513040號函說明「個人資料,運用各種技術予以去識別化,而依其呈現方式已無從直接或間接識別該特定個人者,即非屬個人資料,自非個資法之適用範圍」,在保護個人隱私之前提下,資料於必要時應進行去識別化操作,確保特定個人無論直接或間接皆無從被識別;還得參酌關於衛生福利部健保署資料庫案,健保署將其所保有之個人就醫健保資料,加密後提供予國衛院建立健保研究資料庫,引發當事人重大利益爭議,終審判決(最高行政法院106年判字第54號判決)被告(即今衛福部)勝訴,法院認為去識別化係以「完全切斷資料內容與特定主體間之連結線索」程度為判準,該案之資料收受者(本案中即為衛福部)掌握還原資料與主體間連結之能力,與健保署去識別化標準不符。但法院同時強調去識別化之功能與作用,在於確保社會大眾無法從資料內容輕易推知該資料所屬主體,並有提到關於再識別之風險評估,然而應採行何種標準,並未於法院判決明確說明。   我國政府為因應巨量資料應用潮流,推動個資合理利用,行政院以推動開放資料為目標,104年7月重大政策推動會議決議,請經濟部標檢局研析相關規範(如CNS 29191),邀請相關政府機關及驗證機構開會討論,確定「個人資料去識別化」驗證標準規範,並由財政部財政資訊中心率先進行去識別化驗證;並以我國與國際標準(ISO)調和之國家標準CNS 29100及CNS 29191,同時採用作為個資去識別化驗證標準。財政部財政資訊中心於104年11月完成導航案例,第二波示範案例則由內政部及衛生福利部(105年12月通過)接續辦理。   經濟部標準檢驗局目前不僅將ISO/IEC 29100:2011「資訊技術-安全技術-隱私權框架」(Information technology – Security techniques – Privacy framework)、ISO/IEC 29191:2012「資訊技術-安全技術-部分匿名及部分去連結鑑別之要求事項」(Information technology – Security techniques – Requirements for partially anonymous, partially unlinkable authentication),轉換為國家標準CNS 29100及CNS 29191,並據此制訂「個人資料去識別化過程驗證要求及控制措施」,提供個資去識別化之隱私框架,使組織、技術及程序等各層面得整體應用隱私權保護,並於標準公報(107年第24期)徵求新標準之意見至今年2月,草案編號為1071013「資訊技術-安全技術-個人可識別資訊去識別化過程管理系統-要求事項」(Management systems of personal identifiable information deidentification processes – Requirements),主要規定個資去識別化過程管理系統(personal information deidentification process management system, PIDIPMS)之要求事項,提供維護並改進個人資訊去識別化過程及良好實務作法之框架,並適用於所有擬管理其所建立之個資去識別化過程的組織。 貳、個人資料去識別化過程驗證要求及控制措施重點說明   由於前述說明之草案編號1071013去識別化國家標準仍在審議階段,因此以下以現行「個人資料去識別化過程驗證要求及控制措施」(以下簡稱控制措施)[1]說明。   去識別化係以個資整體生命週期為保護基礎,評估資料利用之風險,包括隱私權政策、隱私風險管理、隱私保護原則、去識別化過程、重新識別評鑑等程序,分別對應控制措施之五個章節[2]。控制措施旨在使組織能建立個資去識別化過程管理系統,以管理對其所控制之個人可識別資訊(personal identifiable information, PII)進行去識別化之過程。再就控制措施對應個人資料保護法(下稱個資法)說明如下:首先,組織應先確定去識別化需求為何,究係對「個資之蒐集或處理」或「為特定目的外之利用」(對應個資法第19條第1項第4、5款)接著,對應重點在於「適當安全維護措施」,依據個資法施行細則第12條第1項規定,公務機關或非公務機關為防止個資被竊取、竄改、毀損、滅失或洩漏,採取技術上及組織上之措施;而依據個資法施行細則第12條第2項規定,適當安全維護措施得包括11款事項,並以與所欲達成之個資保護目的間,具有適當比例為原則。以下簡要說明控制措施五大章節對應個資法: 一、隱私權政策   涉及PII處理之組織的高階管理階層,應依營運要求及相關法律與法規,建立隱私權政策,提供隱私權保護之管理指導方針及支持。對應個資法施行細則第12條第2項第5款適當安全維護措施事項「個人資料蒐集、處理及利用之內部管理程序」,即為涉及個資生命週期為保護基礎之管理程序,從蒐集、處理到利用為原則性規範,以建構個資去識別化過程管理系統。 二、PII隱私風險管理過程   組織應定期執行廣泛之PII風險管理活動並發展與其隱私保護有關的風險剖繪。直接對應規範即為個資法施行細則第12條第2項第3款「個人資料之風險評估及管理機制」。 三、PII之隱私權原則   組織蒐集、處理、利用PII應符合之11項原則,包含「同意及選擇原則」、「目的適法性及規定原則」、「蒐集限制原則」、「資料極小化原則」、「利用、保留及揭露限制」、「準確性及品質原則」、「公開、透通性及告知原則」、「個人參與及存取原則」、「可歸責性原則」、「資訊安全原則」,以及「隱私遵循原則」。以上原則涵蓋個資法施行細則第12條第2項之11款事項。 四、PII去識別化過程   組織應建立有效且周延之PII去識別化過程的治理結構、標準作業程序、非預期揭露備妥災難復原計畫,且組織之高階管理階層應監督及審查PII去識別化過程之治理的安排。個資法施行細則第17條所謂「無從識別特定當事人」定義,係指個資以代碼、匿名、隱藏部分資料或其他方式,無從辨識該特定個人者,組織於進行去識別化處理時,應依需求、風險評估等確認注意去識別化程度。 五、重新識別PII之要求   此章節為選驗項目,需具體依據組織去識別化需求,是否需要重新識別而決定是否適用;若選擇適用,則保留重新識別可能性,應回歸個資法規定保護個資。 參、小結   國際上目前無個資去識別化驗證標準及驗證作法可資遵循,因此現階段控制措施,係以個資整體生命週期為保護基礎,評估資料利用之風險,使組織能建立個資去識別化過程管理系統,以管理對其所控制之個人可識別資訊進行去識別化之過程,透過與個資法對照個資法施行細則第12條規定之安全維護措施之11款事項,內化為我國業者因應資料保護與資料去識別化管理制度。   控制措施預計於今年下半年發展為國家標準,遵循個資法與施行細則,以及CNS 29100、CNS 29191之國家標準,參照國際上相關指引與實務作法,於技術上建立驗證標準規範供產業遵循。由於國家標準無強制性,業者視需要評估導入,仍建議進行巨量資料應用等資料經濟創新業務,應重視處理個資之適法性,建立當事人得以信賴機制,將有助於產業資料應用之創新,並透過檢視資料利用目的之合理性與必要性,作為資料合理利用之判斷,是為去識別化治理之關鍵環節。 [1] 參酌財團法人電子檢驗中心,個人資料去識別化過程驗證,https://www.etc.org.tw/%E9%A9%97%E8%AD%89%E6%9C%8D%E5%8B%99/%E5%80%8B%E4%BA%BA%E8%B3%87%E6%96%99%E5%8E%BB%E8%AD%98%E5%88%A5%E5%8C%96%E9%81%8E%E7%A8%8B%E9%A9%97%E8%AD%89.aspx(最後瀏覽日:2019/6/4) 財團法人電子檢驗中心網站所公告之「個人資料去識別化過程自評表_v1」包含控制措施原則、要求事項與控制措施具體內容,該網站並未公告「個人資料去識別化過程驗證要求及控制措施」,故以下整理係以自評表為準。 [2] 分別為「隱私權政策」、「PII隱私風險管理過程」、「PII之隱私權原則」、「PII去識別化過程」、「重新識別PII之要求」。

Palm支付2.25億美元與Xerox達成專利侵權和解

  由於 Palm 採用 3C om 的手寫辨識技術,於 1997 年遭 Xerox 控訴侵犯其在 1997 年所取得的 Unistrokes 專利權, Xerox 要求 Palm 支付 Graffti 的使用權利金,否則便應停止在其 PDA 中使用此項技術。此案於今年 (2006) 6 月 28 日 經 紐約西區美國地方法院法官 Michael Telesca 判決 Palm 的 Graffiti( 手寫辨識軟體 ) 的確已侵害到 Xerox 權利。   Palm 同意支付 2.25 億美元以取得 Xerox 手寫辨識軟體的合法授權使用權,結束 1997 年以來長達 9 年的法律訴訟。事實上, Xerox 在 1997 年是控告後來被 3Com 收購的 U. S. Robotics 公司, 但 這家公司之後被 3Com 買下,後來 3Com 再將其獨立 成立 Palm Inc ,當時 Palm 將 Graffiti 技術嵌入旗下的 Pilot PDA 中,也把使用了 Graffiti 技術的軟體賣給其他 PDA 製造商。   這次 Palm 所支付的費用涵蓋了 Palm Inc 、 PalmSource 及 3C om ,這三家業者均取得 Unistrokes 及 Xerox 其他兩項技術的專利的授權。雙方的協議包括 7 年的「專利和平」( patent peace )期,在這期間內允許合理使用談定的專利,而且不再互控對方。

TOP