日本發布成為可信賴夥伴的資料治理手冊,呼籲企業應建立並實施貫穿資料生命週期的資料治理機制

日本獨立行政法人情報處理推進機構於2025年1月28日發布《成為可信賴夥伴的資料治理手冊(下稱《手冊》)》,旨在呼籲企業建立與實施「貫穿資料生命週期的資料治理機制」,藉此將資料價值最大化,並將資料風險最小化。

《手冊》指出,資料驅動著社會發展,資料治理的重要性亦隨之提升。資料治理係指企業或組織透過機制、規則與制度等多種層面的策略性手段管理其重要資料資產,並透過制定相應的政策與規則,確保資料的品質與安全性。同時,考量資料具備易於複製、竄改且流通難以控制的特性,建立完善的資料治理機制亦有助於在共享資料的過程中維持其品質及安全性。推動資料治理的基礎,則仰賴適當且有效的資料管理機制,亦即確保在蒐集、處理、儲存與使用等資料生命週期各階段皆能落實資料管理機制。然而,資料管理本身要能發揮效益,仍須依賴組織具備足夠的資料成熟度,即具備正確處理與應用資料的整體能力,方能系統性的落實管理與治理工作。

根據《手冊》內容,透過資料治理,企業或組織將能確保資料品質、透明度及安全性,並基於可信任的資料進行決策,進而有效提升決策精準度,實現風險管理與法規遵循,進一步強化自身在資料經濟中的「價值」、「信任」與「公正性」。

我國企業如欲逐步建立並落實貫穿資料生命週期的資料治理機制,可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,作為制度設計與實務推動之參考,以強化資料治理能力。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 日本發布成為可信賴夥伴的資料治理手冊,呼籲企業應建立並實施貫穿資料生命週期的資料治理機制, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9361&no=64&tp=1 (最後瀏覽日:2026/04/16)
引註此篇文章
你可能還會想看
英國零售商Poundland聲稱Toblerone瑞士三角巧克力之新外觀可能導致立體商標不具識別性

  今(2017)年七月,擁有著名「Toblerone瑞士三角巧克力(下簡稱Toblerone巧克力)」之食品大廠「億滋國際(Mondelēz International,下簡稱Mondelēz公司)」,對英國零售商Poundland及其供應商Walkers Chocolates所開發之新產品─Twin Peaks巧克力棒提出警告函,而使該新產品之上市時間延遲。   Mondelēz公司向英國倫敦高等法院提出Twin Peaks巧克力仿冒Toblerone巧克力之紅與金配色之包裝、logo及產品外觀,已侵犯其商標權。並指出Twin Peaks巧克力棒是「欺騙性和混淆性近似(deceptively and confusingly similar)」,使消費者誤認Twin Peaks巧克力棒為Mondelēz公司所生產。   而零售商Poundland於八月中所提之答辯指出,Twin Peaks巧克力棒已取得英國註冊商標,並主張:儘管Mondelēz公司早在1997年將Toblerone巧克力之稜柱體註冊為歐盟立體商標(three dimensional mark),然而因應原物料成本上漲,Mondelēz公司為了不影響售價而於去(2016)年底將該產品之外觀作了變更,包括增加稜柱體之間距、並使原本十二塊稜柱體縮減為九塊;此外,Mondelēz公司於英國所販售之Toblerone巧克力早自2010年起,已改為十一塊稜柱體,亦非當初註冊商標之十二塊稜柱體,因此零售商Poundland聲稱Toblerone巧克力之外觀已不足以具有識別性(distinctive),使該商標「不可避免地被放棄(irretrievably abandoned)」而質疑該商標之有效性。   比對兩者之外觀,相對於Toblerone巧克力為單峰稜柱體,並以瑞士阿爾卑斯山之馬特洪峰(Matterhorn)為意象;而Twin Peaks巧克力棒則為併列之雙峰,且象徵英國之瑞金山(Wrekin)。商標係用以區別商品或服務來源,當其他廠商巧克力棒之產品外觀採用與Toblerone巧克力相同或近似之外觀,使該外觀喪失識別性而趨於通用性(generic),將無法作為商標使用,也因此Mondelēz公司強調其產品之識別性以捍衛其商標權,本案後續發展尚待觀察。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

歐盟個人資料保護工作小組就目的限制原則發表意見

  2013年4月2日,歐盟個人資料保護工作小組(the Article 29 Working Party,以下稱「工作小組」),就目的限制原則(purpose limitation principle)發表意見書,檢視歐盟資料保護指令(Data Protection Directive)第六條所規定的目的限制原則,包括(一)資料的蒐集必須具有特定、明確與合法之目的,以及(二)資料的處理或利用必須符合資料蒐集時之目的。   另一方面,工作小組亦檢視目的限制原則對巨量資料(big data)與開放資料(open data)可能會造成的潛在衝擊: 1.就巨量資料的部分而言,工作小組界定了二個應用情境,一是分析巨量資訊,以分析辨識趨勢或資訊間的相關性,另一是直接影響個人(例如,對當事人的行為進行追蹤、分析、側寫,並據此進行廣告與行銷)。對此,工作小組認為,應給予當事人選擇的權利,另外,組織應揭露關決策標準,並且提供當事人之側寫資料。 2.關於開放資料,工作小組強調匿名化以及資料保護衝擊分析的重要性,以確保必要的安全措施。   工作小組提出兩項修正意見,包括(一)個人資料保護規則(General Data Protection Regulation)草案的第五條宜針對目的限制原則為更明確之規定,以及(二)刪除個人資料保護規則草案第六條第四項之規定。

加拿大政府擬將安樂死合法化

  加拿大聯邦政府於2016年4月14日向國會提交「醫助善終」法案,即C-14法案(Bill C-14),以修正加拿大的刑法(Criminal Code)相關規定;另外,亦會一併修正年金法(Pension Act)、矯正和有條件釋放法(Corrections and Conditional Release Act)、加拿大部隊成員和退伍軍人重建和賠償法(Canadian Forces Members and Veterans Re-establishment and Compensation Act)相關名詞之解釋。   該法案通過後,醫生、護士、藥師及其他協助執行任務之人,將可對符合資格之病人,以醫療方式協助其結束生命,而免於背負刑法加工自殺罪之責任。   可以使用醫療方式結束生命(Medical Assistance in Dying)之人,必須符合以下列出的所有條件,缺一不可: (1)須為加拿大籍;或是在加拿大停留至少一段時間,可使用加拿大的醫療健康服務者。 (2)年齡至少18歲以上,且可對其健康自主作出決定。 (3)患有極為嚴重且不可治癒之重大醫療情況。 (4)在沒有外界壓力之情形下,自願性的要求以醫療方式結束其自身之生命者。 (5)在接受醫療方式結束生命前,須簽署知情同意書(Informed Consent)。   加拿大議會認同那些處於極為嚴重、難以忍受且無法治癒疾病之族群,有向專業醫療人員尋求結束自己生命的權利;但這需要非常健全的法令體系,以避免任何可能的錯誤或濫用,因為生命一旦消逝就再也無法回復。對於處於弱勢之族群,例如生命品質不佳者、老年人、重病或殘障者,亦應尊重其生命之固有價值,保護他們免於被引誘結束自己的生命是非常重要的。   這部法案是一個衡平的法案,同時保護弱勢族群之生命價值,也保護了特殊族群尋求醫療方式結束自己生命的權利。新法案需待國會投票審議通過後,才能生效。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP