日本個人資料保護法修正案允許變更利用目的引發各界議論

  日本國會於本會期(2015年1月)中,進行個人資料保護法修正草案(個人情報保護法の改正案)的審議。修正草案研擬之際,歷經多次討論,IT總合戰略本部終於在2014年6月公布修正大綱,後於同年12月公布其架構核心。

  本次修正,主要目標之一,是使日本成為歐盟(EU)所認可之個人資料保護程度充足的國家,進而成為歐盟所承認得為國際傳輸個人資料的對象國;為此,此次修正新增若干強化措施,包含(1)設立「個人資料保護委員會」;(2)明訂敏感資料(包含種族、病歷、犯罪前科等)應予以嚴格處理;(3)明訂資料當事人就其個人資料得行使查詢或請求閱覽等權利。

  本次修正的另一個目標,則是促進個人資料利用及活用的可能性。2014年中,日本內閣府提出「有關個人資料利活用制度修正大綱」,提倡利用、活用個人資料所帶來的公共利益,並指出,過往的法規僅建構於避免個人資料被濫用的基礎,已不符合當今需求,且易造成適用上的灰色地帶,應透過修法予以去除;未來應推動資料的利用與活用相關制度,來提升資料當事人及公眾的利益。本次修正因此配合鬆綁,允許符合下述法定條件下,得變更個人資料之利用目的:(1)於個人資料之蒐集時,即把未來可能變更利用目的之意旨通知資料當事人;(2)依個人資料保護委員會所訂規則,將變更後的利用目的、個人資料項目、及資料當事人於變更利用目的後請求停止利用的管道等,預先通知本人;(3)須使資料當事人容易知悉變更利用目的等內容;(4)須向個人資料保護委員會申請。

  目標間的兩相衝突,使得該案提送國會審議時,引發諸多爭議。論者指出:允許在特定條件上變更個人資料的利用目的,雖顧全資料利用的價值,但似不符合歐盟個人資料保護指令對於個人資料保護的基準,恐使日本無法獲得歐盟認可成為資料保護程度充足的國家,亦徹底喪失此次修正的最重要意義。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 日本個人資料保護法修正案允許變更利用目的引發各界議論, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6787&no=0&tp=1 (最後瀏覽日:2025/12/18)
引註此篇文章
你可能還會想看
歐盟智慧財產局出版《防偽技術指南》,協助企業及早防免智財侵權風險

  歐盟智慧財產局(European Union Intellectual Property Office)之智庫「歐盟智財侵權觀察平台」(the European Observatory)於今(2021)年2月出版《防偽技術指南》(Anti-Counterfeiting Technology Guide,下稱本指南),本指南全面介紹目前市面上防偽技術的內容,技術區分成電子型、標記型、化學型、物理型、機械及數位媒體型等五大防偽技術類別,供所有有興趣了解或欲執行防偽技術的各規模、各領域企業們參考。   仿冒為全球性問題,幾乎威脅到了各領域行業的營運與生存,而全球仿冒品數量在互聯網時代之下,以每年增長15%的驚人速度上升中,已嚴重侵害了企業的品牌商譽與智慧財產權。企業雖懂得以註冊智財權的方式自我保護,但仿冒問題對企業帶來的攻擊性日益增加、防偽技術又多如牛毛且複雜,本指南彙整之資訊,尚補充了關於ISO標準的相關技術資訊,如《 ISO 22383:2020 》(產品與文件之安全性、彈性、真實性與完整性-重要產品認證方案之選擇與性能評估標準)。這些資訊可以跟防偽技術一併使用,精進企業整體防偽策略。   此外,本指南對於彙整出的每項防偽技術或ISO的相關技術標準,都予以清楚介紹,並說明技術主要特性、優缺點、用途、實施條件以及相關成本,企業可透過本指南比較各式防偽技術,從而選定最適合其業務性質的防偽技術,及早防範仿冒風險,以保護企業之業務營運與品牌發展。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

RFID電子式護照的應用與法律爭議

建立G2B2C電子公文交換法制

TOP