日本擬讓司法機關偵查時利用GPS定位取得位置資訊無須事先告知,僅須取得法院令狀

  日本電信事業個人資料保護指針(電気通信事業における個人情報保護に関するガイドライン)自2011年修訂後至今即未有任何改變。然而,隨著現代行動通信軟硬設備技術的進步,智慧型手機中已有許多應用程式可透過GPS衛星定位功能準確獲取使用者之位置資訊,倘若司法機關也能於搜查辦案過程即時取得此定位資訊,將可提高偵查效率並縮短破案時程。

  為此,日本總務省擬將原先須事先通知行動設備使用人與獲得法院令狀後,方得利用GPS衛星定位獲取位置資訊之電信事業個人資料保護指針第26條修訂為司法機關取得法院令狀後,即可利用GPS衛星定位獲取行動設備使用人位置訊息。

  然此項修訂除將可能造成行動通訊業者營運上的額外負擔之外,亦有侵害設備使用者之個人隱私與個人資料疑慮。因此,為了抑止濫為偵查,法院令狀之發出須有其必要性,搜查機關亦必須向行動通訊業者為必要性之說明。

  再者,此項利用GPS衛星定位獲取位置訊息之方式也僅限於使用Android系統設備且將定位功能開啟之使用者,對於使用Apple iOS系統設備之使用者則不但須使用者開啟定位功能,還須經過美商蘋果公司同意方能取得亦是一項難題。

  日本總務省已於2015年4月17日發布此項法令修訂訊息並徵詢公眾意見,預計於6月完成修法並公布之。

相關連結
※ 日本擬讓司法機關偵查時利用GPS定位取得位置資訊無須事先告知,僅須取得法院令狀, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6899&no=64&tp=1 (最後瀏覽日:2025/11/27)
引註此篇文章
你可能還會想看
IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

韓國成立國家生技委員會,推動生技三大轉型

韓國政府於2025年1月23日成立國家生技委員會(국가바이오위원회),作為跨部會最高決策機構,整合生技、醫療、食品、能源、環境等領域政策。該委員會將推動《大韓民國生技大轉型戰略》(대한민국 바이오 대전환 전략),聚焦基礎建設、研發創新、產業發展三大轉型,重點分述如下: 1. 基礎建設轉型:韓國將成立「生技聚落協調機構」(바이오 클러스터 협의체),整合20多個生技聚落,讓各聚落共享設備、專家及創業支援,並與全球頂尖生技聚落交流。韓國計畫創造1萬個生技相關就業機會、培育11萬名生技專業人才,並推動生技監管創新。 2. 研發創新轉型:韓國期望透過AI技術應用,將新藥開發的時間與成本減半。此外,政府將提供資料共享的獎勵措施,簡化IRB及DRB審查流程,推動資料導向的生技研發。韓國計畫至2035年在國家生技資料平台上累積1000萬筆生技資料,並建構高效能運算基礎設施以提升分析能力。 3. 產業發展轉型:韓國將透過五個公共CDMO支援生技產業技術產品化,並推動AI導向的「K-BioMADE計畫」,促進生技製造的高速化、標準化與自動化。此外,政府將成立1兆韓元以上的「Mega Fund」,提供金融政策支持。韓國計畫至2032年將CDMO生產能力擴大至2.5倍,確保在全球市場佔據領先地位。 韓國政府擬透過「國家生技委員會」強化公私部門協作、優化法規環境及加速創新技術的商業化,為我國未來生醫政策發展提供寶貴的參考價值,值得持續關注。

中國發布《個人信息保護合規審計辦法》,明確企業個資審計責任

中國國家互聯網信息辦公室於2025年2月12日公布《個人信息保護合規審計管理辦法》(下稱《辦法》)及其配套指引,自2025年5月1日正式實施。《辦法》及指引的發布,旨在落實《個人信息保護法》中的稽核規定,完善個資合規監督架構,為企業提供執行審計的制度依據。 《辦法》區分合規審計為兩大形式:企業可自行或委託專業機構定期進行審計;另當主管機關發現高風險處理活動或發生重大資料外洩事件時,有權要求企業限期完成外部審計,並提交報告。針對處理規模較大的企業,《辦法》特別規定,凡處理超過1,000萬人個資的業者,須至少每兩年完成一次審計。 針對大規模蒐用個資企業,《辦法》亦強化其配合責任,對於處理超過100萬人資料的企業,須設置個資保護負責人;對大型平台服務業者,則須成立主要由外部人員主導的獨立監督機構,以確保審計客觀性。 在審計執行層面,《辦法》對第三方審計機構的條件、獨立性與保密義務提出具體要求,並禁止將合規審計轉委託,防堵審計品質不一,或個資分享過程增加外洩風險。同時,也規範同一機構或審計負責人不得連續三次審計同一對象,以強化審計公正性。 《合規審計指引》進一步列出具體審查項目,包括處理合法性、告知義務、資料共享、敏感及未成年個資保護、境外傳輸、自動化決策與安全措施等,協助企業全面落實個資合規審查。

TOP