加拿大提供App開發供應商指導方針解決因隱私保護所引發之問題。

  App已成為多數人每日不可或缺之夥伴,其應用層面廣及食、衣、住、行、育、樂等生活領域;不過用戶可能多未意識到,在App程式的下載及安裝過程中,開發供應商會記錄或接觸使用者手機中如電話簿、照片、影音檔案、簡訊、密碼記錄等其他資訊之可能。根據華爾街日報報導,56%的應用程式在用戶不知情的情況下,手機ID會發送給廠商;47%的應用程式會透露用戶的所處位置,使得個人隱私蕩然無存。

 

  加拿大當地的隱私法規要求企業在追求創新及企業精神時必須將隱私保護納入考量;而在行動裝置應用環境中,無論是開發商、服務供應商、應用平台或是廣告商,只要有接觸用戶個人資訊之可能,就有遵守法規之義務。但考量App這樣一個嶄新又快速發展的科技生態,在實踐隱私保護精神之初可能會面臨到新的衝擊與挑戰。因此,加拿大隱私權主管機關(Office of the Privacy Commissioner of Canada,簡稱OPC)乃會同加拿大境內的阿爾伯特及不列顛哥倫比亞兩省各自之地方主管機關(其分別為Office of the Information & Privacy Commissioner of Alberta及Office of the Information & Privacy Commissioner for British Columbia)撰寫指導文件,希望能提供當地App開發供應商建議方案。

 

  該項建議方案促使行動軟體開發供應商在設計與開發App應用程式時必須顧及使用者隱私之保護,並提供協助方式與預防原則,提高使用者隱私受保護之程度;除必須使用清晰且易懂之方式告知用戶的個人資料將進行何種用途外,在使用者下載前亦應告知被蒐集之資料類別及原因、資料儲存位置或地點、資料分享之可能及其原因、資料保存之期限、及其他可能影響用戶隱私之事件;倘若廠商必須變更隱私政策與規定,則應使用明確易懂之方式事先通知所有使用者了解進行何項變更,以強化用戶隱私與個人資料保護意識。

相關連結
※ 加拿大提供App開發供應商指導方針解決因隱私保護所引發之問題。, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5970&no=64&tp=1 (最後瀏覽日:2026/03/31)
引註此篇文章
你可能還會想看
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

日本文部科學省發布產學合作研究成果歸屬合約範本【櫻花工具包】

  日本文部科學省於2002年提出產學合作契約範本,實行以來發現內容缺乏彈性,對於共同提交專利申請的共有專利權人能否進行商業化等研發成果歸屬問題規範不清。為此,2017年3月日本文部科學省科學技術及學術政策局參考英國智財局發布的Lambert toolkit等文件,提出11項合約範本,稱為【櫻花工具包】。   該工具的主要目標是期望產學合作從在意權利共有轉為重視研發成果商業化,提出包括大學或企業單獨擁有研發成果、雙方共有研發成果等多類型的合作契約模式,並解析如何從數種模式中選擇最適合的合約範本,盡可能在產學合作契約簽訂前,事先考量研究成果的商業化策略,從而提高研發成果商業化的可能性。當中建議,在進行模型選擇時需考慮以下因素: 對研發成果的貢獻程度。 智財權歸屬於大學的處理方法。 是否有必要通過大學發布研究成果。 研究成果歸屬(大學擁有、企業擁有、雙方共有)。 雙方是否同意智財權共有。   此外,為了盡可能使研究成果的智財權更廣泛應用,在參考適用範本時,皆應考量研發成果商業化的靈活性,無論智財權歸屬於大學或企業方,都必須滿足以下的條件: 不限制大學後續研究的可能性。 所有的智財權都要適當的努力使其商業化。 研究成果需在約定的期間內進行學術發表。   日本此一工具包之內容對於產學合作研究之推展,提供了更細緻化的指引,或許可為我國推行相關政策之參考,值得持續關注其內涵與成效。

美國參議院提出「2019年物聯網網路安全促進法」草案

  自2016年Mirai殭屍網路攻擊事件後,物聯網設備安全成為美國國會主要關注對象之一,參議院於2017年曾提出「2017年物聯網網路安全促進法」(Internet of Things Cybersecurity Improvement Act of 2017)草案,防止美國政府部門購買有明顯網路安全性漏洞之聯網設備,並制定具體規範以保護聯網設施之網路安全,然而該法案最終並未交付委員會審議。   2019年4月,美國參議員Mark Warner提出「2019年物聯網網路安全促進法」草案(Internet of Things Cybersecurity Improvement Act of 2019),再度嘗試建立物聯網網路安全監管框架。本法將授權主管機關建立物聯網設備所應具備之安全性條件清單,而該清單將由美國國家標準與技術研究院(National Institute of Standards and Technology)擬定,並由管理與預算局(Office of Management and Budget, OMB)負責督導後續各聯邦機關導入由美國國家標準與技術研究院所制定之網路安全指引。本法草案相較於2017年的版本而言雖較具彈性,惟網路安全專家指出,清單之擬定與執行管理分別交由不同單位主責,未來可能導致規範無法被有效執行,且聯邦各層級單位所需具備之資安防護等級不盡相同,如何制宜亦係未來焦點。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP