日本個人資料保護委員會發布「禁止不當利用」與「停止利用」論點資料作為將來發布指引參考

  日本為因應去年6月通過「個人資料保護法」之修正(下稱「新法」),個人資料保護委員會於2021年2月19日第166次會議議題「禁止不當利用與停止利用之完備指引論點」(改正法に関連するガイドライン等の整備に向けた論点について(不適正利用の禁止・利用停止等)),公開兩份論點資料,作為將來發布指引之參考,並使企業等關係者在新法實施準備期間,得採取適當措施以達到法遵要求。

  新法第16條之2「禁止不當利用」,旨在防止不當利用個人資料致本人權益受損。於「禁止不當利用之論點資料」指出具體要件有(1)「違法或不當行爲」,係指違反個人資料保護法及其他法令之行爲,或有違公序良俗,在社會觀念上非屬正當之行為;(2)「助長或誘發之危害」,在認定上將限縮在以業者提供時有認識第三方將違法利用個人資料,並可預見提供個人資料將受違法利用之情形,以免造成寒蟬效應。若第三方刻意隱瞞取得目的,即使已盡相當注意仍不能預見違法利用之情形,則非屬「危害」。

  新法第30條第5項擴大「停止利用」請求權範圍,於「停止利用之論點資料」指出適用要件有(1)「個人資料處理業務已無利用個人資料之需要」,即個人資料利用目的已消失或該事業已中止時;(2)「發生第22條之2第1項本文情形」,係指發生資料外洩依規定須報告委員會之情形;(3)「可能損害本人權益時」,係指依法受保護之正當權益有受損可能為必要。另論點指出請求停止利用必須在「為防止本人權益受損必要限度內」,故業者對於超出必要限度之部分得拒絕之。而對於停止利用所費不貲或顯有重大困難之情形,得依個案具體考量採取適當替代措施。

相關連結
相關附件
你可能會想參加
※ 日本個人資料保護委員會發布「禁止不當利用」與「停止利用」論點資料作為將來發布指引參考, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8696&no=55&tp=1 (最後瀏覽日:2025/11/26)
引註此篇文章
你可能還會想看
美國聯邦交易委員會延展紅旗規則之施行日

  美國聯邦交易委員會(Federal Trade Commission,FTC)因應眾議院之要求,再次延展了紅旗規則(Red Flags Rule)之施行日,目前將由原先預定之2009年11月1日,延後至2010年6月1日施行。此規則最初預計於2008年11月1日施行,此次已是第四次延展。     所謂紅旗規則,原為「公平與正確信用交易法(Fair and Accurate Credit Transactions Act)」中之規定,依該法眾議院指示美國聯邦交易委員會及相關部門制定法規,用以規範金融機構及授信單位降低身分盜用之風險。基於此一指示,金融機構及授信單位必須研擬防止身分盜用的方案。詳言之,紅旗規則係要求凡管理使用包括性帳戶(covered account)者都應研擬並執行防止身分盜用之書面計劃。所謂的包括性帳戶係指:1.用於多次消費計算用途之帳戶,如信用卡帳戶、汽車貸款帳戶、手機帳戶、支票帳戶等;2.所有預期會產生身分盜用風險的帳戶,並不僅指於金融機構中所設立之帳戶。而前述應研擬之計畫將用以協助確認、偵測並解決身分盜用之行為。     由於只要用於支付計算,或有可能產生身分盜用風險之帳戶,均為包括性帳戶,而用於支付會計師款項之帳戶亦包含在內。惟美國會計師協會(American Institute of Certified Public Accountants, AICPA)要求FTC免除註冊會計師適用紅旗規則,該協會執行長Barry Melancon認為:「我們很在意紅旗規則的廣泛應用,因為我們並不認為當CPA之客戶付款時,會產生相當的身分冒用風險。」他指出該紅旗規則所帶來之負擔已超過其風險。AICPA並要求各州會計師協會去函對FTC表達排除適用之意見。而Melancon贊同FTC延後適用紅旗原則之決定,其並認為紅旗規則並無須廣泛運用於會計業,因為作為值得信賴的顧問,會計師對於其客戶應該都很熟悉,也會要求對身分資訊採取嚴格的隱私保護標準。     為了推動紅旗規則之適用,FTC已於紅旗規則之官方網站提供了該規則之適用綱領,並以座談會之方式對各團體進行運用之培訓。同時以出版企業之應用綱領,大量之文宣及宣導短片,對民眾提供諮詢服務等方式推廣紅旗規則。     而司法實務界對於此一規則之適用範圍亦開始表達其見解,在2009年10月30日,哥倫比亞地方法院判決律師業不適用紅旗規則。不過此次的延展施行公告並不會影響相關案件的進行及上訴流程,也不會影響其他聯邦部門對於金融機構及授信單位的監督。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

公私合作的科技創業投資機制研析-以德國高科技創業者基金(HTGF)為例

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP