日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。

隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。

本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下:

1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。

2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。

日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9235&no=57&tp=1 (最後瀏覽日:2026/02/28)
引註此篇文章
你可能還會想看
日本2018年7月27日發布最新3年期網路安全戰略(サイバーセキュリティ戦略)

  日本網路安全戰略本部(サイバーセキュリティ戦略本部)於2018年7月27日發布最新3年期網路安全戰略(サイバーセキュリティ戦略),其主要目的係持續實現「提昇經濟社會活力與永續發展」、「實現國民安全且安心生活之社會」、「維持國際社會和平、安定與保障日本安全」三大目標,並透過7月25日同樣由網路安全戰略本部(サイバーセキュリティ戦略本部)發布之網路安全年度計畫2018(サイバーセキュリティ2018),執行下述資安對策的細部計畫與做法。   以下簡述依據日本三大資安目標所提出之重要資安對策: 提昇經濟社會活力與永續發展 (1) 推動可以支援創造新價值之網路安全措施。 (2) 實現可以創造價值之網路安全供應鏈。 (3) 架構安全物聯網(Internet of Things, IoT)系統。 實現國民安全且安心生活之社會 (1) 制定網路犯罪之因應對策。 (2) 官民一體共同防護關鍵基礎設施。 (3) 強化與充實政府機關之網路安全。 (4) 確保大學能建構安全與安心之教育與研究環境。 (5) 展望2020年東京奧運與未來之措施。 (6) 強化情資共享與合作體制。 (7) 強化應變大規模網路攻撃事態之能力。 維持國際社會和平、安定及保障日本安全 (1) 堅持自由、公平且安全之網路空間。 (2) 建立支配網路空間之法律秩序。 (3) 強化日本網路防禦力、抑制網路攻擊能力與掌握狀況之能力。 (4) 強化掌握網路空間狀況之能力。 (5) 國際合作。

何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

印度邁向個資法制新里程公布數位個資保護規則

印度於2025年11月13日公布《數位個人資料保護規則》(Digital Personal Data Protection Rules,下稱DPDP規則,位階近似於我國個人資料保護法施行細則),作為2023年8月制定《數位個人資料保護法》(Digital Personal Data Protection Act,下稱DPDPA)之配套規範。DPDPA為印度首部全面性個資保護立法,並與DPDP規則採三階段施行。第一階段自2025年11月13日起,重點包括定義規定、印度資料保護委員會(Data Protection Board of India, DPBI)之設立與權限。第二階段自2026年11月13日起,聚焦於印度特有之「同意管理人(Consent Manager)」制度。第三階段自2027年5月13日起,全面施行資料處理者(Data Fiduciary,意涵近似於歐盟一般資料保護規則(GDPR)所稱資料控管者,惟更強調對資料主體負有信賴義務與善良管理責任)一般義務、兒童資料保護、重要資料處理者制度、當事人權利、跨境傳輸及適用除外等規定。其制度重點如下: 一、明確化告知與同意規範:DPDP規則要求資料處理者於取得資料主體同意前,須以獨立且易懂之方式提供告知,清楚說明個人資料類型、利用目的及所提供之商品或服務,並提供同意撤回、權利行使及申訴之管道。 二、建立同意管理人制度:此制度使資料當事人得透過第三方集中管理其對不同資料受託者之同意狀態,並隨時檢視或撤回其同意。DPDP規則就其資格、義務、登錄程序及監理機制加以規範,並賦予DPBI對其進行調查與裁罰之權限。 三、強化資安措施與侵害通報:DPDP規則明定資料受託者應採取安全維護措施,其最低標準包括加密、存取控制、日誌保存、監控、備份及資料處理相關契約管理等。另建立個資侵害通報制度,要求即時通報資料當事人及DPBI,並於72小時內補充完整資訊。 四、加重大型平台與特定資料保護機制:DPDP規則要求大型電子商務、線上遊戲及社群平台於三年未互動且無保存義務時刪除個人資料;並就18歲以下兒童及受法定監護者,要求取得可驗證之法定代理人同意。另中央政府得指定「重要資料處理者(Significant Data Fiduciary)」,課予定期影響評估、稽核及設置資料保護長之義務。 五、規範權利行使、跨境傳輸與除外規定:DPDP規則要求資料受託者及同意管理人於其網站或應用程式中,清楚揭示權利行使方式及身分驗證程序;跨境傳輸採「原則開放、例外限制」模式,由政府另行指定限制國家或對象;另就研究、保存及統計目的之資料處理,DPDP規則明定在未造成個人權益之影響下,且資料受託者已採取適當技術與組織措施,始得適用除外規定。

美國能源關鍵基礎設施議題觀察

TOP