日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。

隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。

本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下:

1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。

2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。

日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9235&no=55&tp=1 (最後瀏覽日:2026/03/29)
引註此篇文章
你可能還會想看
英國通訊管理局決定擴張防止「不正當銷售」(mis-selling)的規定

  鑑於頻寬市場以及電信市場的競爭愈趨炙熱,不肖資通訊業者對於弱勢消費者,透過詐騙或其他不適當銷售手法而獲利的案例也層出不窮。爰此,英國通訊管理局(Office of Communication/ Ofcom)在2007年2月8日,決定擴張防止固網電信業者對消費者「不正當銷售」(mis-selling)的規範內容(General Condition)。   「不正當銷售」指的是電信公司或其雇員,利用不受歡迎或者非法的銷售產品技巧所從事的相關市場活動。其中最嚴重的銷售方式,又以「砰一聲」(slamming)的銷售行為,最令人詬病。因為該銷售行為是在未經消費者明示同意、或者未使其獲得足夠知識與資訊下,逕自將提供的服務轉換到另一家公司。例如:轉換服務提供者,但並未通知你;通知轉換服務提供者,但未經你同意;所簽約的服務與提供的服務不盡相同;銷售人利用使你倍感壓力的方式來銷售服務等等,均屬誤賣行為。   此次的規則擴張,在規範對象上也會納入那些使用用戶迴路的服務提供者。Ofcom認為在日益激勵的市場競爭下,這些擴張規則有助於消費者權益,並能保護他們免受不適當的銷售活動干擾,更可確保消費者追求更好消費標的市場信心。

美國網路安全暨基礎設施安全局(CISA)成立聯合網路防禦協作機制(Joint Cyber Defense Collaborative,JCDC),將領導推動國家網路聯防計畫

  美國網路安全暨基礎設施安全局(Cybersecurity and Infrastructure Security Agency,以下簡稱CISA)於2021年8月宣布成立聯合網路防禦協作機制(Joint Cyber Defense Collaborative,以下簡稱JCDC),依據《國防授權法》(National Defense Authorization Act of 2021, NDAA)所賦予的權限,匯集公私部門協力合作,以共同抵禦關鍵基礎設施的網路威脅,從而引領國家網路防禦計畫的制定。   聯合網路防禦協作辦公室(JCDC's office)將由具代表性的聯邦政府單位所組成,包括國土安全部(Department of Homeland Security, DHS)、司法部(Department of Justice, DOJ)、美國網路司令部(United States Cyber Command, USCYBERCOM)、國家安全局(National Security Agency, NSA)、聯邦調查局(Federal Bureau of Investigation, FBI)和國家情報總監辦公室(Office of the Director of National Intelligence, ODNI)。此外,JCDC將與自願參與的夥伴合作、協商,包括州、地方、部落和地區政府、資訊共享與分析組織和中心(ISAOs/ISACs),以及關鍵資訊系統的擁有者和營運商,以及其他私人企業實體等(例如:Microsoft、Amazon、google等服務提供商)。   目的在藉由這項新的合作機制,協調跨聯邦部門、各州地方政府、民間或組織等合作夥伴,來識別、防禦、檢測和應對涉及國家利益或關鍵基礎設施的惡意網路攻擊,尤其是勒索軟體,同時建立事件應變框架,進而提升國家整體資安防護和應變能力。   是以,JCDC此一新單位有以下特點: 具獨特的公私部門規劃要求和能力。 落實有效協調機制。 建立一套共同風險優先項目,並提供共享資訊。 制定、協調網路防禦計畫。 進行聯合演練和評估,以妥適衡量網路防禦行動的有效性。   而JCDC主要功能,整理如下: 全面、全國性的計畫,以處理穩定操作和事件期間的風險。 對情資進行分析,使公私合作夥伴間能採取應對風險的協調行動。 整合網路防禦能力,以保護國家的關鍵基礎設施。 確保網路防禦行動計畫具有適當性,以抵禦對方針對美國發動的網路攻擊。 計畫和合作的機動性,以滿足公私部門的網路防禦需求。 制度化的演練和評估,以持續衡量網路防禦計畫和能力的有效性。 與特定風險管理部門(Sector Risk Management Agencies, SRMAs)密切合作(例如:國土安全部-通訊部門、關鍵製造部門、資訊技術等),將其獨特專業知識用於量身定制計畫,以應對風險。

從Advantek 與Walk-Long寵物屋之爭了解美國聯邦巡迴上訴法院之設計專利禁反言判斷原則

  一般實務上較熟悉發明或新型專利在申請過程中,調修權利範圍與其後訴訟禁反言之關聯性,然而在設計專利申請過程中,圖式的調修或圖式組合的選取對往後訴訟在權利範圍主張所造成的影響,在實務上則相對不明確。而美國聯邦巡迴上訴法院(the United States Court of Appeals for the Federal Circuit, 簡稱CAFC)在2018年8月1日對「Advantek Mktg., Inc. v. Shanghai Walk-Long Tools Co., Ltd.」一案作出判決,依循了設計專利禁反言之判斷原則,這也是CAFC根據此判斷原則所作出的第二個判決。   Advantek Mktg., Inc.(後稱Advantek)擁有「寵物屋(Gazebo)」美國設計專利(D715,006,後稱系爭專利),其認為Walk-Long Tool Co., Ltd.(後稱Walk-Long)之「有蓋寵物屋」產品(後稱系爭產品)侵權,因此在2016年提出專利侵權訴訟。一審中,Walk-Long指出Advantek在專利審查過程中選擇放棄「附蓋寵物屋」之圖式,是故意放棄專利範圍(intentionally surrendered patent claim scope)以取得專利,而根據禁反言原則認為Advantek申請階段已放棄附蓋之設計態樣因此無法主張權利,地方法院認同Walk-Long。   Advantek提起上訴,CAFC根據其於2014年判決中所提出之設計專利禁反言判斷原則:(1)是否有放棄專利範圍;(2) 該放棄是否以專利性為由而提出;(3)被控侵權產品是否落入該放棄之範圍中,認為系爭產品並不符合第三點,即未落入所放棄之圖式範圍,亦即系爭專利之範圍為寵物屋骨架結構(skeletal structure),不論系爭產品是否有其他特徵(是否附有蓋)皆落入系爭專利之權利範圍;此外,根據2016年最高法院在「Samsung v. Apple」案中針對複數構件之產品認定專利侵權範圍時,是以部分構件而非完整產品進行檢視,亦即系爭產品僅須一部分與系爭專利一致便落入專利範圍,而非以產品整體視之,並據此兩觀點駁回地院判決。   本案重點在於,專利申請過程中審查委員發現一案多實施例的情況提出選取要求(restriction requirement),當申請人選取部分圖式為產品之核心設計形成較大的專利範圍(如本案選擇的寵物屋骨架結構),並不會造成禁反言,當禁反言在調修或選取時限縮專利範圍才會成立。此外,建議設計專利之申請範圍係以核心設計或主要設計特徵而非納入產品之整體設計,如此未來主張權利範圍將相對寬廣。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式

澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。

TOP