美國資訊安全分析新挑戰:巨量資料(Big Data)之應用

  在2013年的國際資訊安全會議(RSA Conference)上,資安專家紛紛表示,將Big Data技術應用於資訊安全分析的項目上,確實可以幫助企業建立更佳的情勢判斷能力,但在實際執行過程中是一大挑戰。

 

  資安廠商如RSA和賽門鐵克公司,在會議上表示目前的策略是透過新的數據匯集、比對和分析協助企業篩選、過濾結構化和未結構化資料的威脅指標,這是傳統的特徵偵測(signature-based)安全工具無法做到的。

 

  不像傳統的安全手段著重於阻斷攻擊,新的技術強調偵測並立即回應違犯行為,也就是提前遏止任何違犯行為,協助企業作全面性的偵測而不擔心有所遺漏。

 

  由於越來越多的美國政府機關和民間企業遭受到針對性和持續性的攻擊,巨量資料技術的應用需求激增。企業內部都累積著大量的數據和多元的數據種類,而需要動新技術來保護這些數據資料免於惡意人士或對手的竊取或其他侵害行為。企業應該要因應實際面臨的威脅和所獲悉的威脅情報來建立安全模型,取代部署特定產品和外圍系統的防禦。

 

  美國無論是政府機關或民間企業都被捲入了不對稱戰爭-對手是武器精良、準備充分並有嚴密組織的網路敵人。

 

  「駭客只需要攻擊成功一次,但我們必須每次都是成功的」賽門鐵克的總裁deSouza表示。「因此與其專注的在阻擋所有威脅,更好的辦法是使用巨量資料技術偵測侵入行為並消解之」。而在會議中資安專家都肯認至少從理論上來說,以巨量資料技術強化資訊安全是很好的想法。

 

  不過另有其他的說法,金融服務企業LSQ的首席安全及法務主管皮爾遜認為,許多人的電腦紀錄檔和所有的電子裝置都早就被侵入滲透了,這才是問題所在。他表示,目前現存的SIEM(安全性資訊及事件管理)工具可以讓企業聚集來自許多個安全設備的巨量登錄數據整合在同一系統內,但真正的問題是,SIEM工具必須要有能力分析數據並找出關聯性,如此才能偵測到駭客入侵的前兆證據和真實的入侵行為,這和彙整數據是不同的兩件事。許多企業所面臨的問題不是缺乏數據資料,而是要如何為資訊安全的目的建立關聯規則和應用方式,以有效率的方式找出有用的巨量數據並進行分析,和留下可供進行訴訟使用的證據。

相關連結
※ 美國資訊安全分析新挑戰:巨量資料(Big Data)之應用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6036&no=67&tp=1 (最後瀏覽日:2026/02/21)
引註此篇文章
你可能還會想看
美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?

美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用? 資訊工業策進會科技法律研究所 2025年06月04日 美國著作權局於2025年5月發布著作權與AI第三部分報告之預出版本 (Copyright and Artificial Intelligence Part 3: Generative AI Training pre-publication version)[1],該報告重點為生成式AI訓練資料與著作權之關係,彙整各方意見並分析現行法制之挑戰及修改方向,目前發布之版本為預出版本,該報告說明將於近期發布最終確認版,預期其結論與實質內容並不會有修改。 壹、事件摘要 美國著作權局自2023年起即開始對AI所引發之著作權法律及政策問題進行研究,同年8月著作權局發布著作權及AI諮詢通知(Comments on Artificial Intelligence Notice of Inquiry, NOI),徵集各界對AI著作權議題之意見,著作權局亦針對相關議題舉辦多場公聽會及研討會協助意見之蒐集[2]。NOI發布後蒐集到之意見經著作權局整理分析,於2024年7月起發布AI著作權報告,第一部分為數位仿造,第二部分於2025年1月發布為就AI作品之著作可保護性之分析,而同年5月所發布之第三部分則聚焦於生成式AI之訓練。 生成式AI於訓練過程可能大量使用受著作權保護之作品,此份報告針對訓練過程可能涉及之著作權問題進行分析,主要說明AI模型訓練過程中使用受著作權保護作品是否可構成合理使用。 貳、重點說明 一、生成式AI模型訓練及模型權重對重製權之侵害 使用受著作權保護作品進行AI模型訓練涉及著作權中之重製,除非開發者能提出授權或其他合理抗辯如合理使用等,否則可能對一項或多項著作權利構成初步侵權(Prima Facie Infringement)。AI開發者於模型訓練階段會進行多次作品複製,包含下載作品、於儲存媒介間轉換、將作品進行格式化或製作副本等[3],模型訓練過程中暫時複製之作品亦有可能因其存在於時間足夠而構成重製權之侵害[4]。 在特定情形下,模型權重(model weights)[5]之複製亦可能構成重製權之侵害。訓練過程可能使模型權重包含著作權作品,而若第三方複製了包含著作權作品之模型權重,即便其未參與模型之訓練,亦可能構成初步侵權[6]。若模型能在未經外部輸入之情形下產出與訓練範例相似之內容時,表示此範例必以某種形式存在於模型權重中,故此模型權重之複製極有可能侵犯著作重製權[7]。換言之,不僅開發者有可能因模型權重之複製侵害著作權人之權利,部署、使用等第三方若複製模型權重亦有可能構成對重製權之侵害。 著作權局指出,模型權重究竟是否會構成重製權或甚至衍生作品之侵權,須判斷該模型權重是否保留與作品受權利保護部分實質相似之內容,僅有在實質相似之情形下,模型權重之複製才可能構成侵權[8]。 二、合理使用 對著作權作品之合理使用可做為作品重製權的抗辯,著作權局於報告中就不同因素分析AI使用著作權作品進行訓練是否得主張合理使用。AI於訓練過程中會有多次複製行為,惟在判斷AI模型訓練是否為對作品之合理使用,仍須視整體使用情境進行判斷[9]。 (1) 作品轉化性須視模型目的及佈署判斷 報告中分析作品之轉化性(transformativeness)[10],AI訓練使用作品是否具有轉化性並非絕對,而是依據模型最終之功能及佈署有程度上之區別,須依個案判斷。若模型之訓練目的為用於研究或封閉系統,則該模型具高轉化性;若其目的是生成與訓練用作品實質相似之結果時,不具轉化性。多數模型之轉化程度會落在前述兩極端之中間,如模型使用特定類型之作品進行訓練,用以生成使用目的與原作相同之內容時,即便其生成內容未有實質相似,頂多僅為有限度之轉化(modestly transformative)[11]。AI開發商得於其系統設置防護措施,限制模型複製受著作權保護作品之節錄內容,使生成內容之目的與原作品不同,此措施能使模型訓練更具轉化性[12]。 有論者認為,使用受著作權保護作品進行AI模型訓練並非出於表達目的,且近似人類學習,因此實質上應是具有轉化性的,著作權局否定了前述兩種說法。報告中說明,語言模型於訓練時所吸收的內容包含文句、段落及文件之排列選擇,並非單純僅吸收其單字含意,且所生成之模型是被用作創造表達性內容,故不得謂AI模型為非表達性目的[13]。其次,針對人類學習觀點,報告首先闡明,學生基於學習目的亦不得以合理使用為由複製整本著作,因此人類學習並不得直接作為合理使用之抗辯。生成式AI之訓練能迅速分析並生成完美之作品,此非如同人類經學習後會產出具個別人格特質之結果,故著作權局不同意AI模型之訓練為與人類學習相同具有轉化性之論點[14]。 (2) 受著作權保護作品之表達性 AI訓練所使用之受著作權保護作品若具較高創作或表達性,如小說、電影等,其著作權比其他作品如電腦編碼等功能性作品更接近著作權之保護核心。而AI模型訓練來源多元,因此判斷上仍須視個案模型及作品而定。 (3) 使用作品之合理比例 AI模型訓練需大量複製受著作權保護作品,於判斷其複製比例是否合理時,係判斷模型訓練所複製之部分對於受著作權保護作品之數量及重要性使否合理[15]。作品使用之合理性,須考量重要性以及數量,若模型僅使用小部分作品做訓練,但該部分為著作權作品之核心部分,此使用並不一定合理。 在使用完整作品層面,生成式AI較一般搜尋引擎更不具合理性,生成式AI所提供之資訊並非僅限於其訓練資料庫中所複製作品資料。然而,許多生成式AI之訓練方式必須使用完整作品進行訓練,因此,著作權局指出,雖開發者使用完整作品進行訓練與合理使用相悖,但若其訓練具有轉化性目的(transformative purpose),並且有必要透過大量作品之訓練以提升模型效能時,則使用整部作品進行訓練可能被認為合理[16]。換言之,使用完整作品進行訓練合理與否須連同其使用必要性及訓練目的一併考量。 (4) 影響原作品之潛在市場或價值 報告中點出三項生成式AI訓練可能造成的市場危害。 A 銷售損失(lose sale):權利人因潛在消費者選擇AI複製創作取代原作,而失去收入。 B 市場稀釋 (market dilution):AI生成內容之速度以及規模對訓練資料中同類作品之市場造成稀釋風險,原作者將更難銷售其作品亦將使消費者更難找到真人創作之作品[17]。AI所生成風格相似之作品亦會導致市場稀釋,風格非為著作權所保障之方為,惟若AI生成與作品風格相似之內容,即便未有實質相似,但消費者可能因此難以分辨AI創作與真人作者,將使AI作品與原作者之作品於市場上直接競爭而影響原市場[18]。 C 喪失授權收入機會 (lost licensing opportunities):權利人本可就其作品於市場上有授權收入之機會,但因AI未經授權使用作品進行訓練而喪失該部分收入[19]。 三、 授權使用 對於AI自願授權之情形於近年越來越普遍,報告亦肯認自願授權之可行性,雖自願授權可行,且已有開發商開始實施,惟對於完全滿足AI產業之需求仍存有疑義[20]。該報告認為,即便現階段自願性授權仍為發展中之制度,但該制度確實能避免使用著作權作品之不確定性。著作權局認為應讓自願性授權制度於授權市場於無政府干預情形下繼續發展,若未來於特定類型作品中出現失靈情形時,再考慮進行擴大集體授權等干預措施[21]。 參、事件評析 AI訓練使用著作權保護作品是否可以合理使用作為抗辯為近年AI發展下著作權高度討論問題之一。目前美國各地法院中有40多件相關案件正在進行審理,然就此報告之結論觀之,其並未對AI訓練是否可作為合理使用給予統一解答,合理使用與否仍須視個案而定。如同報告結論所提及,AI訓練過程中,使用受著作權保護作品可能具有轉化性,但是否足以構成合理使用,仍須視其所使用之作品、來源以及目的等個案因素而定[22]。AI訓練於著作權仍存在一定程度之不確定性。 值得注意的是,雖報告並未明示AI訓練使否為合理使用著作權作品,惟其立場似乎更偏向有利於著作權利人。例如報告中於轉化性認定具有灰色地帶,開發商是否能主張合理使用仍需於後續由法院個案認定。此外,報告中提及市場稀釋理論,目前尚未有法院採用,對合理使用之認定較為嚴格,即使未有實質相似之生成內容亦有可能因影響市場競爭被視為非合理使用,可見該理論對著作權利人之權利保障。 同時著作權局亦正向看待產業界透過自願性授權進行作品訓練之方法,雖該制度於AI訓練上尚未為一完善制度,但確實地授權制度能同時促進產業發展並保護著作權[23]。目前實務上亦是以此種作法解決合理使用之困境,但授權制度仍有待市場持續發展完善制度以確保能符合AI訓練之需求。 美國著作權局之報告雖對AI使用著作權保護作品進行訓練進行分析及說明,惟其結論仍是認為判斷上需依照個案分析。目前國際上尚未有對AI合理使用之實際定論,自願性授權仍為產業界所使用之方法。我國著作權法亦未對AI訓練之合理使用有說明,國際上將會如何發展仍有待觀察。 資策會科法所創智中心致力於著作權相關科技法律研究,本中心將持續關注相關議題並更新動態。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 3: Generative AI Training pre-publication version, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf [2]U.S. Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last viewed: 2025/05/19) [3]supra note 1, at 26. [4]Id. at 27. [5]AI模型之建立仰賴神經網,主要功能為將輸入資料轉換為輸出資料。神經網路之運作方式係透過大量於訓練過程中產生之參數進行運案,而該些參數即為「權重」(weights)。 [6]Id. at 28. [7]Id. [8]Id. at 30. [9]Id. at 36-37. [10]轉化性係指新作品加入新元素,具有與原作不同目的或性質,且以新表達、意義或訊息改造原作。並且新作品於市場上較不會取代原作。 [11]Id. at 46. [12]Id. [13]Id. at 47. [14]Id. at 48. [15]Id. at 54. [16]Id. at 60. [17]Id. at 65. [18]Id. at 65-66. [19]Id. at 66-67. [20]Id. at 85. [21]Id. at 106. [22]Id. at 107. [23]Id. 本文同步刊登於TIPS網站(https://www.tips.org.tw)

日本內閣通過2015年「世界最先進IT國家創造宣言」修訂版

  日本內閣設置之「IT總合戰略總部」於2015年6月30日通過「世界最先進IT國家創造宣言(世界最先端IT国家創造宣言,下稱該宣言)」之修訂版,此次為2014後的第二次修正。該宣言於2013年6月14日首次公布,作為安倍政府第3支箭成長戰略之一環,為國家層級的IT政策目標,宣言中並揭示,欲促使日本五年內成為世界最高水準的IT技術國家。   本次之重要修正內容摘要如下: (一) 基本理念 1. 以日本之再生為基礎活用IT技術   以成長戰略為根據,將IT技術做為日本再生之動能;組織構成方面,則以政府作為資訊總監(Chief Information Officer, CIO)為中心,打破省廳之間之縱向關係,以「橫向串聯」的方式來推動IT政策。 2. 以全球為範圍建構日本的IT利用及解決範本   因應IT技術之進展、資料流通量之增大、IoT、AI時代之進展為背景,並在確保資訊安全為前提下活用IT技術,建構全球獨一無二「問題解決導向之IT利用範本」,實現人民有感之目標。 3. 活用IT技術以解決問題為導向建構四大支柱   以活用IT技術為特色,並以誘發各個領域之創新性為觀點,以四大支柱為中心,建立一個活用IT技術的社會,建構必要的政策措施。 (二) 四大支柱 1. 朝未來成長之社會:深化IT活用技術   整備IT技術之活用環境,未來擬立新法加促進及加速IT技術之活用;現行則持續的修正個人資料保護法,排除影響IT活用技術的法規障礙;並繼續推動向民間開放公共資料(open data)之工作。 2. 充滿活力之社會:充分利用IT技術之居民、工作及街道   整備資料共有之基礎設施,並分析及活用RESAS(地域経済分析システム,Regional Economy Society Analyzing System)、SNS等巨量資料。 3. 安心安全的活用IT技術,實現人民有感之社會   ■適當地提供區域醫療、健康照護等服務,實現健康長壽之社會,於全國展開醫療資訊之聯合網路、活用醫療、健康資訊等資料,以預防重症、增進健康,目標於2020年之前人均壽命成長一歲以上。   ■用IT技術促進日本農業,以及周邊產業之升級等,並推動AI農業、以IT化方式保護鳥獸等技術。   ■實現世界最安全且經濟之道路交通社會,預計於2020年代後期,開始於日本全面性的適用無人駕駛系統。 4. 活用IT技術,創建集合式之公共服務社會持續推動個人號碼制度,擴大及檢討其利用之範圍,實現一卡化社會。

美國聯邦航空總署公布《無人機遠端識別最終規則》

  美國聯邦航空總署(Federal Aviation Administraiton, FAA)於2020年12月28日公布「無人機遠端識別最終規則(Final Rule on Remote Identification of Unmanned Aircraft)」,針對250克以上無人機的遠端身分識別操作規則進行規範: (1)標準配備有遠端識別的無人機:   無人機需透過wifi或藍芽等技術廣播(broadcast)其遠端識別資訊,包含無人機ID,即無人機序號(serial number)或交談識別碼(session ID);無人機的速度、經緯度和海拔高度;控制站的經緯度和海拔高度;緊急狀況的狀態和時間戳記(time mark)。該規則要求無人機廣播範圍內大多數的個人無線裝置(wireless device)都可取得無人機的遠端識別訊息,但序號、交談識別碼以及註冊資料庫僅限FAA和被授權人員可於特定情況下取得。 (2)額外加裝遠端識別廣播模組的無人機:   廣播模組可能為與無人機連線的獨立裝置,或以加裝於無人機內部的形式存在,此類無人機必須於視距內操作,並透過wifi或藍芽等技術廣播其遠端識別資訊,包含模組的序號;無人機的速度、經緯度和海拔高度;起飛地點的經緯度、海拔高度和時間戳記。 (3)於FAA認可之識別區域(FAA-Recognized Identification Areas, FRIA)中飛行:   在FRIA區域中,無人機可不具備遠端識別飛行,但無人機操作需處於視距內與FRIA區域界線內。   該最終規則已送至美國聯邦公報辦公室(Office of the Federal Register),且會在公告後60天生效,預計於2021年1月公告。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP