美國參議院通過CISA網路安全資訊共享法案

  美國參議院於2015年10月27號通過網路安全資訊共享法(Cybersecurity Information Sharing Act; CISA)。本案以74票對21票通過,今年稍早眾議院通過類似法案,預計接下來幾周送眾議院表決。歐巴馬政府及兩院議員已就資訊共享法案研議多年,目前可望兩院就立法版本達成一致而立法成功。

  主導本案的參議院情報委員會(Intelligence Committee)主席Richard Burr於法案通過後發表聲明表示,「這個作為里程碑的法案最終會更周全地保護美國人的個資不受外國駭客侵害。美國商業與政府機構遭受以日計的網路攻擊。我們不能坐以待斃」。副主席Sen. Feinstein於肯定法案對網路安全的助益之外,認為「我們在杜絕隱私憂慮的方面上盡了所有努力」。

  CISA授權私人機構於遭受網路攻擊,或攻擊之徵兆(threat indicators)時,基於網路安全的目的,立即將網路威脅的資訊分享給聯邦政府,並且取得洩漏客戶個資的責任豁免權。基於同樣的目的,私人機構也被授權得以監視其網路系統,甚至是其客戶或第三人的網路。但僅以防禦性措施為限,並且不得採取可能嚴重危害他人網路之行動。相對於此,聯邦政府所取得該等私人機構自發性提供的網路威脅資訊,係以具體且透明的條款規制。此外,國土安全部(Department of Homeland Security)於符合隱私義務方針的方式下,管理電子網路資訊得以共享給其他合適的聯邦機構。檢察總長及國土安全部門秘書並建立聯邦政府接收、共享、保留及使用該等網路資訊的要件,以保護隱私。

  相對於此,許多科技公司對此持反對態度,例如蘋果與微軟。隱私支持者更是於法案通過前後呼籲抵制,稱其為監視法。主要的論點圍繞在企業洩漏個資訊的寬鬆免責條款,這將會促使隱私憂慮。另一方面,法案反對者也不信任聯邦政府機構將會落實隱私保護,FBI、國家安全局(National Security Agency, NSA)及國家安全部則樂於輕易地取得、共享敏感的個資而不刪除之。

  這些憂慮或許可以由法案投票前,網路法及網路安全學者共同發出的公開信窺知。「整體來說,(CISA)對有缺陷的網路安全中非常根本但真切的問題一無所助,毋寧僅是為濫權製造成熟的條件」。信中提到,該法案使聯邦機構得近用迄今為止公眾的所有資訊,並且對公司授權的範圍無明確界線,使公司對判斷錯誤的可能性毫無畏懼。這對於網路安全沒有幫助,方向應該是引導各機構提高自身的資訊安全及良好管理。

相關連結
※ 美國參議院通過CISA網路安全資訊共享法案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7075&no=64&tp=1 (最後瀏覽日:2026/02/03)
引註此篇文章
你可能還會想看
韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險

韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險 資訊工業策進會科技法律研究所 2024年05月15日 創作內容的流通利用是發揮文化經濟力的核心關鍵,但大數據和機器學習技術的快速發展,人工智慧(以下簡稱AI)已成功應用於許多內容生成,大幅推進圖像、影音、文本的識別、處理、分析、甚至生成等創作成本,但從實現生成式AI而建立基礎模型開始,到AI產出物的生成,均存在可能侵權或被侵權的風險。如何衡平考慮著作權人和使用者立場,促進人工智慧技術發展和相關產業發展,同時努力營造尊重人類創作活動的著作權生態系統,已成為各國必須思考因應重要課題。 壹、事件摘要 韓國文化體育觀光部的著作權委員會於2024-01-16發布「生成式人工智慧著作權指引(생성형 AI저작권안내서)」[1],這份指引的目的是希望對涉及生成式人工智慧(Generative AI)產出過程中的各方(AI業者、著作權人、AI使用者)提供有關著作權的注意事項。因為韓國文化與著作權主管機關認為,雖然隨著人工智慧技術的迅速發展,在各個領域的應用為經濟和社會利益產生許多助益,但也出現了一個無法預測的環境,影響到著作權產業和創作活動的各個方面;有人將生成式AI用作創作工具,同時也有人擔心生成式AI可能帶來的經濟損失和就業威脅等問題。因此,韓國著作權委員會成立了由學界、法界和技術界專家以及利害關係人組成的「AI-著作權制度改善工作小組」,於2023年2月成立,以審查生成式AI引發的著作權問題並尋找應對方法,並根據該工作小組的討論而編寫提出該指引[2]。 貳、重點說明 該指引從實現生成式AI而建立基礎模型開始,到AI產出物的生成,聚焦於可能引發法律爭議的數據學習和AI產出物生成部分,從現行著作權法的角度說明AI業者、著作權人和AI使用者需要了解的內容。同時為幫助理解,亦納入介紹目前提供的生成式AI案例以及相關的國內外立法趨勢。但該指引特別說明其發布並非為提供其國會正在討論的著作權法修訂方向,而是為了在未來通過進一步的討論、研究和意見徵求過程等,制定出合理的解決方案,並透過制定衡平考慮著作權人和使用者立場的著作權法律制度,促進人工智慧技術發展和相關產業發展,同時努力營造尊重人類創作活動的著作權生態系統[3]。 該指引架構主要分為五大主題[4],同時提供問答集與附錄參考資料。五大主題分別為: 一、生成式AI技術與著作權(생성형 AI 기술과 저작권)[5]:從著作權角度看生成式AI技術,說明生成式AI技術的意義和應用案例。 二、對AI經營者的指導(AI 사업자에 대한 안내사항)[6]:包括生成式AI的學習階段的風險、AI產出物的生成階段的風險、建議採取防範措施以區別AI產出物與人類創作物。例如人工智慧業務經營者在提供相關服務時,確保不會產生與現有作品相同或相似的人工智慧輸出;該指引並建議參酌韓國2023 年 5 月提出的《內容產業振興法》修正提案(法案編號2122180)[7]規定,於人工智慧產出內容中應標示係採用人工智慧技術製作[8]。 三、對著作權所有人的指導(저작권자에 대한 안내사항)[9]:在AI學習階段應考慮的事項、防止AI產出物侵犯著作權的建議。該指引特別建議如果著作權人不希望其作品用於人工智慧學習,可以透過適當方式表達反對,以防止作品被用於人工智慧學習;即使著作權人後來得知自己的作品被用於人工智慧學習,亦可適當地採取技術手段來防止,以避免放任使用產生默許的問題。包括使用例如“Glaze”、“Photo Guard”等此類新的防止技術。 四、對AI使用者的指導(AI 이용자에 대한 안내사항)[10]:提醒注意生成式AI使用可能涉及的著作權侵犯情況,並說明在研究、教育、創作等領域的倫理和政策考慮。例如,提醒使用者將現有作品原樣輸入提示視窗或輸入誘導創作相同或相似作品的文字,從而創建與現有作品相同或相似的人工智慧輸出,然後將其發佈到平台上的方法,將存有侵權風險。即使是用人工智慧學習歌手聲音而重新創作或產生現有歌手的歌曲,也會涉及重製或輸入侵權資料的疑慮。同時,對學術研究或投稿,該指引特別建議在論文等中引用生成人工智慧撰寫的文章之前檢查其來源,並標註特定段落是以什麼人工智慧工具與指令所生成。 五、AI產出的著作權登記(AI 산출물과 저작권 등록)[11]:與AI產出物相關的著作權爭議、AI產出物是否可以登記著作權、有關AI產出物著作權登記的國內外案例、登記時應注意的事項等。該指引強調對於不能被視為在任何表達行為中做出人類創造性貢獻的人工智慧輸出,不可能進行著作權註冊。但在人類以創意方式進行修改、增加等“額外附加工作”(추가 작업)的情況下,該額外工作的部分才會被認定為具有著作權屬性,可以進行著作權登記。但是,著作權註冊的效果僅限於附加的部分(추가 작업한 부분)[12]。 另該指引在問答集中主要釋疑相關疑義,例如:為什麼AI的學習會涉及著作權問題?如果無法確定AI學習所使用的作品的權利人,AI業者如何獲得合法使用權?個別提示用於製作AI產出物也受著作權保護嗎?AI產出物是否無法受到著作權法保護?等等韓國文化與著作權主管機關認為常見或已出現爭議的案例,並依其現行法令或見解趨勢,提供主管機關的看法或解答。 此外,為協助其讀者更深入了解人工智慧的原理、爭議與國際發展趨勢,該指引並精要的整理出下述主題,包括:使用人工神經網絡進行學習的過程、生成式AI相關訴訟和著作權爭議、國內外AI相關應對情況、國內廣播公司和新聞機構有關AI學習資料取得的政策條款等補充明,做為該手冊的附錄資料。特別是其所整理之政策條款,顯示韓國新聞媒體已著手因應被用於AI訓練、學習與內容產生的風險。 參、事件評析 綜觀韓國文化體育觀光部的著作權委員會發布「生成式人工智慧著作權指引」可以看出,韓國認為生成式人工智慧在文創領域的議題,目前較為迫切需要處理的是創作人的著作權於AI訓練時被侵權,與創作時運用AI的侵害他人權利的風險,以及AI生成內容的識別與可保護範圍的界定,但促進人工智慧技術發展和相關產業發展,均為韓國關切議題;AI在未來如何衡平考慮著作權人和使用者立場尚待研析建立共識並透過國會立法修正著作權法律制度。 因此,該手冊除提供AI的技術背景說明外,並強調該指引並非修法政策的官方說明,同時以如何降低風險與維護權益的角度,提醒生成式人工智慧(Generative AI)產出過程中的AI經營者、著作權人、AI使用者,提供有關著作權的注意事項與例如防制技術運用、標註AI生成等預防措施。同時為再進一步幫助理解,除風險說明外並以問答方式強化重點提示,並舉相關媒體的AI訓練資料提供政策實例供參考,內容本身精要但附錄細節說明詳盡,但對於未必了解著作權法令的文創領域從業人員而言,內容簡明且建議措施直接具體,值得我國主管機關訂定相關指引之參考。 [1]「生成型人工智慧著作權指引(생성형 AI저작권안내서)」,檔案下載https://www.copyright.or.kr/information-materials/publication/research-report/view.do?brdctsno=52591#(最後瀏覽日:2024/05/25)。 [2]詳前註指引之前言,頁6~7。 [3]同前註。 [4]其中尚有第六主題說明未來的法令整備規劃,此部分較屬政策措施方向,較非指引重點,故本文此處未予列入說明重點。 [5]同前註指引,頁7。 [6]同前註指引,頁15。 [7]去年5月,國會文化體育觀光委員會委員長李相憲提出了《內容產業振興法》的部分修正案,其中包括對人工智慧製作的內容強制貼上人工智慧標籤。該修正案目前正在國民議會審議中。https://www.4th.kr/news/articleView.html?idxno=2056520,(最後瀏覽日:2024/05/25)。 [8]同前註1指引,頁21。 [9]同前註1指引,頁23。 [10] 同前註1指引,頁29。 [11]同前註1指引,頁39。 [12]同前註1指引,頁41。

歐洲生技產業協會促請降低中小型生技產業之專利申請費用

  在專利領域,歐盟層級目前尚未有任何整合全體會員國內國專利法之有效法規, 1973 年訂定之歐洲專利公約( European Patent Convention, EPC )並非歐盟層級的法律,且 EPC 僅就歐洲專利的申請、審核及取得予以規定,至於專利權之保護,專利權人仍必須在受侵害國家自行尋求救濟,故自 1972 年起,歐盟即一直試圖整合共同體之專利規定,持續催生「共同專利規則」(草案)( Proposal for a Council Regulation on the Community Patent ),目的是希望在歐洲層級,除了可以有統一受理及發給共同體專利之機制外,關於涉及共同體專利實體法上之解釋,亦能予以統一審理、解釋。   目前歐盟各國紛歧的專利制度,使產業維護與保護其專利權益之成本極高,且受到嚴重影響的往往是那些中小型的新創與研發行公司,若再加上其他必要費用及語言隔閡(當前翻譯費用占歐洲專利的所有申請成本的比率可能高達 20 %)等因素一起比較,即可發現歐洲中小型企業處於競爭劣勢;相較於此,美國對雇用員工少於 300 人的企業的專利申請費用,提供高達 80 %的補助。   由於生技產業多為中小型規模的企業,為確保這些企業的競爭力,歐洲生技產業協會( EuropaBio )建議歐盟參考去( 2005 )年 12 月 15 日 通過的「歐盟醫藥品管理局協助中小型公司發展之規則」( Commission Regulation (EC) No 2049/2005 )減免中小型生技製藥公司新藥上市申請規費的方式,對中小型企業之專利申請費用,亦給予折扣。   這項建議獲得歐盟執委會的支持,執委會並打算在 10 月重新提出的共同體專利規則( Regulation on Community Patent - London Protocol )中納入考量根據 London Protocol ,未來歐洲專利得僅以三種語言(英文、德文及法文)提出,該 Protocol 必須至少有八個國家簽署,包括法國、德國及英國,始能生效 截至目前為止,已經有十個國家(包括德國及英國)的國會同意接受該協議,其中七國並已經相關文件交存,因此一般認為 London Protocol 通過的機率極大。

談電磁紀錄證據定義與方法-比較加拿大電子證據統一法與我國刑事訴訟法相關規定

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP