美政府將加強對抗盜版與仿冒

  美國歐巴馬政府在6月22日公布一份範圍廣泛的智慧財產執法聯合策略計畫(Joint Strategic Plan on Intellectual Property Enforcement),目的是希望協同聯邦各部門增強有關智慧財產權的執法力度,以打擊美國境內與境外盜版與仿冒日益嚴重的問題。

 

  智慧財產執法協調員(Intellectual Property Enforcement Coordinator, IPEC)Victoria Espinel在報告前言指出,打擊仿冒和盜版需要聯邦強而有力的反應;作為全球創新領導者的美國已因為有些國家未能依照法律規定或國際條約來執法或採取不利美國之產業政策而被傷害。此計畫提出33個執法策略行動項目(enforcement strategy action items)來加強智慧財產執法,包括增加執法政策透明度以及美國境內、外執法行動的分享與報導、確保政府各層級間的執法效能與協調、加強美國智慧財產權的國際執法、確保安全的供應鏈以杜絕侵權產品輸入美國等。

 

  舉例而言,該計畫非常關注外國網站線上侵權(online piracy)的問題,認為網際網路不應成為犯罪行為的工具,強調美國政府必須和外國政府、國際組織以及私部門共同合作對抗,並鼓勵內容擁有者(content owners)、ISP業者、廣告經紀商(advertising brokers)、付款處理業者(payment processors)和搜尋引擎業者在尊重合法競爭、言論自由與個人穩私之下,彼此合作謀求實際解決方案。根據報導,盜版已造成美國的影視業年度損失205億美元產值、工作者年度短少55億美元的收入、也減少了原本可帶來多於14萬個的工作職缺,結果使美國年度稅收短少了8.37億美元。

相關連結
※ 美政府將加強對抗盜版與仿冒, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3360&no=64&tp=1 (最後瀏覽日:2026/05/01)
引註此篇文章
你可能還會想看
美國眾議院外交事務委員達成協議,修訂《國家關鍵能力防禦法案》建立對外投資審查制度

  美國眾議院外交事務委員會於2022年6月13日在兩黨創新法案(HR4521)會議上,就對外投資機制新提案發表聯合聲明。兩黨達成協議修訂《國家關鍵能力防禦法案》(National Critical Capabilities Defense Act of 2022, NCCDA),擴大對外投資審查制度。促使美國制定NCCDA對外投資審查立法乃係源於經濟和國家安全考量,美國關注特定技術向中國轉讓以及美國企業可能透過特定投資幫助提升中國能力之風險。因此,雖然NCCDA會給國際投資帶來不確定性,但美國兩黨及兩院內部仍支持實施特定形式的對外投資審查程序,並且與利益相關者就如何制定強而有力且具針對性的對外投資機制進行建設性的討論,目的是確保美國不會將關鍵產業製造能力拱手讓給外國競爭對手。   NCCDA授權成立國家關鍵能力委員會(Committee on National Critical Capabilities),由美國貿易代表署擔任主席並與供應鏈安全相關聯邦機構成員共同組成,審查特定對外業務交易和活動包括:界定需要境外投資審查的活動範圍、明訂出境審查流程、及關鍵產業項目等。依據NCCDA第11條「國家關鍵能力(National Critical Capabilities)」定義,指對美國至關重要的有形及無形的系統和資產,若此類系統和資產無法開發、失能或遭到破壞,將對國家安全造成破壞性影響。委員會應負責界定涉及「國家關鍵能力」產品、供應鏈和服務;列舉國家關鍵能力產業領域包括:能源、醫療、通訊、國防、運輸、航空航太、機器人、人工智慧、半導體、造船、水等。若美國人和外國實體從事「涵蓋活動」者,必須在展開活動前至少60天以書面形式通知委員會。委員會將會通知審查,若確定所涵蓋的活動對國家關鍵能力構成不可接受的風險,委員會可以實施緩解措施,或建議總統採取特定行動,包括暫停和禁止該活動。美國兩黨期待各方利益相關者能以書面形式參與討論,確保NCCDA法案通過並滿足各方需求,使美國與盟友國的對外投資機制保持一致。

日本經產省提出創新政策落實方向

由於日本近年研發品質、數量停滯不前,加上企業研發效率亦落後於外國,經濟產業省(簡稱經產省)於2024年6月21日從三個面向提出政策建議,期能打造成功創新模式。重點如下: 1.發揮新創企業與大企業優勢,促進研發投資 由於研發投資具有回收期間長、獲利不確定等特徵,短時內難以看到成效,故為鼓勵企業持續投入研發,經產省擬制定研發投資效率評價指標,並將透過「新創培育五年計畫」(「スタートアップ育成5カ年計画)下之「新創推動框架」(スタートアップ推進枠),將科研預算優先分配予重點項目,以建立友善研發環境。 2.透過新創資源流動,促進商業化和創造附加價值 新創企業初期往往受限於人力、技術和設備等資源不足問題,難以快速成長及擴張。為解決上述問題,經產省擬制定「跨領域學習」指引及案例集,期能促進新創資源流動,打造創新生態系統。 3.以需求為導向之前瞻技術研發 部份具有高度發展潛力之前瞻技術,如量子和核融合等,因研發風險較高且市場需求不明,將由新能源‧產業技術綜合開發機構(新エネルギー・産業技術総合開発機構)、產業技術綜合研究所(產業技術綜合研究所)等法人進行研發。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP