美參議員盧比歐推動禁止與中國交易敏感科技之法案

  美國共和黨參議員盧比歐(Marco Rubio),亦為「美國國會及行政當局中國委員會」(Congressional-Executive Commission on China,簡稱CECC)之主席,於2018年5月宣布一項針對中國的立法——「美中公平貿易執行法」(Fair Trade with China Enforcement Act)。該法案以保護國家安全為目的,成為禁止美中兩國交易「敏感科技」之法源,同時,更提高課徵跨國公司來自中國的所得稅,藉以箝制中國竊取美國智慧財產。

  而為因應中國國務院所提「中國製造2025」戰略計畫,其重點發展科技——機器人、航太、潔淨能源車(robotics, aerospace and clean-energy cars),該法案亦對中資持有美國研發製造上揭科技之公司的持股權予以限制。除此之外,該法更將禁止美國政府及其包商購買中國華為(Huawei)、中興通訊(ZTE)兩間公司的任何電信通訊設備或服務;美國國會和美國總統川普均指稱兩間公司會透過產品暗中監看美國,而施壓美國私人企業亦勿販售兩公司產品。

  也許正如盧比歐參議員對外發表「美中公平貿易執行法」時所言,當今如何回應中國日益劇增對國家安全、竊取敏感科技之威脅,實為地緣政治(geopolitical)待解關鍵。

相關連結
相關附件
你可能會想參加
※ 美參議員盧比歐推動禁止與中國交易敏感科技之法案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8038&no=16&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
何謂日本拜杜法「事前承認制」?

  事前承認制為日本基於科研成果廣泛運用之目的,透過產業技術力強化法第19條的增修正式引入拜杜法制度後,針對政府資助研發成果移轉或授權予計畫外第三人的情形賦予委託機關與執行單位的義務。在日本拜杜法制度下,政府資助研發成果的相關專利權原則上得歸屬於執行單位,但考量到這些研發成果若移轉給未預備活用該些成果之人,將會造成由國家資金所衍生的科研成果難以被運用,從而無法達成促進成果運用的法目的,因此在該法第19條第4項增訂事前承認制。   依該制度,執行單位若欲讓與歸屬於執行單位之政府資助研發成果所涉及專利權給第三人,或將使用該些專利權的權利設定或移轉予第三人時,除了符合政令所定不妨礙專利權運用之情形外,委託機關須和執行單位約定為上開移轉等行為前,須先取得委託機關的同意。

輝瑞在中國獲得威而鋼專利戰爭的勝利 Pfizer Emerges Victorious in China Viagra Patent Battle

  在未來三年,中國藥品市場將以每年20-25%的成長率快速成長,並且預估可在2010年成為世界第五大藥品市場。在中國加入世界貿易組織(World Trade Organization, WTO)之後,其廣大的市場以及商機吸引了許多海外藥品製造商的興趣。然而,因為中國對智慧財產保護的社會環境非常複雜,使得本土製造的學名藥以及複製產品仍然主宰其藥品市場。   在歷經六年的法律戰爭後,輝瑞終於在中國成功地捍衛其關於陽痿治療藥物Viagra的專利權。根據報導,北京高等人民法院已駁回來自12家本土製藥廠所提出的專利異議案,並且同意授予輝瑞對於Viagra的專利保護至2014年為止。   輝瑞於1994年提出以Sildenafil (Viagra)治療陽痿的專利申請。歷經七年的審查,中國知識產權局於2001年核准該專利申請案。隨後,12家本土製藥廠提出了該專利的異議案,而中國知識產權局的專利檢定所於2004年判定此專利無效。輝瑞很快地對此決議提出異議,2006年,北京中級人民法院作出對輝瑞有利的判決。雖然前述之本土製藥廠商針對此判決向北京高等人民法院提出訴願,但北京高等人民法院於週四正式駁回訴願,並指示SIPO撤銷先前的專利無效判定。   這個判決結果應有助於Viagra站穩中國的陽痿治療藥物市場。然而,輝瑞在中國仍然面臨許多挑戰。今年初,該公司輸掉一個關於Viagra的商標侵權官司。而輝瑞目前正上訴中。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

資訊社會法制架構初探-以2003年聯合國資訊社會高峰會之決議為借鏡

TOP