美國如何管制新興技術出口

  美國國會於2018年8月13日通過之《出口管制改革法》(Export Control Reform Act of 2018, ECRA)第1758條,以國家安全為由,授權商務部建立對美國新興與基礎技術出口、再出口或移轉之認定與管制程序。有鑑於此,商務部下轄之工業安全局(Bureau of Industry and Security, BIS)於同年11月19日發布了法規制定預告(advance notice of proposed rulemaking),對外徵求關於認定「新興技術」之意見。

  BIS指出,美國政府多年來依循《出口管制條例》(Export Administration Regulations, EAR)限制特定敏感技術或產品出口,以避免關鍵技術落入他國手中。惟既有之審查範圍已不足以涵蓋近年許多重大創新技術,故BIS先行臚列了14項擬在未來實施出口管制的新興科技,向公眾徵求其是否確屬「涉及國家安全之特定新興技術」相關意見。該14項科技包含:(1)生物技術;(2)人工智慧與機器學習技術;(3) 定位、導航和定時技術;(4)微處理器技術;(5)先進計算技術;(6)數據分析技術;(7)量子信息和傳感技術;(8)物流技術;(9)積層製造技術;(10)機器人;(11)腦機介面;(12)高超聲速;(13)先進材料;(14)先進監控技術。

  除此之外,民眾亦得對如何認定「新興技術」提出一般性之意見,俾將來政策實施更加周全。意見徵求期間從2018年11月19日起,至2019年1月10日截止。

本文為「經濟部產業技術司科技專案成果」

※ 美國如何管制新興技術出口, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8218&no=65&tp=5 (最後瀏覽日:2025/07/27)
引註此篇文章
你可能還會想看
美國FCC將檢視是否有必要加強隱私規定

  美國FCC於二月份表示其將檢視採取額外的安全措施,是否能夠有效防止電信公司所持有之個人敏感性資訊外洩之問題,並就與此所涉之問題與建議採取之法律措施諮詢公眾之意見。此次諮詢的議題包括目前電信公司所採取的安全措施為何、此等措施存有何種缺失、以及採取何種措施將能夠更有效地保護消費者的隱私,並就以下五種特定的安全措施,諮詢公眾之意見,包括: (1) 由消費者設定密碼。 (2) 建立一套查驗機制,此一機制必須能夠記錄消費者個人資料之接近使用情況,包括時間、接近使用的資料內容、接近使用人…等之資訊。 (3) 電信公司必須就客戶專有之網路資訊 (customer proprietary network information,CPNI)進行加密。 (4) 限制資料之保存,要求電信公司必須刪除所有不必要的資料。 (5) 當個人資料遭他非法接近使用時,電信公司應通知消費者。   除此之外,FCC亦就其是否應修改現行法規,要求電信公司應就其實施消費者保護措施之狀況,提交年度稽核報告以及全年之客訴資料進行公眾意見諮詢,並且就電信公司是否應於提供CPNI前,致電予消費者,以確保CPNI資料之索取係由消費者本人親為一事諮詢公眾之意見。

猴子自拍照著作權爭議;美國法院:動物無法擁有著作權

  2015年1月6日,美國聯邦地區法官裁定,猴子用照相機自拍,猴子無法取得自拍照的著作權。   英國攝影師Slater在四年前,讓黑冠猴Naruto使用其相機,成功的拍出了罕見的黑冠猴自拍照;而攝影師Slater後來把這些自拍照收錄在出版書中,並同時在網路上公開,並獲得廣大迴響。但之後維基百科(Wikipedia)收進免費圖片資源中,供大眾免費下載使用,Slater認為則認為這些照片的著作權已經被英國官方認可屬於Slater所開設的公司,此認可應適用於全世界。惟美國著作權局在2014年最新政策中,認為著作權登記僅適用「人類作品」,據此Naruto之自拍照並不受著作權保障。   而善待動物組織PETA(People for the Ethical Treatment of Animals)組織也加入了著作權爭奪戰局,其認為由Naruto所拍攝自拍照,其著作權應屬於Naruto,但由於Naruto不懂如何行使權利,故由PETA代為管理著作權,相關收益均會用於保護黑冠猴,並且向舊金山聯邦法院提出告訴。美國聯邦法院則在2016年1月6日判決,目前著作權法仍未將保護範圍擴張至動物作品上,故Naruto並未擁有該自拍照著作權,自無PETA代掌著作權可能;PETA接獲判決後表示會提出上訴。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

眾議員提出新法以因應數位科技轉換產生的權利保護問題

為避免數位科技轉換所可能發生的權利保護缺口,美國眾議院司法委員會主席 James Sensenbrenner Jr. 與議員 John Conyers 於本月 16 日共同提出了「 Digital Transition Content Security Act 」( DTCSA , H.R.4569 ),要求業者應在次世代的數位影像製品中加入反盜版技術。該草案的提出,無疑地為飽受盜版所苦的好萊塢注入一劑強心針。   原本可受到著作權法保護的數位內容,一旦由數位轉換為類比( analog )形式,再由類比轉換回數位後,其品質上雖稍受影響,但此一新的數位內容即不再受著作權法的保障,眾議員 John Conyers 將之稱為「類比漏洞」( analog hole ), DTCSA 的提出即在於因應此一棘手問題。未來草案若能順利通過,除非業者能提出有效阻斷違法複製的策略,否則在一年緩衝期過後,業者凡有製造或販售可將類比影像訊號轉換為數位訊號之設備,均將被宣布為違法。可能因此受到影響者,包括了電腦調頻器( PC-based tuner )與數位錄影機( digital video recorder )等。   全美電影協會( MPAA )對此新法大表歡迎,主席 Dan Glickman 認為 DTCSA 的提出,不僅保護了權利人,同時也將提供消費者更多的選擇。但另一方面,在 DTCSA 賦予商業部( Commerce Department )更大的權力以監視家電製造業者之下,草案無可避免地將遭致來自業者一方強大的反彈力量。

TOP