美國國會於2018年8月13日通過之《出口管制改革法》(Export Control Reform Act of 2018, ECRA)第1758條,以國家安全為由,授權商務部建立對美國新興與基礎技術出口、再出口或移轉之認定與管制程序。有鑑於此,商務部下轄之工業安全局(Bureau of Industry and Security, BIS)於同年11月19日發布了法規制定預告(advance notice of proposed rulemaking),對外徵求關於認定「新興技術」之意見。
BIS指出,美國政府多年來依循《出口管制條例》(Export Administration Regulations, EAR)限制特定敏感技術或產品出口,以避免關鍵技術落入他國手中。惟既有之審查範圍已不足以涵蓋近年許多重大創新技術,故BIS先行臚列了14項擬在未來實施出口管制的新興科技,向公眾徵求其是否確屬「涉及國家安全之特定新興技術」相關意見。該14項科技包含:(1)生物技術;(2)人工智慧與機器學習技術;(3) 定位、導航和定時技術;(4)微處理器技術;(5)先進計算技術;(6)數據分析技術;(7)量子信息和傳感技術;(8)物流技術;(9)積層製造技術;(10)機器人;(11)腦機介面;(12)高超聲速;(13)先進材料;(14)先進監控技術。
除此之外,民眾亦得對如何認定「新興技術」提出一般性之意見,俾將來政策實施更加周全。意見徵求期間從2018年11月19日起,至2019年1月10日截止。
本文為「經濟部產業技術司科技專案成果」
歐盟「Enforcement-Ricgtlinie 2004/48/EG指令」於德國國內法,而採取所謂「條款立法Artikelgesetz」之綜合立法方式*,包括「專利法」、「商標法」、「實用新型專利法」、「半導體保護法」、「外觀設計專利法」、「品種保護法」、「非訟事件費用法」以及「著作權法」等相關條文之修正。 其中涉及「著作權法」相關重要修正條文包括「他人資訊提供請求權」,主要是賦予著作權人在主張權利侵害時,得向ISP業者要求提供可以辨明侵權者之身分資料(§101 UrhG),惟須符合特定條件,例如,侵權者須有營業行為(in geweblichem Ausmaß)。然而,就何謂「營業行為」在立法過程中爭議迭起,最後達成協議,決定認定「營業行為」之判斷標準包括:上傳、下載或公開傳輸檔案的數量、電影影片是否為全片供下載、錄音專輯是否整張專輯均提供下載等。簡言之,判斷標準將交由司法單位自被下載檔案的「量」與「質」加以衡量。 不同於歐盟Enforcement-Ricgtlinie指令,新修正之著作權法規定在侵害利益輕微案件中,權利人得向侵權人主張存證信函相關費用之上限為100歐元(§97a UrhG),此規定目的在預防權利人相關費用的主張權利遭致濫用。惟於立法過程中遭權利人及律師代表極力反對,認為如權利人堅持捍衛其權利,則超過100歐元之費用部分需由權利人自行吸收,顯不公平。 在著作權保障意識高漲的現代,有關著作權侵害判斷標準以及賠償方式爭議不斷,德國著作權法亦在相關壓力下持續修正著作權法相關條文,擴大對著作權人之保護。這一波修正條文於8月1日正式施行後成效如何,值得後續觀察。 * 主要是將原本散落在不同法律規範中之條文,以組成「條款」的方式將修正的條文。立法過程完成後,該法的 「架構」是由各個「條款」所組成,而每個條款是代表一個(遭到修正之)法律條文。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
行動通信事業提供視訊服務之法律議題研究