美國商務部工業及安全局(Bureau of Industry and Security, BIS)於2020年5月15日公告,為防止中國大陸華為取得關鍵技術,修正美國《出口管制規則》(Export Administration Regulations, EAR)第736.2(b)(3)條第(vi)款「外國直接產品規則」(Foreign-Produced Direct Product Rule),限制華為透過國外廠商,取得包含美國技術及軟體設計製造在內的半導體產品,以保護美國國家安全。並於「實體清單」(Entity List)增加註腳一(footnote 1 of Supplement No. 4 to part 744)之規定,使部分出口管制分類編號(Export Control Classification Number, ECCN)第3(電子產品設計與生產)、4(電腦相關產品)、5(電信及資訊安全)類之技術所製造的產品,不能出口給華為與分支企業。 自2019年起,BIS將華為及其114個海外關係企業列入實體清單以來,任何要出口美國產品給華為的企業,必須事先取得美國出口許可證;然而,華為及其海外分支機構透過美國委託海外代工廠商生產產品事業,繞道使用美國軟體和技術所設計的半導體產品,已破壞美國國家安全機制與設置出口管制實體清單所欲達成之外交政策目的。本次為修補規則漏洞調整「外國直接產品規則」,不僅限制華為及其實體清單所列關係企業(例如海思半導體),使用美國商業管制清單(Commerce control list, CCL)內的軟體與技術,設計生產產品。美國以外廠商(例如我國台積電)為華為及實體清單所列關係企業生產代工,使用CCL清單內的軟體與技術,設計生產的半導體製造設備與產品,亦將同受《出口管制規則》之拘束。這代表此類外國生產產品,從美國以外地區,透過出口、再出口或轉讓給華為及實體清單上的關係企業時,皆需取得美國政府出口許可證,影響範圍擴及全球產業供應鏈。
加拿大政府提交予國會《人工智慧資料法案》加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。 AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露 i 系統如何或打算如何使用。 ii 系統所生成果的類型及它所做出的決策、建議與預測。 iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。 iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。
日本首相頒布「2017智慧財產推動計畫」,揭示國家推動三大基礎政策面向日本首相安倍晉三於2017年5月16日在官邸舉行智慧財產戰略本部(知的財産戦略本部)會議,並正式頒布「2017智慧財產推動計畫(知的財産推進計画2017)」。為因應大數據(ビッグデータ)、人工智慧(人工知能)等相關先進科技議題,透過調整產官學資源,培育地方中小企業智慧財產基礎認知,保護高附加價值農產品品種,振興觀光及影視等文化產業,提昇國家綜合競爭力,構築第4次產業革命(society5.0)之基礎。該會議中,所發表「2017智慧財產推動計畫」之三大基礎政策面向分別為: 一、建構第4次產業革命之智慧財產系統 (一) 充分利用、活用資訊及人工智慧以強化產業競爭力: 制訂資訊利用契約指引(ガイドライン)。 修正不正競爭防止法(資料不當取得禁止等)。 著作權法之修正(對於權利柔軟性限制之規定)。 AI學習模型(AI学習済モデル)專利。 (二)智慧財產系統基礎之準備: 強化證據蒐集程序。 創設ADR制度(Alternative Dispute Resolution、日文:標準必須特許裁定)。 (三)推動引領全球之智慧財產制度及相關標準化: 推動全面化的智慧財產管理制度(賦予智慧財產權之資料及標準等)。 活用國立研究開發法人之標準及其人才之培育。 二、活用智慧財產之潛力,推動區域活絡與發展 (一)積極活用強化農林漁業、食品業等智慧財產: 充實地理標示(GI)或植物品種,於國內外之保護及輔導體系。 制訂國家農林漁業優勢的標準(JAS)。 推動活用資訊之智慧農業。 (二)活用地方中小企業智慧財產,並推廣產學及產業間之互助: 啟發中小企業智慧財產意識,支援智慧財產海外之推廣。 產學攜手之橋接,並支援事業化。 (三)每一位國民都是智慧財產人才,推動智財教育: 充實智慧財產教育之新指導要領。 智慧財產教育振興聯盟課程與教材之開發。 建立地方性聯盟。 三、2020年大放異彩之日本 (一)海外推廣和產業基地之加強: 「酷JAPON官民共同營造平台」、「地方版酷JAP」之基礎建設及相互合作。 人才之育成、教育機構的合作。 (二)振興電影產業: 強化中小企業公司製作之支援及資金調動多樣化,及其海外之發展。 成s立公私部門改善攝影環境之聯絡會議。 (三)構築資料庫:設立跨部門之窗口,在產官學共同協助下活用研究成果、及商業化。 這個推動計畫乃是與「總合科學技術革新會議(総合科学技術・イノベーション会議)」及「IT總合戰略總部(IT総合戦略本部)」等共同合作,並結合「資訊利用促進基本計畫(官民データ活用推進基本計画)」(以「科學技術基本計畫」、「科技創新綜合戰略(科学技術イノベーション総合戦略)」、「資訊利用促進基本法(2016第103號法律)」等為基礎所發展的新計畫),在智慧財產戰略總部的主導下進行推動,積極穩健的落實智慧財產價值之保護、智財潛力活用及地方革新推動、日本文化之集結及向世界傳達日本的新文化價值等三大目標,以達到國家的發展戰略中,智慧財產戰略政策之最大使命。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。