美國國會於2018年8月13日通過之《出口管制改革法》(Export Control Reform Act of 2018, ECRA)第1758條,以國家安全為由,授權商務部建立對美國新興與基礎技術出口、再出口或移轉之認定與管制程序。有鑑於此,商務部下轄之工業安全局(Bureau of Industry and Security, BIS)於同年11月19日發布了法規制定預告(advance notice of proposed rulemaking),對外徵求關於認定「新興技術」之意見。
BIS指出,美國政府多年來依循《出口管制條例》(Export Administration Regulations, EAR)限制特定敏感技術或產品出口,以避免關鍵技術落入他國手中。惟既有之審查範圍已不足以涵蓋近年許多重大創新技術,故BIS先行臚列了14項擬在未來實施出口管制的新興科技,向公眾徵求其是否確屬「涉及國家安全之特定新興技術」相關意見。該14項科技包含:(1)生物技術;(2)人工智慧與機器學習技術;(3) 定位、導航和定時技術;(4)微處理器技術;(5)先進計算技術;(6)數據分析技術;(7)量子信息和傳感技術;(8)物流技術;(9)積層製造技術;(10)機器人;(11)腦機介面;(12)高超聲速;(13)先進材料;(14)先進監控技術。
除此之外,民眾亦得對如何認定「新興技術」提出一般性之意見,俾將來政策實施更加周全。意見徵求期間從2018年11月19日起,至2019年1月10日截止。
本文為「經濟部產業技術司科技專案成果」
歐洲議會於2024年3月12日全體會議投票通過《資安韌性法》(Cyber Resilience Act)草案,後續待歐盟理事會正式同意後,於官方公報發布之日起20天後生效。該草案旨於確保具有數位元件之產品(products with digital elements, PDEs)(下簡稱為「數位產品」)具備對抗資安威脅的韌性,並提高產品安全性之透明度。草案重點摘要如下: 一、數位產品進入歐盟市場之條件 課予數位產品之製造商及其授權代理商、進口商與經銷商法遵義務,規定產品設計、開發與生產須符合資安要求(cybersecurity requirements),且製造商須遵循漏洞處理要求,產品始得進入歐盟市場。 二、數位產品合規評估程序(conformity assessment procedures) 為證明數位產品已符合資安及漏洞處理要求,依數位產品類別,製造商須對產品執行(或委託他人執行)合規評估程序:重要(無論I類或II類)數位產品及關鍵數位產品應透過第三方進行驗證,一般數位產品得由製造商自行評估。通過合規評估程序後,製造商須提供「歐盟符合性聲明」(EU declaration of conformity),並附標CE標誌以示產品合規。 三、製造商數位產品漏洞處理義務 製造商應識別與記錄數位產品的漏洞,並提供「安全更新」(security updates)等方式修補漏洞。安全更新後,應公開已修復漏洞之資訊,惟當製造商認為發布相關資訊之資安風險大於安全利益時,則可推遲揭露。 四、新增開源軟體管理者(open-source software steward)之義務 開源軟體管理者應透過可驗證的方式制定書面資安政策,並依市場監管機關要求與其合作。當開源軟體管理者發現其所參與開發的數位產品有漏洞,或遭受嚴重事故時,應及時透過單一通報平臺(single reporting platform)進行通報,並通知受影響之使用者。
基因資訊醫療運用與業務過失 美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。