德國聯邦政府(Bundesregierung)於2020年12月16日通過「提升資訊科技系統安全性的第二版法律(Zweiten Gesetzes zur Erhöhung der Sicherheit informationstechnischer Systeme)」草案,又稱「資訊科技安全法2.0(IT-Sicherheitsgesetz 2.0)」,該草案概述如下:
(1)加強德國聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI)權限:
BSI可對聯邦行政事務行使控制與審查權、檢測資訊系統和公共電信網路相連的安全弱點、發展分析惡意軟體和攻擊的系統與程序,並擴張其對聯邦通訊技術紀錄資料的儲存期間至12個月。
(2)加強消費者保護:
導入IT安全標籤(IT-Sicherheitskennzeichen),製造商應於該標籤中置入產品安全性聲明與由BSI提供之IT安全性資訊;此外BSI有權要求電信服務業者和產品製造商提供其儲存資料與相關必要資訊。
(3)加強企業作為義務:
關鍵基礎設施提供者有報告及使用攻擊檢測系統檢測安全威脅的義務,該報告義務在草案中將擴張適用於具特定公共利益之公司,如與國防和保密資訊IT產業相關、具經濟上重要性的公司,以及受重大事故條例(Störfallverordnung, StöV)所規範者。
(4)加強國家保護功能:
國家應建立認證機制,並課予關鍵基礎設施的供應者通過該認證的義務,即供應者需確保其設施內的零件不具不適當的技術特性,尤其可能被間諜活動或恐怖主義用以破壞關鍵基礎設施的安全與功能之重要零件。
該草案目前於德國聯邦議院(Deutscher Bundestag)進行審查。
本文為「經濟部產業技術司科技專案成果」
德國政府意識到伴隨數位化發展的創新科技和商業模式雖然提供了許多機會,但往往容易對消費者、產業和社會產生顛覆性影響,此類影響通常難以在短期內權衡利弊,從而不易對其訂出具體合適的規範,例如德國新創公司Lilium、奧迪子公司Italdesign、以及歐洲航空巨擘Airbus都有意發展的空中計程車計畫,雖有無限想像空間,但卻很難在短期內評估出可能隨之而來的安全、(空氣或噪音)汙染、就業等方面的不利影響,進而制定出寬嚴適中的規範。有鑑於此,德國聯邦經濟及能源部(Bundesministerium für Wirtschaft und Energie, BMWi)於2018年12月10日提出「真實實驗室戰略」(Reallabore Strategie),旨在營造一個前瞻、靈活、可支持創新想法自由發揮的法規環境,同時也希望藉由在真實實驗室運作所得之經驗數據,了解創新的機會和風險,進而找到正確的監管答案。 「真實實驗室」(Reallabore)係指允許在特定時間及真實環境範圍內,進行創新科技與商業模式發展測試,而無需擔心與現行監管規範有所牴觸的創新試驗制度,其與「生活實驗室」(Living Labs)和「實驗場域」(Experimentierräume)、「沙盒」(Sandbox)、「領航計畫」(Pilot Project)等概念類似,與我國「金融科技創新實驗」及「無人載具科技創新實驗」之制度規範亦有異曲同工之趣,但更著重在探索未來的監管方向,簡而言之,「真實實驗室」就是一個創新想法與監管規範的試驗空間,德國聯邦經濟及能源部(BMWi)為具體傳達其概念,對其特徵作了如下描述:(1)可以進行數位創新試驗的特定時空環境(2)可以支持創新想法自由發揮的法規環境(3)可以從中進行監管學習並確定未來監管方向與具體細節。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
歐盟專利強化合作方案 不同意見再起2011年3月,25個歐盟國家提案成立專利合作強化方案,以強化歐洲境內的專利申請以及審查速度。然而原本在波蘭接下2011年下半年歐盟主席後,希望於任內完成此一強化合作方案的簽署,目前似已遭遇瓶頸。義大利與西班牙兩國與其他25國不同,而對於歐盟(執委會)所提出之「強化專利合作程序」採取反對立場,他們認為因為該程序以英文、法文與德文為專利申請的官方語言,故羅馬及馬德里方面認為這將使得來自這「三大」國家的企業享有不公平的競爭優勢。 前揭方案的背景架構可放大到歐洲專利制度的整合規劃,2011年12月5日召開的歐盟競爭委員會,於有關歐洲專利統合的議題,原預計討論專利法庭所在城市(倫敦、慕尼黑與巴黎被提名)、上訴法庭、仲裁機構、財務分攤與程序接軌等議題。最後經過兩天的會議,只有專利法庭一案的討論,在多國表示願意擔任第一審法庭的情況下,獲得處理方向的決議。而有關財務負擔及其他仍未有確定共識的議題,有待丹麥主席任期中去進行最後協定的催生了。
日本經產省發布《資安產業振興戰略》,強化資安產業與技術基礎日本經濟產業省(簡稱經產省)於2025年3月5日發布《資安產業振興戰略》(サイバーセキュリティ産業振興戦略),目前日本大多使用海外製造的資安產品,且相當重視使用產品的實際體驗,進而導致日本國產資安產品難以銷售獲利,陷入缺乏資金開發投資的惡性循環,為求打破現狀促進日本資安產業發展,具體因應政策如下: 1. 創造有利資安新創企業進入市場的環境:彙整具有前景的資安新創企業名單,提供予政府參考,讓政府率先試行導入資安新創企業提供的產品與服務,展示實際使用資安產品與服務的成果,藉此提升資安新創企業知名度,降低其進入市場的難度。 2. 發掘具有潛力的技術及具市場競爭力之產品或服務:實施競賽形式的獎金制度,發掘可提升資安、解決問題,對社會具有貢獻的技術,並推動約300億日圓的研發計畫,促進技術實際落地運用,改善不利開發投資的環境。建立系統整合商、日本國產產品與服務供應商之間的媒合機制,讓供應商可在產品銷售過程中發揮影響力。 3. 充實高階專業人才拓展國際市場:擴大高階專業人才培育計畫,提升並宣傳資安人才的職業魅力,支援產業向海外發展,與合作國家共同促進企業與人才交流,以因應資安產業整體基礎不足,難以培育人才,拓展國際市場等問題。