日本內閣網路安全中心(内閣サイバーセキュリティセンター)依據於2018年底新修正之網路安全基本法(サイバーセキュリティ基本法,以下稱基本法),於今年1月30日發布網路安全協議會的營運報告(以下稱營運報告)。 基本法修法原因在於網路攻擊日趨複雜,若組織受到網路攻擊,並非每個組織都有能力因應,如此將導致組織運作受到衝擊。因此於基本法第17條新增設立「網路安全協議會」(サイバーセキュリティ協議会,以下稱協議會)。日本內閣網路安全中心於前揭發布之營運報告中說明協議會之運作模式及招募成員情形。
運作模式上,協議會設有秘書處、營運委員會及總會,秘書處由內閣網路安全中心擔任,營運委員會由各機關首長組成,總會則由所有協議會成員組成並且定期召開會議;協議會將成員分成第一類成員、第二類成員及一般成員。第一類成員與第二類成員組成特別工作小組(タスクフォース),小組成員間會交換不對外公開且尚未確認的機密資訊,一般成員則依循特別工作小組提供的資訊及因應對策,加以實際運用。經營運報告統計,自協議會成立(2019年4月1日)至同年年底,一共發生33起網路攻擊事件,皆透過協議會促使各政府機關、私人組織迅速掌握網路攻擊資訊。
招募成員方面,協議會於去年5月加入第一期91名成員;同年10月,再加入64名第二期成員,目前為止共計155名;第三期成員已於今年三月開放申請加入,預計五月確定第三期成員。此外,營運報告中列有協議會成員名簿,成員包含內閣官房首長、資訊處理推進機構(情報処理推進機構)、宮城縣網路安全協議會、NTT DOCOMO電信公司、成田國際機場公司、石油化學工業協會、富士通、三菱電機等產、官、公協會組織單位。日本藉由設立協議會,期許透過政府與民間協力合作,共同維護政府公部門及產業之基礎網路安全。
人工智慧作為一前瞻性技術,運用於公部門,可以降低成本、提高管理品質、節省基層公務人員時間,整體改善政府公共服務。然而AI技術進化以及市場發展過於快速,現有採購類型沒有可以直接適用AI採購的判斷標準範本。因此,英國人工智慧辦公室(Office for Artificial Intelligence)與產官學研各界進行研商後,於2019年9月20日發表人工智慧採購指南草案(Draft Guidelines for AI procurement),作為公部門採購AI產品與服務之準則。該指南旨在加強公部門採購人員能力、協助採購人員評估供應商,讓廠商可以隨之調整其產品和服務內容。 該指南提供採購人員規劃政府AI採購的方向,包含招標、公告、評選、決標到履約。但指南強調無法解決採購AI產品與服務時遇到的所有挑戰。 指南內容簡述如下: 在制定規範時應重視如何清楚闡述面臨到的問題,而非只是說明解決方案; 評估AI帶來的風險時應緊扣公共利益,在招標階段敘明以公共利益為核心,並有可能在招標、評選和決標階段變動評估標準; 在招標文件中確實引用法規和AI相關實務守則; 其他包含將AI產品的生命週期納入招標和履約考慮、為提供AI產品和服務的廠商創造公平競爭環境、需與跨領域的團隊進行採購討論、確保採購流程從一開始就建立資料管理機制等。
世界經濟論壇發布《贏得數位信任:可信賴的技術決策》世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。 由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟: 1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。 2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。 3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。 4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。
首例中國大陸地方自主創新法規─廣東省自主創新條例公布中國大陸政府在《國民經濟和社會發展第十二個五年規劃綱要》,以及《國家中長期科學技術發展規劃綱要》中揭示繼續增強自主創新能力,進而推動中國大陸科技進步以及經濟發展。上述指導性的綱要落實到中國大陸立法層面,可從《科學技術進步法》第25條規定「政府必須優先採購自主創新產品」等類似的條文中發現這樣的精神。 2011年11月30日由廣東省第11屆人民代表大會所通過的《廣東省自主創新條例》,即是在這樣的立法背景下所訂定。該條例具體規定「自主創新」之定義、自主創新產業的人才培育措施、自主創新產業的財政性資金補助措施,以及鼓勵研究成果轉化與產業化之措施等,並分別設立專章予以規定。其中特別值得注意者,乃是該條例第18條明文鼓勵自主創新產業與澳門、香港,以及臺灣的企業、大學、研發單位合作科技研發,並建立科學技術創新平臺。 過去中國科研相關政策綱要中雖不乏有鼓勵兩岸產學研合作的宣示,但於法律條文位階中明文鼓勵「台灣參與中國大陸自主創新科技研發」卻還是首見,大幅提高了未來台灣產學研界主動參與大陸地區科技研發的可能性。由於中國大陸在立法特色上,通常係由地方法規率先就特定事務進行規範,爾後政府若認為有以中央法律位階作統一規範時,始進一步訂定法律或中央機關部門規章,因此本條例之制定是否會對於其他中國科研創新法制帶來拋磚引玉之效,頗值得觀察
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。