日本文部科學省於2022年3月發布「教育資訊安全政策指引」(教育情報セキュリティポリシーに関するガイドライン)修訂版本,該指引於2017年10月訂定,主要希望能作為各教育委員會或學校作成或修正資訊安全政策時的參考,本次修訂則是希望能具體、明確化之前的指引內容。本次修訂主要內容如下。
(1)增加校務用裝置安全措施的詳細說明:
充實「以風險為基礎的認證」(リスクベース認証)、「異常活動檢測」(ふるまい検知)、「惡意軟體之措施」(マルウェア対策)、「加密」(暗号化)、「單一登入的有效性」(SSOの有効性)等校務用裝置安全措施內容敘述。
(2)明確敘述如何實施網路隔離與控制存取權的相關措施:
對於校務用裝置實施網路隔離措施,並將網路分成校務系統或學習系統等不同系統,若運用精簡型電腦技術(シンクライアント技術)則可於同一裝置執行網路隔離。另外,針對校務用裝置攜入、攜出管理執行紀錄,並依實務運作調整控制存取權措施,例如安全侵害影響輕微者則可放寬限制以減輕管理者負擔。
韓國科學及資通訊部(Ministry of Science and ICT, MSIT)於2024年8月26日發布第一次國家戰略技術發展計畫「韓國科學技術主權藍圖」(Blueprint for National S&T Sovereignty)(下稱科技主權藍圖),以促進國家戰略技術(national strategic technology)之發展。 韓國於2022年10月發表〈國家戰略技術培育計畫〉(National Strategic Technology Nurture Plan),選定12個國家戰略技術。本次發布之科技主權藍圖,旨在為國家戰略技術提供中長期之支援政策,主要政策與預期效果如下: 1. 支持國家戰略技術商業化:MSIT將在5年內投資30兆韓元(約7200億台幣)於國家戰略技術之研發,並推出「顛覆性差距特殊上市程序」(super-gap special listing procedure),為具顛覆性之新技術提供融資、租稅優惠等支援,加速其商業化。 2. 增強韌性:韓國將加強與戰略夥伴之合作,觀察國際趨勢,定期更新國家戰略技術清單,以利其對國家戰略技術保持良好的應變能力。另一方面,韓國希望保持半導體記憶體(semiconductor memory)、蓄電池與顯示器技術之領先,並積極發展人工智慧半導體、尖端生物技術與量子技術等三大顛覆性領域,以期在國際上建立韓國主導之戰略技術標準化體系。 3. 建立任務導向的研發體系:MSIT將建立任務和目標績效管理體系,並搭建創新平台,鼓勵戰略技術之研發,目標為創造15家以上的戰略技術獨角獸公司(unicorn start-up),以引領韓國未來戰略技術之發展。
德國數位經濟2017監測報告及建議德國經濟與能源部於2017年12月公布數位經濟2017監測報告,就ICT及網路經濟的表現和競爭力統計各產業數位經濟程度,並針對德國數位轉型現況及挑戰進行分析並提出相關建議。 報告資料指出, 在六大創新應用潛力的部分,14%的企業已投入工業4.0改造,集中於機械製造業,數量有逐步上升趨勢;物聯網應用則以服務業居多,特別是知識密集型服務提供者;33%的企業有提供智慧服務,以客戶為導向的企業,例如資通訊業、金融保險業,使用比例更為明顯;19%企業開始利用巨量資料,多集中於大企業或先進產業;11%企業有利用機器人及感測器;人工智慧則尚處於起步階段,而使用者多集中於資通訊產業。就上述資料顯示,推動數位轉型尚待加強。另外,今年監測報告聚焦「數位聯網及合作」議題,結果顯示,約六成的企業與其商業客戶有進行數位聯網,而只有約四成的公司與新創公司有合作,因此尚有許多創新潛力尚未得到充分利用。 國際數位經濟排名第六,落後美國、南韓、英國、日本、芬蘭。在獲得風險資本可能性的表現最佳,整體創新能力也處於相對領先地位,惟電子化政務服務較為落後,有待加強。在關鍵政策需求部分,以寬頻建設促進政策、創建數位化友善法律框架,以及獲取創新基礎的公共知識最受矚目。
歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。