日本內閣府在2020年7月17日發布「2020年統合創新戰略(統合イノベーション戦略2020,下稱創新戰略2020)」政策文件。創新戰略為內閣府轄下綜合科學技術與創新會議(総合科学技術・イノベーション会議)依據日本科學技術基本計畫,自2018年起固定於每年度發布。其目的係自全球性的觀點出發,提出含括科研創新之基礎研究至應用端的整體性策略。本年度創新戰略著眼於COVID-19疫情流行與世界各地大規模災害頻仍下,日本科研與創新政策所面臨的課題以及應採取的對策,並擴大科研領域,納入人文社會科學。 創新戰略2020指出,因COVID-19疫情影響,醫療體系、社經生活與研發活動皆受到程度不等的衝擊,包含零接觸經濟興起、社交方式改變與實體研究室關閉等。與此同時,美中科技對抗、GAFA數位壟斷爭議、極端氣候與天然災害等國內外情勢變遷快速。在此背景下,日本的首要課題為建構不間斷且強韌的醫療、教育、公共事業等社會服務體系,維繫國內外社會的鏈結。為此,應透過加速數位化,促成創新活動,同時強化研發能量,實現以人為本的「Society5.0」之社會。 基此,創新戰略2020提出了以下四項具體對策: (1)建立足以應對疫情困境、具韌性的社會經濟體系:在公衛醫療體系,進行疫苗與醫療儀器之研發,並運用數位科技傳遞訊息;因應科研創新與產學合作受疫情影響停擺,給予及時資助,如培育年輕創業者、提供推動引導研發補助(開発研究促進助成金,通稱Gap Fund)等;推動教育、研究、物流等各領域的數位化,同時自經濟安全保障的觀點,強化供應鏈韌性。 (2)創新創造:透過官民合作,實踐智慧城市的構想;同時持續推動「STI for SDGs路線圖(STI for SDGsロードマップ)」政策;藉由實踐研究誠信(研究インテグリティ),加強與國際網路合作;另一方面,應發展post 5G與Beyond 5G等前瞻數位基礎技術,並持續建置各領域的資料流通基礎設施。 (3)強化科研與創新之研究能量:建立能充分吸引年輕人才挑戰、進行創新研發的研究環境,同時成立基金以建構世界級的研究基礎設施;以充分活用大學研發成果為目標,檢討智財制度發展的願景;結合人文社會科學領域研究,並活用射月型研發(ムーンショット型研究開発)制度,發展社會問題解決方案。 (4)重要科技發展項目:於基礎技術層次,包含AI、生化科技、量子技術、材料等,對此應優先投入研發、培育相關人才;於應用科學層次,則包含防災、防疫、資安、能源、健康醫療、航太、糧食、農漁產業等。
英國因劍橋分析個資外洩事件開罰臉書英國資訊專員辦公室(Information Commissioner’s Office, ICO)於2018年10月24日公告針對臉書公司(Facebook Ireland Ltd. & Facebook Inc.)之劍橋分析(Cambridge Analytica)個資外洩事件,依據英國資料保護法(Data Protection Act 1998)第55A條之規範,裁罰臉書公司50萬英鎊之罰鍰。 自2018年3月劍橋分析違法取得與使用臉書個資事件爆發以來,估計約有8700萬筆臉書上的個人資料遭到違法使用,引起全球對於網路個資保護的重視。在遭到違法取得與使用的個資當中,也包含了歐盟以及英國臉書使用者的個資,因此英國ICO有權對此事件展開調查並對臉書公司進行裁罰。 根據英國ICO的調查,自2007年至2014年間,臉書公司對於其平台上的個資處理(processed)有所不當,違反資料保護法之資料保護原則(Data Protection Principle,DPP),包含未適當處理個人資料(DPP1),以及未採取足夠的技術與作為防止未經授權或違法使用個資(DPP7),致使劍橋分析得以透過臉書公司提供之API違法取用臉書使用者個資。 由於劍橋分析事件發生時,歐盟GDPR(General Data Protection Regulation)尚未正式上路,因此英國ICO依據事件發生時之法律,亦即基於歐盟資料保護指令(Directive 95/46/EC)所訂定之英國資料保護法,裁處臉書公司50萬英鎊的罰款;若依據基於GDPR之新版英國資料保護法(Data Protection Act 2018),臉書公司將可被裁處最高1700萬英鎊或年度全球營業額4%之罰款。
促進頻譜使用效率-美國啟動獎勵拍賣機制 美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。