英國數位、文化、媒體暨體育部於2018年3月8日公布「安全設計(Secure by Design)」報告,此報告目的在於使IoT設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。
此報告中包含了一份經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論後,提出之可供製造商遵循之行為準則(Code of Practice)草案。
此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。
其中提出了13項行為準則:1. 不應設定預設密碼(default password);2. 應實施漏洞揭露政策;3. 持續更新軟體;4. 確保機密與具有安全敏感性的資訊受到保護;5. 確保通訊之安全;6. 最小化可能受到攻擊的區域;7. 確保軟體的可信性;8. 確保個資受到妥善保障;9. 確保系統對於停電事故具有可回復性;10. 監督自動傳輸之數據;11. 使用戶以簡易的方式刪除個人資訊;12. 使設備可被容易的安裝與維護;13. 應驗證輸入之數據。
此草案將接受公眾意見,並於未來進一步檢視是否應立相關法律。
本文為「經濟部產業技術司科技專案成果」
日本在促進產學合作,除了A-step計劃外,亦成立了創新中繼站構築援助事業(Support Program for Forming Innovation Hub)與創新中心(COI)等。 創新中繼站構築援助事業,由JST協助國立研發法人推動改革,以強化法人之效能,並做為大學與企業之中繼站,大學主司研究,企業則負責產業化階段,中間點則由JST與國立研發法人一同合作。JST負責召集人才、評定人才並進行創業援助、技術調查與分析。國立研發法人則提供人才培育及交流所需之資源(例如:機具設備的整修與提供,推動研究開發等等)。 創新中心(COI)則是政府預測未來10年之社會變遷及人口結構,再根據未來社會可能之需要,以建立理想社會為目標,通常進行具有高難度、高風險研發之創新中心。目前日本有18個創新中心分佈全國各地,由國家指定企業與大學共同進行,但是研究負責人只能是大學。
美國2020年國防太空戰略(Defense Space Strategy)美國國防部於2020年6月17日發布「國防太空戰略」(Defense Space Strategy),作為確保美國維持其太空戰略優勢的發展藍圖。國防部長Mark T. Esper指出,一個安全、穩定且開放的太空領域是美國用以支持其國家安全、繁榮科學發展的基礎,然而在各國太空技術競逐之下,太空已儼然成為新的作戰領域(warfighting domain),對此美國應針對政策、策略、任務、投資、能力與專業等面向實施全面性的改革,「國防太空戰略」擘劃出美國如何在接下來的10年內達成其確保美國太空戰略優勢的目標。 「國防太空戰略」提出三大目標:首先,國防部將支持並捍衛美國在太空中的軍事行動自由(freedom of operations),並遏止任何具有敵對意圖的使用以維持美國的太空優勢;其次,美國太空軍(U.S. Space Force)將運用其先進的國防太空技術優勢以協助美國及其盟友的太空軍事行動,並支持民間與商用太空技術產業發展;最後,美國將與盟友共同維持太空領域的穩定,防止任何侵略性的太空活動、建構國際公認的太空行為準則,並支持美國在太空交通與長期外太空活動的領導地位。 為了達成上述三大目標,「國防太空戰略」提出四個優先行動方向,分別為:(1)藉由太空軍的組織改造整合資源,以應對敵對勢力的太空軍事行動並建立全面性的太空軍事優勢。(2)提升作戰層次,整合太空軍事力量包含任務、情報、技能與人員於國家與國際聯合軍事行動當中。(3)提升國際對於太空潛在威脅的重視,推動國際太空行為準則以打造太空戰略環境。(4)透過情報共享、研發與採購(research, development, and acquisition, RD&A)與盟友、合作夥伴、產業及其他政府部門合作,提出對於國家太空政策與國際太空行為準則的建議。
美國聯邦最高法院於Michigan v. EPA案中認定減碳措施需先考量成本效益 美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。