日本經濟產業省於2024年8月23日發布《IoT產品資安符合性評鑑制度建構方針》(IoT製品に対するセキュリティ適合性評価制度構築方針),以順應國際IoT產品資安政策趨勢,因應日益嚴重的資安威脅。
本制度為自願性認證制度,由情報處理推進機構(情報処理推進機構,簡稱IPA)擔任認證機構進行監督。以IoT產品為適用對象,制定共通因應資安威脅之最低標準,再依不同產品特性需求,制定不同符合性評鑑等級,依評鑑結果進行認證,授予認證標章。不同評鑑等級差異如下:
1.等級一:為共通因應資安威脅之最低標準,可由供應商進行自我評鑑,並以評鑑結果檢查清單申請認證標章,IPA僅會針對檢查清單進行形式確認。
2.等級二:係考量產品特性後,以等級一為基礎,制定應加強之標準,與等級一相同係由供應商評鑑,自我聲明符合標準,IPA僅會針對檢查清單進行形式確認。
3.等級三:係以政府機關或關鍵基礎設施業者為主要適用對象,須經過獨立第三方機構評鑑,並以IPA為認證機構進行認證,確保產品值得信賴。
本制度可協助採購者及使用者依資安需求,選用合適的IoT產品,亦有助於日本與國際IoT產品資安符合性評鑑制度進行協作,達成相互承認,減輕IoT產品供應商輸出海外之負擔。
美國於2021年11月1日公布「2050淨零排放之路:美國長期策略」(The Long-Term Strategy of the United States: Pathways to Net-Zero Greenhouse Gas Emissions by 2050),確立美國未來十年溫室氣體減量發展方向,希望透過聯邦政府與各州、地方政府間合作,並結合社會整體力量,使美國可以在2050年實現淨零排放,並支持更加永續、具彈性且平等的經濟發展,實現完全的零碳污染、強化經濟及提升大眾健康。 本報告首先強調從現在開始至2030年約十年間溫室氣體排放減量的重要性,並說明美國接下來將以溫室氣體排放減量,作為未來達成淨零排放目標之基礎。為了達成淨零排放,美國計畫自能源、產業的排放結構著手推動轉型,報告中公布五項具體目標: 電力脫碳化:近年來因為風力及太陽能等潔淨能源發電成本急遽降低,能源轉型的腳步也逐漸加快,在此基礎上,美國訂定2035年達到100%潔淨電能的目標,並預計電力部門可於2050年以前達到真正的淨零排放。 電動化或轉換為潔淨能源:推動各部門電動化,使交通、建築物及工業製程可以使用合理成本且具一定效率的電力作為主要能源;針對航空、海運及部分工業製程等以現行科技水準較難實現電動化的經濟活動,則推動轉換為氫能、永續生質能等較潔淨的燃料。 減少能源浪費:透過新技術的開發,提升能源使用效率,例如於新建建築物使用能源效率較優的設備、更新既有建物之設備、改善工業製程的能源效率等。 降低甲烷等非二氧化碳溫室氣體排放:採取適當措施以減少甲烷、氫氟碳化合物、氮氧化物等非二氧化碳溫室氣體之排放,包括於石油及天然氣系統加裝甲烷洩漏感測器,以監控其洩漏狀態,以及將冷卻設備中的制冷劑從氫氟碳化合物更換為環境友善的其他物質。 移除大氣中二氧化碳:增加自然碳匯,或以目前可實際運用的技術吸收大氣中的二氧化碳。 美國預計結合聯邦、地方政府,以及產業、學術機構、投資人等社會各界,透過政策執行,強化推動能源、運輸、土地利用等經濟活動的溫室氣體減量工作;同時,配合資金導入,支持並給予各部門足夠的誘因投入潔淨技術的開發,並透過合作,以減少技術開發時可能遭遇的障礙及付出的成本,帶動美國整體朝淨零目標邁進。
複製人類在歐美之法制規範 開放生物技術淺析 強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)