經濟合作與發展組織(Organisation for Economic Co-operation and Development,簡稱OECD)於2022年11月7日發布《2022年氣候行動監測 幫助各國邁向淨零碳排》(The Climate Action Monitor 2022 Helping Countries Advance Towards Net Zero),係由國際氣候行動計畫(International Programme for Action on Climate,簡稱IPAC)團隊撰擬,提供全球氣候行動的重要見解。
IPAC提出之分析方法係本於OECD與聯合國環境規劃署(United Nations Environment Programme,簡稱UNEP)的「壓力–狀態–回應」(Pressure-State-Response,簡稱PSR)環境指標模型。與政策回應相關的潛在限制與障礙,可區分為四個關鍵領域:1、治理:有效率的執行脫碳政策或需有新的治理框架;2、關鍵材料:脫碳政策需使用的關鍵材料如銅、鋰等;3、技能、技術與創新:回應氣候變遷政策需個人和機構有新的能力和技術;4、財政:以政策回應需有充足的資金。
推動淨零在科學技術上面臨的挑戰為關鍵材料的應用。相較於化石燃料,綠能技術需更多的材料;特別是應用於電力系統的銅和鋁,或應用於電池的鋰、鈷和石墨。稀土對於風力發電機、電動與混合動力汽車、行動電話、電腦硬體、平面顯示器和電視機為重要材料。惟此些關鍵材料的取得集中於極少數的國家,以致於供應鏈易受單邊衝擊的影響,而使價格飆升,阻礙轉型。原材料占綠色技術大部分的成本,而緊張的材料市場可能會阻止對綠色技術的使用。氣候計畫與公告需考量關鍵技術的風險,實踐可信且穩定的淨零碳排,需於全球開發新的資源、新型的加工製程,與加速投資。並藉由新技術,與發展特定材料的回收鏈,以減緩對取得材料的依賴。
OECD提出「福祉透視」(the Well-Being Lens)的流程,以協助各國確認與考量淨零轉型的優先政策。此過程的步驟為:1、預設若為運作良好的系統所能達成的成果;2、理解現行系統無法達成的原因,以及如何重組和設計系統;3、確認行動與政策對於改善系統運作具有潛力。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。
行動通信事業提供視訊服務之法律議題研究 經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
企業監看員工網路活動法律爭議之防堵