美國商品期貨交易委員會(Commodity Futures Trading Commission, CFTC)於2024年10月15日發布《自願碳額度衍生性金融商品上市指引》(Commission Guidance Regarding the Listing of Voluntary Carbon Credit Derivative Contracts),闡述交易所上架自願碳額度衍生性金融商品時所應考量之因素,旨在推動仍處於發展階段的自願碳額度商品之標準化,以強化其透明度與流動性。本指引認為,決定進行上市交易前應先行考量下列因素:
1.透明度(Transparency):契約應公開碳額度方案(crediting program)與所認證減量專案活動之相關資訊。
2.外加性(Additionality):若無碳額度構成誘因,則其所代表之碳減量或移除將無從發生。
3.永久性與應對反轉風險(Permanence and Accounting for the Risk of Reversal):碳額度方案所核發之碳額度若遭撤銷,應具有充足緩衝儲備(buffer reserve)以替換品質相當之碳額度。
4.穩健量化(Robust Quantification):量化方法應穩健、保守且透明,以確保核發碳額度數量準確反映減排或移除量。
5.治理(Governance):碳額度方案應具備公開治理框架以建構獨立性、透明度及問責制度。
6.追蹤與避免重複計算(Tracking and No Double Counting):碳額度方案應追蹤碳額度之核發、轉讓及註銷,並確保已註銷額度不會再被使用而導致減排或移除量重複計算。
7.第三方確證及查證(Third-Party Validation and Verification):契約應明確記載第三方確證及查證程序,以確保碳額度實物交割符合品質要求,並與自願碳市場最新標準一致。
美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
日本經產省發布《促進資料價值創造的新資料管理方法與框架(暫定)》之綱要草案徵求意見2021年7月中旬,日本經濟產業省(下稱經產省)發布《促進資料價值創造的新資料管理方法與框架(暫定)(データによる価値創造(Value Creation)を促進するための新たなデータマネジメントの在り方とそれを実現するためのフレームワーク(仮))》之綱要草案(下稱資料管理框架草案),並公開對外徵求意見。 近年日本在「Society5.0」及「Connected Industries」未來願景下,人、機器與科技的跨界連接,將創造出全新附加價值的產業社會,然而達成此願景的前提在於資料本身須為正確,正確資料的自由交換,方能用於創造新資料以提供附加價值,因此正確的資料可說是確保網路空間連結具有可信性的錨點。為此,經產省提出資料管理框架草案,透過資料管理、識別資料在其生命週期中可能發生的風險,以確保資料在各實體間流動的安全性,從而確保其可信性。 該框架將資料管理定義為「基於資料的生命週期,管理各場域中資料屬性因各種事件而變化的過程」,由「事件(資料的產生/取得、加工/利用、轉移/提供、儲存和處置)」、「場域(例如:各國家/地區法規、組織內規、組織間的契約)」和「屬性」(例如:類別、揭露範圍、使用目的、資料控制者和資料權利人)三要素組成的模組。經產省期望未來能透過三要素明確資料的實際情況,讓利害關係人全體在對實際情況有共同理解的基礎上,能個別確保適當的資料管理,達成確保資料正確之目的。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
中國大陸將加速行動遊戲審批程序、落實管制中國大陸國家新聞出版廣電總局於日前公告「國家新聞出版廣電總局貫徹落實國務院全面督查整改落實進展情況」,提出將針對移動網絡遊戲(下稱行動遊戲)審批制度進行改革,改善目前審批時間過長、效率不高問題。 據公告內容顯示,未來審批制度將朝向雙軌制方向發展,對於未涉及民族、宗教、歷史、政治、疆域等議題,且無故事情節或故事情節單純(如棋盤類等休閒益智遊戲)之陸製行動遊戲,將採取簡易審批制度,以提高審查效率。另外,將增倍審查專家員額至20名,以維持審查品質。在上述改革推動下,目標將縮短審查時間,由現行30天初審、15天複審期限,分別壓縮至15天及5天。其進一步具體做法,中國大陸國家新聞出版廣電總局現正研擬「關於規範移動網絡遊戲出版審批管理的通知」,預計於2014年12月下旬發布施行。 面對近幾年行動遊戲的興起,中國大陸政府不斷重申行動遊戲須符合網路遊戲審批相關規定。然現實是,在行動遊戲數量呈現爆炸性成長,以及生命週期短暫之特色下,遊戲業者未依規定送審情形,並不少見。此次改革的推動,加上先前其他部會針對行動遊戲已提出之配套管制方案(如工信部之APP黑名單數據庫、文化部之企業自審作法),可預期行動遊戲的內容管制將日趨落實。對此,我方行動遊戲開發業者宜留意相關發展,納入後續遊戲開發方向與市場策略布局之評估要素一環。
美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。