歐盟執委會(EU Commission)於2019年6月20日發布「氣候相關資訊報告準則」(Guidelines on reporting climate-related Information),該準則為歐盟執委會2018年3月通過的「永續金融行動計畫」(Action plan on sustainable finance )之一部分,旨在促使企業更完整的揭露其活動對氣候之影響,以及氣候變化對其業務之風險,讓投資人與融資機構獲有更全面的企業資訊以進行決策,同時引導市場資金轉向友善氣候之企業或商業模式。 關於企業氣候相關資訊之揭露,歐盟早在2014年11月15日通過的「非財務資訊報告指令」(Non-Financial Reporting Directive, 2014/95/EU)中要求擁有500名以上員工的大型企業必須揭露其經營與氣候保護間之關聯;為讓所有歐盟企業均有一致可資遵循的揭露標準,執委會嗣於2017年5月7日發布「非財務資訊報告準則」(Guidelines on Non-Financial Reporting);而本次發布之「氣候相關資訊報告準則」則是在2017年的「非財務資訊報告準則」基礎上所進行的補充,其特別之處在於整合了金融穩定委員會(Financial stability board)轄下「氣候相關財務揭露工作組」(Taskforce on climate-related financial disclosures, TCFD)所擬定之氣候資訊揭露建議,該建議詳細的說明了企業編制非財務類報告以揭露企業所面臨的氣候風險與機遇作法。 本準則建議企業分別在(1)商業模式、(2)企業政策、(3)政策成果、(4)風險管理、(5)關鍵績效指標五方面進行氣候相關資訊之揭露:在商業模式方面,例如描述公司對自然資源的依賴性、說明公司商業模式在應對氣候風險時的彈性及可能的變化;在企業政策方面,例如解釋公司如何將氣候相關問題納入運營決策流程、揭露公司在其能源政策中所設之能源相關目標;在政策成果方面,例如參考財務KPI做法描述公司在氣候方面的表現如何影響其財務績效;在風險管理方面,例如根據地理位置、業務活動詳細列出與氣候相關的主要風險、描述進行風險識別、評估的方法與頻率;在關鍵績效指標方面,例如描述主要氣候相關風險與財務關鍵績效指標之間的聯繫。
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。
開原碼授權 印度要走自己的路印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。 Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。