IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。

一、問責制度(Accountability)
  由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。

二、價值協同(Value Alignment)
  人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。

三、可理解性(Explainability)
  人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。

  該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

相關連結
相關附件
※ IBM提出「人工智慧日常倫理」手冊作為研發人員指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8195&no=64&tp=1 (最後瀏覽日:2026/01/27)
引註此篇文章
你可能還會想看
中國大陸開發資訊系統,加強落實電子出版物書號管理

  國家新聞出版廣電總局繼2011年底頒布《音像電子出版物專用書號管理辦法》後,歷經3年整備,去(2014)年底終完成「音像電子出版物專用書號實名申領資訊系統」開發,並於今(2015)年一月上線運行。預計透過此資訊系統,將能簡化書號申領、核發許可程序,落實「中國標準書號」(簡稱中國ISBN)及其配套之「書號實名制」推動。   同時,為配合系統運作,亦修訂《音像電子出版物專用書號管理辦法》,明文要求出版單位應安排、訓練專人從事相關書號的申請管理,及賦與出版單位對於申報內容、出版物品質及出版活動嚴格的自審責任。對於違規使用ISBN者,新法亦明文宣示主管部門可以按相關法規給予處罰,除採取警告發出責令改正的行政罰外,並有罰金的適用。   可以預期的是,在音像電子出版物專用書號實名系統的推動執行下,中國大陸關於電子出版物行政管理過程中的統計、查找、選擇、獲取等將建立統一性更透明的單一標準。正面而言,將促成電子書有秩序的發展環境,改善過去一號多書、買賣書號等亂象。另一方面而言,也表示電子書之出版,將趨於嚴格、減少模糊空間。

歐洲現正規劃研提「負責任奈米研究」執行規範

  奈米科學及奈米技術具有促成技術﹙enabling technologies﹚的特性,具有多元應用潛能,一般期待其能為許多領域﹙例如化學、材料科學、健康、以及能源等﹚帶來永續利益。其中,研究是這項目標中最重要的環節,一方面能發展出有產業應用價值的新技術,另一方面也可以調查奈米科技的潛在風險並建立妥適的控管措施。   為了營造安全且負責任的奈米科技研發環境,並為安全且負責任之應用及使用鋪軌,歐盟執委會﹙European Commission﹚正在規劃研提一個關於負責任奈米科技研究相關的自願執行規範﹙voluntary code of conduct﹚。   本執行規範將採用由歐盟執委會推薦﹙recommendation﹚的方式,由其邀請各會員國、產業界、大學、資助機構﹙funding organizations﹚、研究人員及其他與此相關的利害關係人次來執行。歐盟執委會本身也會將此項原則落實在相關研發政策當中。目前,歐盟執委會在今﹙2007﹚年7月9日至9月21日將對外進行諮詢﹙consultation﹚,所收集到的各項意見會作為本執行規範的基礎。

英國先進材料研發之促進輔助法制政策介紹

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP