IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。

一、問責制度(Accountability)
  由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。

二、價值協同(Value Alignment)
  人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。

三、可理解性(Explainability)
  人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。

  該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

相關連結
相關附件
※ IBM提出「人工智慧日常倫理」手冊作為研發人員指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8195&no=64&tp=1 (最後瀏覽日:2026/04/17)
引註此篇文章
你可能還會想看
英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

日本醫藥品醫療器材等法修正研析─以醫療應用軟體為中心

中國大陸專利局於2014年7月21日簽署「知識產權保險戰略合作協議」,落實創新驅動發展戰略

  中國大陸專利局與中國人民財產保險股份有限公司於2014年7月21日在北京簽署「知識產權保險戰略合作協議」,雙方將合作促進專利保險之發展。所謂專利保險係指在專利研發、專利申請、實施、讓與、使用或專利訴訟中,由於發生專利侵權的行為而提供的保險服務。然而,此次協議更包括專利保險政策擬定與政策環境營造、承保理賠流程之改善,並且試圖強化專利風險的宣導以提升企業管理專利風險的意識,最終目標是建立專利保險風險控制及分散機制。   相對於我國高科技產業於引進專利保險在分散專利風險上有正面的參考價值,但由於現行客觀環境下的條件較不完備,使得我國在推行專利保險上窒礙難行,主要原因在於法律制度的不同所產生的專利風險程度有異、無法準確計算保險標的鑑價制度等,但專利保險的概念早在1994年美國即已推出,又伴隨智慧財產權意識的高漲,各國也相繼推行,例如:英國推出的「專利申請保險」,以及日本推出的「知識產權授權金保險」等。因此,此次中國大陸亦擴大推行專利保險之政策,可謂與國際發展趨勢與整體智財法制建制有關,可供我國未來引進專利保險制度上試行之參考與討論。

品牌商標命名之實踐與提醒─從杜邦分析要件判斷商標混淆誤認之關鍵

陽明交通大學於2025年7月11日,透過律師向美國商標審判及上訴委員會(The Trademark Trial and Appeal Board,簡稱TTAB)提出答辯主張,主張其商標(縮寫為NYCU)並未和紐約大學的商標(縮寫為NYU)有混淆誤認之虞,以下將以此案為例,說明實務上如何運用DuPont Factors(又稱杜邦分析要件)判斷混淆誤認,品牌商標命名、註冊等階段時應注意的風險和實務上可行的因應措施。 杜邦分析要件係源於1973年的E.I. DuPont de Nemours & Co. v. Celanese Corp.案,用13個判斷分析要件檢視是否有商標混淆誤認的情形,是美國審查實務,或者相關商標爭議判斷,最常引用的判斷標準,並視個案情形引用對應要件。 本案陽明交通大學提出答辯主張包括:NYU與NYCU字母、意義等整體印象不同(第1項);NYU提供美國正式教育學位課程,而NYCU僅限於台灣課程,未提供美國正式學位,雙方提供不同之教育服務(第2項);NYCU僅有限參與國際會議並未於美國招生,通路未重疊,且消費族群均為高知識與謹慎決策者(第3~4項);無任何實際混淆的證據(第7項);NYCU長期使用該縮寫於國內外學術交流與排名中,未發生混淆而顯示兩者商標可共存(第8項);NYCU合法註冊校名之縮寫,具有使用與排他性權利,無混淆意圖亦未仿冒(第11項);雙方市場截然不同,混淆風險極低(第12項),以及若不准NYCU使用將造成教育機構正常名稱縮寫受限,牽涉公共利益、學術發展與合理使用(第13項)等。 品牌企業或學研法人不論從命名、商標註冊階段,甚至到商標異議、撤銷、侵權爭議等判斷,不可忽視商標之混淆誤認風險,將可能被迫改名、下架商品或服務調整行銷素材、重啟品牌命名流程等,耗費人力、時間或經費。因此,務必完善品牌商標管理機制,確保能掌握混淆誤認之判斷原則、階段性評估檢核,以降低品牌撞名或近似他人註冊商標之情形,進而鞏固品牌價值。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP