IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。

一、問責制度(Accountability)
  由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。

二、價值協同(Value Alignment)
  人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。

三、可理解性(Explainability)
  人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。

  該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

相關連結
相關附件
※ IBM提出「人工智慧日常倫理」手冊作為研發人員指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8195&no=55&tp=1 (最後瀏覽日:2026/01/11)
引註此篇文章
你可能還會想看
美國參議院於2015年4月針對patent troll提出PATENT Act法案

  美國參議院於2015年4月底針對抗衡美國patent troll提出法案,該法案名為the Protecting American Talent and Entrepreneurship (PATENT) Act。希望能制止美國近年來濫用美國專利系統制度,造成許多不必要之專利訴訟案件等情形。   該法案指出,許多濫用之專利訴訟案不僅發生在大公司,許多中小公司也受到patent troll的侵擾,也許即使不著名的專利訴訟案也會花費被告方非常大筆之金額。法案內容指出,提起專利訴訟方需要清楚定義該專利的聲明(claim)及何種產品或是過程侵權,及其侵權之方法等。另外,勝訴方可以提出敗訴方在訴訟過程中所花費的費用並不客觀上合理等聲明。美國政府於2015年5月初表示支持該項提案,且認為該法案是合理且可理解的法案(common-sense legislation),並希望能於今年簽訂通過該法案於國家專利法中,讓美國專利法系統不受到patent troll的氾濫使用。   美國眾議院於2015年5月底又針對PATENT Act法案做出修正,希望在打擊專利蟑螂時,又不至於過度保護AIA,而造成專利權人泛濫使用AIA保護而矯枉過正。主要的法案修正內容包括: 1.限制PTAB過度檢視專利有效性的範圍。PTAB為了防止過多的專利訴訟,對於專利的有效性較謹慎檢視,因而相對的判定許多專利無效。此法案要求PTAB的審查標準需與地方法院檢視專利有效性的標準相同,以避免過度不合理的專利無效決定。 2.專利權人若要聲訴原告的專利無效需具有大量且具體的證明,證明專利的無效性。若專利權人提出無理由的專利訴訟,即造成濫用專利權人權利的情形,該法案規定,其可對其律師相關的懲罰。 3.若專利權人像PTAB提出對方的專利無效,PTAB僅需一個成員來決定是否構成審視該專利有效性的決定。   提出這些修改法案,主要希望在打擊專利訴訟濫用的同時,又不會過度的保護專利權人而可能夠成不中立的結果。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

基改小麥事件爆發 基改標示議題再上火線

  基因改造食品的安全性,向來引起全球關注,各界爭議不休。美國農業部在上(5)月29日公開表示,在奧勒岡州(Oregon)的私人農場中發現基因改造小麥,這是否屬於單一個案,還是意味著基改防線已有所瓦解,對於美國基改管理體系具有重大意義。以目前而言,美國尚未核准任何基因改造小麥。   美國是全球最大的小麥供應國,每年有4000萬噸小麥輸入亞洲;其中,日本更是美國最重要的海外市場。在本案爆發之後,日本於第一時間暫停來自美國西北的小麥進口至美國境內,這股緊張氣氛預計將快速漫延至其他亞洲國家。   事實上,在這事件同時,於綠色和平(green peace)及其他NGO團體串聯下,全球200萬民眾走上街頭,抗議美國孟山都(Monsanto)及其研發的基因改造食品,包括美國、加拿大、阿根廷等,估計共有52國、436個城市響應,一齊表達對於基因改造食品的不安感。在基因改造食品的長期爭議下,美國有若干州考慮採取立法管制,特別是要求基因改造作物或產品必須要標示清楚,以保護消費者的權益。最新的進展是,在本(6)月4日,康乃迪克州(Connecticut)議會以134比3,通過基因改革食物法案,要求各項食物必須明確標示是否含有基因改造成分。在這之後,緬因(Maine)州也立即跟進,以141比4通過類似的基改標示法案。而案件爆發地–奧勒岡州,則還沒有進一步消息。

日本總務省公布「2010次世代寬頻整備策略」

  日本總務省遵照其「u化日本政策報告」(2004年12月公布)以及IT策略本部「IT新改革策略」(今年1月公布)之規劃方向,8月11日正式對外公布「2010次世代寬頻整備策略」,以2010年該國寬頻覆蓋率超過百分之九十,作為寬頻基礎建設整備之政策目標。 詳言之,依照前開策略之記載,一則希望2008年底該國所有市町村均得接取寬頻,以求消弭目前尚有部分地區根本無從接取寬頻之區域落差現象,再則預計2010年底,全國能有超過百分之九十的家庭得以接取上傳下載雙向速度均超過30Mbps之超高速寬頻。於此過程,固然原則上係由民間主導相關整備活動之進行,惟官方亦應本諸技術中立之立場,施行適切之競爭政策,規劃吸引業者投資之誘因;其中,位處偏遠、投資效益可能偏低之地區,宜藉由中央、地方、居民、業者等各界相互交流合作,並配合技術層面之進展,妥善進行。另外,宣導整備成果、開發創新應用、維繫安全環境等,均屬重要,亦應於前開寬頻整備過程一併積極推動,以利後效。

TOP