IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。

一、問責制度(Accountability)
  由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。

二、價值協同(Value Alignment)
  人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。

三、可理解性(Explainability)
  人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。

  該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

相關連結
相關附件
你可能會想參加
※ IBM提出「人工智慧日常倫理」手冊作為研發人員指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=8195 (最後瀏覽日:2024/07/27)
引註此篇文章
你可能還會想看
知己知彼,兩岸研發經費比一比

  依據本(2013)年9月26日中國大陸國家統計局、科學技術部、財政部聯合發布之統計公報顯示,去(2012)年全中國投入在研究與試驗發展(R&D)之經費支出達人民幣(以下同)10,298.4億元,較前(2011)年增加1,611.4億元,成長約18.5%。而大陸地區之研究與試驗發展經費約佔其國內生產總值(GDP)之1.98%,較2011年的1.84%提高0.14個百分點。惟同期(2012年,即民國101年)我國研發經費總計為新台幣4,312.96億元,佔臺灣地區GDP比率為3.07%,較中國大陸1.98%之比率略高。   另據大陸統計公報顯示,在中國大陸10,298.4億元之研發經費內,用於「基礎研究」之支出為498.8億元,比2011年增長21.1%;在「應用研究」之經費則為1,162億元,增長13%;至於「試驗發展」經費支出則為最大宗,達8,637.6億元,增長19.2%。總體來說,大陸地區之基礎研究、應用研究和試驗發展3項,佔其研發經費總支出之比率分別為4.8%、11.3%和83.9%;而臺灣地區則是以基礎研究、應用研究及技術發展等3類為區分,在2011年時分別為9.7%、23.7%及66.6%,說明臺灣地區在基礎與應用研究2部份佔研發經費總支出之比率較中國大陸為高。   然而相關研發經費投入至後續產出專利、運用,能否有效結合,或因而強化國家競爭力、減少需用單位間之落差,已是兩岸或其他國家所關切的焦點。因此,為利知己知彼,除了瞭解競爭國家之資源投入情形外,其研發成果相關運用情形等,亦實值得我們後續觀察、研究。

歐洲人權法院(ECtHR)認為土耳其政府封鎖網站之行為,有違歐洲人權公約言論自由規定

  歐洲人權法院(ECtHR)在去年(2012)12月作出一項因封鎖網路而侵害言論自由的判決。該判決認為土耳其政府封鎖整個Google網站的行為,已違反歐洲人權公約第10條關於言論自由之保障。   土耳其法院在2009年審理侮辱有土耳其國父之稱的凱末爾將軍案時,判決封鎖設在Google平台的某網站,但土耳其通訊主管機關(Telecommunications Directorate)向法院建議,因技術上問題,建議封鎖整個Google網域才能達到效果,此舉連帶影響本案上訴人架設於Google平台上的網站也一併遭致封鎖,上訴人在窮盡國內訴訟程序後,進而向歐洲人權法院提告。   歐洲人權法院認為,網路目前已經成為表達言論的一個重要工具與場域,根據歐洲人權公約第10條規定,立法限制言論自由必須明確,以便當事人能夠遵循。但土耳其法令(Law no. 5651)並無可封鎖整個網域之相關規定;此外,亦有證據顯示土耳其政府並未盡告知義務,且該網路平台Google亦無拒絕遵循當地國法令之情形;至於通訊主管機關建議法院封鎖整個Google網域行為,亦違反土耳其法令(Law no. 5651)之授權範圍。因此歐洲人權法院認為土耳其政府已經違反歐洲人權公約第10條規定。   根據歐洲安全與合作組織(Organization for Security and Co-operation in Europe)的調查指出,在2012年土耳其政府至少封鎖了3700個網站,包括YouTube、DailyMotion、Google等知名網站。   而總部設在倫敦的維護言論自由知名組織Article19(取名自世界人權宣言第19條言論自由保障而來)主任Agnes Callamard博士也指出,本案是網路言論自由的重大勝利,尤其是當前各國政府積極尋求各種網路管制手段時,更應注意立法限制言論自由必須具有明確的法源基礎且應有救濟管道,以落實歐洲人權公約保障言論自由之意義。

飛利浦推出新授權機制,光碟片廠仍有所質疑

  繼2001年引起國內科技產業界關注的公平會處分飛利浦CD-R授權案、2004年7月28日智慧局依循專利法第76 條規定,做成CD-R技術之強制授權決定,准予國碩公司針對飛利浦公司五項專利權所提出的強制授權申請後,飛利浦與台灣光碟片廠的權利金拔河仍未停歇,近日飛利浦宣布,將推動全新的CD-R光碟片專利授權模式—Veeza,根據此一授權模式,每片CD-R光碟片的授權金降幅高達44%。   飛利浦認為Veeza有助於恢復產業競爭的公平性,台灣光碟片卻不這樣認為,首先台灣最主要的競爭對手印度MBI,因飛利浦在印度沒有專利權保護,當地生產的光碟片出貨並不用繳納權利金。另外大陸業者也不按照規定繳交權利金,故即使調降權利金,我國廠商仍認為一旦與飛利浦簽訂新契約,屆時反而更加綁手綁腳,更無法與印度與大陸廠商競爭,市場公平競爭性反而降低,故截至目前為止,並沒有任何一家台灣光碟片廠與飛利浦簽訂新契約。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP