世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則:

一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。

二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。

三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。

四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。

五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。

六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

相關連結
※ 世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8712&no=67&tp=1 (最後瀏覽日:2026/04/10)
引註此篇文章
你可能還會想看
美國商務部取消對來自敏感國家之外國科學家使用部分研究設備之限制

  911 恐怖攻擊以來,美國持續加強國土安全保護,而為保障國家安全及科技競爭力,美國商務部( US Department of Commerce )原本打算制定安全管制規定, 對來自敏感國家之外國科學家, 限制其 使用部分的實驗研究設備。所謂敏感國家( countries of concern ),包括巴基斯坦、印度、俄羅斯及中國,來自於這些國家的科學研究人員若要在美國境內的從事特定實驗研究,因而需要使用特定設施設備者(主要是可用於軍事用途者),不論研究設施設備是屬於聯邦或民間所有,在開始操作、進行安裝、維護與修繕等之前,必須先向美國政府提出申請始可近用。   現行美國有關技術管制規定主要係針對敏感科技的出口,商務部自 2004 年起,即打算推動修正此等規定,進一步將部分可用於軍事用途之研究設施設備予以立法管制,從美國政府所公布的管制清單來看,其涵蓋範圍甚廣,從化學、雷射到細菌培養等各領域之研究設施設備,均涵蓋在內,故商務部此項修法計畫一經公開,立即震撼外界,除學術界及產業界強烈外抨擊,就連聯邦實驗室也大表反對。反對意見多認為,預計的修正規定將會破壞大學校園中之開放精神,影響科學自由的研究環境;而研究設施設備近用之事前許可制,亦將造成學界與業界的負擔;甚至可能阻礙未來大學或業界延攬外國科技人才參與研究計畫之進行,長期而言,實將會戕害美國的國際競爭力。   面對各界反對聲浪,為避免降低研究型企業之生產力,美國商務部在今年 5 月底宣布取消原來的立法管制計畫,不過,商務部將會召集產學研各界專家,組成一個十二人的委員會,持續就實驗室安全管制的問題交換意見,期能獲致更有效之解決之道。

眾所矚目的LG對廣達權利金訴訟案有了初步的進展

  今年1月16日(週三),美國聯邦最高法院將韓國LG電子公司與台灣廣達(Quanta)電腦公司的訴訟案排入審判的程序之中,並預計今年六月底左右會有相關的判決結果產生。此案件之所於引人注目,主要是本案爭議的內容在於LG公司將其記憶體相關的專利權授權給美國Intel公司。而台灣廣達公司自Intel公司購買部分經LG授權的零組件,並用來製造筆記型電腦。   LG公司發現此情形之後,遂向美國法院控告廣達公司的行為侵害該公司的專利權,LG公司主張其授權並不包含對Intel公司以外的廠商,所以廣達公司的行為侵害該公司的權利;但廣達公司則主張Intel公司已取得授權,有權對外銷售,因此廣達公司的行為是合法的行為。   由於美國地方法院判決對LG有利,所以廣達公司不服因而提起上訴,本案也已經進入聯邦最高法院的訴訟程序,最後判決結果如何,將影響未來專利權擁有者與被授權者之間的關係,究竟收取權利金的範圍是否及於供應鏈或中下游的廠商等,成為眾人關注的焦點,也因此相關產業人士皆十分關注本案的發展。

美國法院擬修正《聯邦證據規則》以規範人工智慧生成內容之證據能力

2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。

法國高等教育暨研究部宣布額外投資新創企業培育計畫,強化產業競爭力與發展深度技術

為強化產業競爭力與發展深度技術,法國高等教育暨研究部(Ministère de l'enseignement supérieur et de la recherche)於2023年1月9日宣布將額外投資5億歐元,以培育更多的研究型新創企業。 基於2021年10月12日法國總統宣布的《法國2030投資計畫》(France 2030),法國政府將於五年內投入540億歐元於新創相關事務,且目前已於2022年達到成立25間獨角獸公司的中期目標。為進一步提高學研機構以研發成果衍生新創之數量,讓新創公司數量成長2倍,法國高等教育暨研究部部長Sylvie Retacleau與法國產業部(Ministre chargé de l'Industrie)部長Roland Lescure提出以下三大行動,並額外投資5億歐元執行: (1)建立25個大學創新中心(Pôles Universitaires d'Innovation, PUI):法國政府將投入1.6億歐元,在大學網站上提供創新戰略、單一治理及敏捷方法,藉此激發研發團隊潛力及創意。PUI將在不額外增設法律規範之情況下,與現有政策結合推動上述措施。 (2)透過既有措施推動深度科技:透過i-Lab、法國科技新興獎學金、深度技術發展援助計畫等現有措施,以及增設法國科技實驗室獎學金,加速深度技術發展計畫。此外,未來也將提供6500萬歐元的補助。 (3)加強推廣研究工作及專題研究計畫(Programmes et équipements prioritaires de recherché, PEPR)成果:未來法國政府將投入2.75億歐元,挑選17項研究成果,建立評估研發成果之檢測及支援能力,並依領域性質,研究各領域專利證書、標準化和相關法規。

TOP