世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則:

一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。

二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。

三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。

四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。

五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。

六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

相關連結
※ 世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8712&no=55&tp=1 (最後瀏覽日:2026/04/01)
引註此篇文章
你可能還會想看
英國、韓國共同簽署資料適足性協議,以期促進資料經濟商機

  英國數位文化傳媒和體育部(Department for Digital, Culture, Media & Sport, DCMS)於2022年11月23日發布新聞稿,宣布英國與韓國共同簽署的資料橋接規則(The Data Bridge Regulation)於同年12月19日正式生效。在此之前,英國於2022年7月5日已與韓國個人資料保護委員會(Personal Information Protection Commission, PIPC)簽署資料適足性協議(Data Adequacy Agreement),以促進兩國未來進行資料傳輸。這也是英國在脫歐後,首次與其他國家簽訂的資料協議,而依據過往兩國的數位貿易統計資料,本次協議預估將帶來超過14.8億英鎊的商機。   英國DCMS部長更進一步表示,未來將積極與其他國家的戰略夥伴,開展資料經濟商機。英國於聲明中強調參與全球跨境隱私規則論壇(Global CBPR Forum)的決心,以加速資料共享、促進創新與產學研究,聲明摘要如下:   1、本協議為加強英國與韓國資料共享的里程碑,其宗旨為創建更值得信賴的資料共享環境,以及共創更安全的資料傳輸方式。   2、本協議耗時約一年完成討論與擬訂,並期待能透過該協議,深化並擴展英國與韓國之間的資料夥伴關係。   3、英國與韓國政府承諾將促進資料在國際商業、創新及研究等領域的發展。在加強個人資料保護的前提下,促進資料的合理利用。   4、在資料自由傳輸的基礎上,本協議將提供更完善且可持續推動的全球資料生態系統。雙方政府承諾共同改進數位時代下個資料保護框架,如英國發布國家資料戰略(National Data Strategy)、修訂UK GDPR相關規範,以及韓國PIPC提出個人資料保護法部分條文修正案等具體措施。   英國政府肯認應與其他戰略合作夥伴開展多邊倡議,如參與全球跨境隱私規則論壇(Global CBPR Forum)及經濟合作暨發展組織(OECD),共同推動可信賴之政府存取資料(Trusted Government Access to Data)的目標。

美國聯邦地區法院宣告伊利諾州之電玩遊戲法案違憲

  美國聯邦地區法院於 12月初對伊利諾州禁止商家販售或出租色情及暴力電玩遊戲予未成年人,如有違反將會處以美金1000罰金之規定做出判決,宣告該等法律規定違憲,並對其執行發出禁止令。   法官指出該等規定將對電玩遊戲的創作以及發行造成寒蟬效應,沒有證據可以證明暴力電玩遊戲會對未成年遊戲者造成持續性的負面影響,使其思想和行為具有侵略性,且其對色情的定義並不是很明確。由於此等規定已對於電玩遊戲業者之言論自由造成限制,但是並沒有實質重大的理由得以支持該等限制,故宣告該等規定違憲,並對其執行發出禁止令。   伊利諾州一案並不是美國法院第一遭禁止相關電玩遊戲規定之執行的判決,於今年 11月時,美國法院即曾禁止密西根州執行禁止商家販售暴力電玩遊戲之規定。

歐洲食品安全局頒佈利益申報實施細則

  為了有效管理歐洲食品安全局(European Food Safety Authority, EFSA)內部各項活動間之利益管控與監督,EFSA日前於3月5日公布利益申報(Declarations of Interest, DOIs)施行規則(Implementing Rules),並計畫於2012年7月1日正式實施,且同時搭配一個為期4個月的過渡(Transition Period)配套措施方案。該利益申報施行規則,乃為EFSA於今年初所核准之「獨立性與科學決策過程」(Independence and Scientific Decision-Making Processes)政策的基礎規範項目之一。   本次EFSA所頒布之利益申報施行規則,其訂定之理由係因,原任職於EFSA旗下基因工程植物之首席風險評估專家,轉任至一家專門研發及生產該種植物之生物科技公司;為避免並且釐清相關因該事件所衍生之利益衝突問題,乃制定本規範。故此,為具體有效管理EFSA內部人員與其他涉及EFSA各項活動之機構間的利益監督事宜,EFSA遂進一步於今年初開始著手進行相關措施之規劃。目前該利益申報施行規則除了主要針對EFSA旗下之各層級人員訂定各項利益類型之規範準則外,更重要的是,其亦提供其旗下之專業科學研究人員,各項能有效具體確認其利益界線之劃分的保護措施。由於該利益申報施行規則授與EFSA選取與管理利益申報議題若干彈性,因此EFSA能具體且有效的利用相關規範延攬頂尖研究人員,進而協助EFSA提升其內部研發人員之創新研發能力。   政府機關成員之利益申報與迴避問題,乃為全球各國政府需面對之問題,而對於如何有效且彈性的進行相關議題之管控,更是相關政策制訂時需加以考量之點。EFSA之利益申報施行規則不僅有效管理內部人員之利益衝突與申報問題,同時亦藉由彈性的管理規範方式,延攬優秀頂尖人才,達到具體提升研發水準之功效;對此,EFSA之規範方式與運作成效,實值得加以觀察與效仿。

歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。

TOP