全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。

FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管:

(1)透明度與揭露(Transparency and Disclosure):
應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。

(2)教育與理解(Education and Understanding):
FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。

(3)負責任之使用與問責(Responsible Use and Accountability):
開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。

(4)公平性與近用(Equity and Access):
應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。

(5)隱私與資料安全(Privacy and Data Security):
AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。

(6)監督與監管(Oversight and Regulation):
各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。

(7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations):
各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

相關連結
你可能會想參加
※ 全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9239&no=57&tp=1 (最後瀏覽日:2025/12/22)
引註此篇文章
科法觀點
你可能還會想看
澳洲提出《2023年法定聲明修正法案》,將正式認可數位化法定聲明的效力

澳洲眾議院在2023年9月提出了《2023年法定聲明修正法案》(Statutory Declarations Amendment Bill 2023),法定聲明(statutory declaration)是大英國協法體系中的一種法律行為,效力相當於宣誓,以確認聲明人聲明內容為真。如受雇者可以法定聲明的方式聲明自己的工作經歷屬實,以做為受雇資料不全時的補充。該修正案將使數位方式(digital execution)進行的法定聲明和傳統書面形式具有相同效力。 澳洲政府在Covid-19期間,為了因應疫情對於整個社會的衝擊,在實體接觸困難的社會環境下導入大量臨時措施,但是這些臨時措施將會於2023年12月31日時效到期後失去效力。 本次的修正案除了將允許電子簽名(electronic signature)和視訊見證(video-link witnessing)等數位形式作為進行法定聲明的方式外,亦進一步規定只有在經過核可並且授權的數位平臺(如myGov)才可以進行有效的數位法定聲明。除此之外,使用者也需通過這些線上平臺的身分驗證(如myGovID)後才能使用這一服務,以確認法定聲明發表人的身份並確保該聲明之效力。 為了確保透明和釐清平臺的責任歸屬,該法案除了對數位平臺進行隱私、資安和防詐騙的規範外,亦禁止數位平臺儲存或保留使用者法定聲明的副本,因為這些法定聲明可能都含有高度敏感的個人資訊。 該法案的目的並非要完全取代傳統書面紙張在法定聲明中的地位,而是為了澳洲人民在做成法定聲明時提供另一個不受到地理、實體限制的選擇,這種改變讓個人和企業藉由數位化平臺快速且不受實體距離影響完備所需的法律文件,使他們能夠便捷的享有那些需要法定聲明的政府服務。 澳洲政府為了因應社會變遷及數位時代的來臨,在法律體系中賦予數位形式明確效力,並且嘗試建立起可信賴的數位平臺與路徑,其制度設計及後續影響,可以作為我國推動國家數位轉型時的參考。

美國紐約州通過《政府自動化決策監督法》規範州政府使用自動化決策系統

紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。

歐洲推動人體生物資料庫再利用沙盒

  非營利組織EIT Health於2020年2月展開公共人體生物資料庫(Public biobank)再利用之「數位沙盒」(Digital Sandbox)計畫的第二次公開徵求。參與的中小企業於提案後,可於2020年7月底前獲得通過與否的通知,並最快於2020年9月開始參與計畫。   EIT Health成立於2015年,是歐洲創新技術研究所(European Institute of Innovation and Technology)下的「知識與創新社群」(knowledge and innovation community)之一,主要資金來自歐盟「展望2020」(Horizon 2020)。有鑑於數位革命創造了大量極具研究價值的醫學生物資料,EIT Health於2019下半年提出公共人體生物資料庫再利用之「數位沙盒」計畫構想,該計劃主要目的在支持中小企業利用該生物資料實施創新服務或開發產品。   而依據歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第89條規定,如果生物資料庫之利用係基於科學研究或公共利益之必要,可以在符合「適當的技術和組織措施」(Technical And Organisational Measures)之前提下得到豁免(exemptions)。依此條文,EIT Health之「數位沙盒」計畫參與者得不遵守GDPR第15條(資料主體之接近使用權)、第16條(更正權)、第18條(限制處理權)、第19條(關於更正或刪除個人資料或限制處理之通知義務)、第20條(資料可攜性權利)以及第21條(拒絕權)之規定。透過此計畫,有望幫助中小企業獲得公共人體生物資料庫、研究參與者(Sample holder)和登記冊的近用權限。此外,計畫亦提供最高35,000歐元的資金,以幫助中小型企業在開發創新產品時利用資料。

德州法院判美大藥廠默克賠償2.53億

  一名美國德州男子由於服用止痛藥偉克適 (Vioxx) 不幸喪命後,其遺孀向法院控告全美第三大藥廠默克 (Merck & Co.) 並要求索賠。美國德州地方法院本 (8) 月 19 日判決默克應賠償 2.53 億美元,默克決定提出上訴。   根據醫學研究報告顯示,長期使用偉克適的病人發生心臟病、中風的機會將相對提高一倍, 2004 年 9 月默克藥廠已宣布回收全球市場的偉克適藥品。 59 歲德州男子 Robert Ernst 原為馬拉松選手,因肌腱炎問題服用偉克適長達 8 個月後, 2001 年心臟病死亡,經解剖後發現死因為心律不整。其遺孀向法院控告默克藥廠,認為導致其丈夫死亡主要因素,是藥廠隱瞞偉克適有致命危險性此點過失,並指出默克為了與勁敵輝瑞 (Pfizer Inc.) 的同類產品 Celebrex 競爭,急於推出偉克適上市,卻未先進行適當的安全測試,對於該藥品可能引發的心臟問題,也以輕描淡寫方式處理,因此藥廠應該負擔全責。   德州法院陪審團做出判決,認為默克藥廠應對 Ernst 死亡負擔責任,給付 2400 萬美元的損害賠償,以及 2.29 億美元的懲罰性賠償。默克藥廠的委任律師表示,將繼續提出上訴。   Miller Tabak & Co. 醫療保健類股策略師 LesFuntleyder 表示,這項判決會鼓勵更多人提出控告,時間將長達 10 年。

TOP