美國2015年「消費者隱私權法案」簡介

刊登期別
第27卷第6期
 
隸屬計畫成果
經濟部技術處產業科技創新之法制建構計畫成果
 

本文為「經濟部產業技術司科技專案成果」

※ 美國2015年「消費者隱私權法案」簡介, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7066&no=55&tp=1 (最後瀏覽日:2026/02/22)
引註此篇文章
你可能還會想看
ENUM服務前景可期?

全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

英國展開醫療器材監管公眾意見徵詢並公布《人工智慧軟體醫材改革計畫》

  英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2021年9月16日展開期待已久的「英國醫療器材監管的未來」公眾意見徵詢(Consultation on the Future of Medical Devices Regulation in the United Kingdom),並公布「人工智慧軟體醫材改革計畫」(Software and AI as a Medical Device Change Programme)。英國欲從醫療器材上市前核准至其壽命結束進行監管改革,徹底改變一般醫療器材與人工智慧軟體醫療器材之監管方式。意見徵詢已於2021年11月25日結束,而該修正案預計於2023年7月生效,與英國針對醫療器材停止使用歐盟CE(Conformité Européenne, 歐洲合格認證)標誌並要求採用英國UKCA(UK Conformity Assessed, 英國合格評定)標誌的日期一致。   人工智慧軟體醫材改革計畫則包含十一個工作項目(work package,下稱WP),WP1與WP2分別為監管資格與監管分類,皆涉及監管範圍之劃定;WP3與WP4分別涉及軟體醫材上市前與上市後,如何確保其安全性與有效性的監管之研究;WP5針對軟體醫材之網路安全進行規範;WP6與WP7涉及加速創新軟體醫材審核上市之特別機制,分別為類似「創新藥品藥證審核與近用途徑」 (innovative licensing and access pathway)的機制,以及允許適時上市並持續研究監控風險的「氣閘分類規則」(airlock classification rule);WP8為確保智慧型手機之健康應用程式安全、有效與品質之規範研究;WP9~WP11則分別針對人工智慧軟體醫材之安全與有效性、可解釋性(interpretability)以及演進式(adaptive)人工智慧進行法規調適之研究。   MHRA預計透過指引、標準、流程之公布而非立法方式實現其監管此領域的目標。MHRA亦透露,針對上述工作項目,其已與重點國家和國際機構進行研究合作,已有不少進展即將公布。

性隱私內容外流風波-從美國立法例論我國違反本人意願散布性隱私內容之入罪化

TOP