美國FDA發布於海內外應對2019年新型冠狀病毒之行動聲明

  美國食品及藥物管理局(Food and Drug Administration, FDA)於2020年2月14日,發布於海內外應對2019年新型冠狀病毒之行動聲明,其包括:

  1. 主動監控供應鏈:由於疫情可能影響醫療產品供應鏈,FDA已與數百家藥品與醫療器材製造商保持聯繫,並與歐洲藥品管理局等全球監管機構保持同步,以評估監控潛在之製造中斷的警訊,且與生物製劑製造商聯繫,以評估有關原料之供應問題。若FDA確定醫療產品可能會短缺,則可能會採取與製造商緊密合作、加快對替代供應之審查等措施來防止短缺。
  2. 針對海外生產之FDA產品合規性之查驗與監控:FDA採取基於風險之模型來確認要進行查驗之公司,基於某些特定條件,會被認為具有較高風險之場所會被優先查驗,這些條件包括固有之產品風險、患者接觸產品之程度、過去查驗之歷史紀錄等等。除了查驗之外,其他防止不符FDA標準之產品進入美國市場之工具包括進口警示、增加進口採樣與篩查、替代查驗之紀錄要求(requesting records)。FDA可對市場上不合法之產品或違法之公司或個人採取監管與強制措施,例如警告信、扣押或禁制令。
  3. 消費品安全:美國海關暨邊境保護局將輸入美國、受FDA監管之產品交由FDA審查,其必須遵守與美國國內產品相同之標準,在FDA決定其可接受性之前不得將其分銷至美國。FDA並成立跨機關之專案小組,密切監控聲稱可預防、治療或治癒新型冠狀病毒疾病之詐欺性產品和虛假產品,並採取可能之執法行動。
  4. 對於診斷、治療與預防疾病之努力:FDA致力於促進安全有效之醫療對策的發展,提供法規建議、指導和技術援助,以促進針對用於此病毒之疫苗、治療和診斷測試之開發和可用性。FDA已核發緊急使用授權(Emergency Use Authorization, EUA),以便立即使用由美國疾病管制與預防中心所開發之診斷試劑,並已制定用於檢測病毒之EUA審查範本,其中概述申請EUA前所需之資料要求,目前已提供給表示有興趣開發該病毒之診斷工具之多位開發者。
  5. 後續行動:FDA將密切監視疫情並與跨部門合作夥伴、國際合作夥伴、醫療產品開發商與製造商合作,以幫助推進針對病毒之應對措施。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國FDA發布於海內外應對2019年新型冠狀病毒之行動聲明, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8413&no=64&tp=1 (最後瀏覽日:2026/05/09)
引註此篇文章
你可能還會想看
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

新加坡通過「線上安全(救濟與問責)法案」強化對抗線上傷害

新加坡國會於 2025 年 11 月5日三讀通過「線上安全(救濟與問責)法案」(Online Safety (Relief and Accountability) Bill, OSRA),希望透過「賦權受害者」與「強化平臺問責」來對抗日益嚴重的線上傷害事件。OSRA旨在補充個人在面對有害的線上行為(Online Harmful Activity)傷害時的救濟途徑,並設置「線上安全專員(Commissioner of Online Safety)」為處理投訴與發布救濟指令的專責機關。 OSRA明確定義了多種有害的線上行為,包括針對deepfake的「不實內容濫用」(Inauthentic material abuse),以及惡意公開他人隱私的「人肉搜索」(doxxing),而為了讓損害即時受到控制,線上安全專員在接獲國民投訴並調查評估後,可直接發出具法律效力的指令(Directions),要求平臺移除、隱藏特定內容,或限制惡意帳號的互動;若平臺不遵守指令,線上安全專員亦得向電信業者發出阻斷特定服務,或向應用程式商店發出下架特定應用程式的命令(Orders),無正當理由違反指令或命令皆有可能構成刑事責任。 此外,OSRA亦擴張了平臺的民事責任,當受害者依指定方式向平臺發出「線上傷害通知」後,若平臺未能在合理期間內採取行動,受害者得逕向平臺經營者或網站管理者提起民事訴訟要求損害賠償,若平臺無故怠慢,法院得判決加重損害賠償,希望藉此敦促平臺建立更敏捷的線上傷害控制機制。 值得注意的是,OSRA宣告了廣泛的長臂管轄機制,為保障新加坡國民的權益,不僅法院對OSRA規範的民事、刑事事件有管轄權,線上安全專員發布指令與命令的對象亦不限於境內,表現對抗全球線上傷害的強烈企圖。

歐盟個人資料保護小組提出智慧電錶隱私指導原則

  由於近年來運算技術的成熟,使得許多仰賴高運算技術的產業有重新發展的契機,智慧電網正是其中一例;而智慧電網所涉及的資訊繁多,例如個人資產的位址資訊可能會被納入電網中作定位與分析,因此其所衍伸的個人資料與隱私保護議題,近來備受重視。   歐盟個人資料保護小組(Article 29 Data Protection Working Party)於今年四月針對智慧電錶的隱私議題,提出指導建議(Opinion 12/2011 on Smart Metering),並明確指出,電網中的電錶會有一組獨特的識別碼(Meter Identification Number),此可連結至特定用戶,因此由電錶蒐集到的資訊,大部分都符合歐盟個人資料保護指令(Directive 95/46/EC)中的「個人資料」(Personal Data)。   倘若要對透過電錶所蒐集的資料進行處理,必須要基於充分告知(Fully-informed),取得用戶同意;也應該讓用戶依照意願自主行使同意或撤銷該同意,此會涉及電錶設計的方式,該小組建議可在用戶端電錶的控制鑲板上設置「按鈕」(Push Button),讓用戶得隨時選擇同意與否。另外,智慧電錶亦具有設定資料傳輸頻率的功能,此攸關資料被蒐集之範圍是否妥適,舉例言之,倘若用戶與電網服務提供者之契約,是全天以同一個費率計算電價,則其電錶會把整日用電量讀成一筆資料,反之倘若用戶是採用一天分不同時段不同費率的方式,則該電錶會每日分成數個時段讀取用電量;惟在供應端可遠端遙控這些電錶讀取頻率的情況下,應確保這些資料僅於系統運行所需,方傳輸至供應端供讀取。   其他的電表資訊處理細節,事實上類似於電信事業處理交通資訊或位址資訊的作法,例如不再用到的電錶資訊,應盡速刪除之;供應端也必須訂定書面的資料保存政策、評估所需電錶資訊之目的、並在該目的範圍內以最小限度原則保存之。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP