Novartis被質疑濫用美國FDA獎勵研發治療被忽視熱帶疾病藥物之制度

  國際藥廠Novartis被指控濫用美國食品藥品管理局(the U.S. Food and Drug Administration,簡稱FDA)為鼓勵藥廠投入研發被忽視疾病治療藥物所設立的一套獎勵制度。

 

  這套制度是根據2007年美國國會所通過之美國食品藥品管理法修正案(the Food and Drug Administration Amendments Act of 2007)而創設,主要是給予向FDA申請治療其表列之被忽視熱帶疾病(例如瘧疾、血吸蟲病、利什曼病等)藥品查驗登記並獲通過之申請者一份所謂「藥品優先審查劵」(priority review voucher),讓該申請者可以用於之後所提出的人類藥品查驗登記申請,而得以享有優先審查之權利。

 

  這個所謂「藥品優先審查劵」對於藥廠來說可說是價值非凡,因為藥品查驗登記程序正常情況往往超過10個月以上,但是適用優先審查程序之申請案,卻可以有九成左右在6個月內就獲得通過,這對於藥廠的好處在於,其可以比其他競爭者更快地將其所生產藥品上市販售。

 

  Novartis於2009年4月獲得FDA通過其就治療瘧疾藥物Coartem之查驗登記申請,而成為適用此獎勵制度之首例並獲得「藥品優先審查劵」。Novartis的行為之所以招致批判,因為其所申請之藥物Coartem並非是針對治療瘧疾所研發出來的新藥,其從1999年起便已在部分國家被許可使用,只是該藥物在美國從未被申請查驗登記而獲准通過。由於上述獎勵制度並未言明是針對新開發之治療熱帶疾病的藥品,所以Novartis的動作可以符合其要件並獲得獎勵,但此舉卻有鑽法律漏洞之嫌。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ Novartis被質疑濫用美國FDA獎勵研發治療被忽視熱帶疾病藥物之制度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3057&no=66&tp=1 (最後瀏覽日:2026/01/07)
引註此篇文章
你可能還會想看
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

英國金融行為監督總署公布《加密資產指引》諮詢文件

  英國金融行為監督總署(Financial Conduct Authority, FCA)與英國財政部、英格蘭銀行於2018年3月共同組成「加密資產專案小組」(Cryptoasset Taskforce),為英國政府「金融科技產業戰略」(Fintech Sector Strategy)之一環。2019年1月23日,FCA公布《加密資產指引》(Guidance on Cryptoassets)諮詢文件,除在配合加密資產專案小組之調查、研究外,亦在於落實FCA作為金融監理主管機關,盤點及釐清法規適用之職責,以妥適因應金融科技發展。公眾意見徵集期間至2019年5月4日,FCA並預計在同年夏季提出最終版本的報告。   依據《加密資產指引》,FCA臚列了四項監理代幣(token)可能的法源依據,包含: (1)受監管活動指令(Regulated Activities Order)下的「特定投資項目」。 (2)歐盟金融工具市場指令II(MiFID II)下的「金融工具」。 (3)電子貨幣條例(E-Money Regulations)下之「電子貨幣」。 (4)支付服務條例(Payment Services Regulations)。   由於加密資產市場與分散式記帳技術發展迅速,參與者迫切需求更清晰之監理規範,包含交易匯兌、主管機關等,避免因誤觸受管制之活動(regulated activities)而遭受裁罰。其次,FCA亦希望能強化消費者保護,依照加密資產商品類型,讓消費者知道可以尋求何種法律上之保障。

美國聯邦航空總署准許美國有線電視新聞網在人群中使用小型無人機進行拍攝

  美國有線電視新聞網(Cable News Network, CNN)通過美國聯邦航空總署(Federal Aviation Administration, FAA)之審查,允許使用小型無人機(small Unmanned Aerial Vehicle, sUAS)直接穿越人群中(flying directly over a person or people)進行拍攝採訪,為美國目前第一件允許在商業目的中使用小型無人機自由穿梭人群之豁免核准案。   美國於2016年8月通過聯邦法規第107篇(14 CFR Part 107)又稱小型無人機規則(small UAS rule),規定關於小型無人機之操作規範。其中該規則列舉7種操作禁止事項,須事前經由美國聯邦航空總署豁免方得進行操作(又稱Part 107 Waiver),分別為:1.夜間飛行、2.直接穿越人群飛行、3.經由行進車輛或飛機進行飛行、4.一人操作多架無人機、5.視距外飛行、6.飛行超過400英呎、7.飛行區域近機場或禁航區附近。   CNN本次豁免項目即第107.39條的「直接穿越人群飛行」之規定,該規定除飛越對象為操作者本身,或僅飛越在建築物、車輛上並不受禁止規範外,只要無人機穿越人群皆須經美國聯邦航空總署審查同意方得操作,否則將面臨重罰。此一豁免通過後,改變以往記者與攝影師合作之拍攝手法,改由受訪者直接接受無人機採訪,除節省人力資源外也能突破地勢之空間限制,對於商業營運模式將有重大變革。    然而由於直接穿越人群飛行之風險性極高,因此在本次豁免條件中亦有嚴格限制,除只能使用申請時之特定無人機外,並應該嚴格遵守製造商之使用說明。另外,不得擅自改變無人機之設計或在未經允許下額外加裝配備。同時飛行高度亦不得高於海平面150英呎,並須定期檢測維修。最後每次操作皆須詳細記錄並保存,包含機械故障時須立即回報。

美國紐約州通過《政府自動化決策監督法》規範州政府使用自動化決策系統

紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。

TOP