巴西政府針對Merck愛滋治療藥品實施強制授權

  繼泰國政府於六個月前針對跨國製藥公司Merck的愛滋藥品efavirenz(品牌名稱為Stocrin)實施強制授權後,巴西政府也在最近跟進,巴西總統Luiz Inácio Lula da Silva於今(2007)年5月4日針對Merck的同一藥品簽發強制授權令。

 

  長久以來,巴西政府與Merck即持續針對愛滋藥物efavirenz的售價進行協商,不過雙方一直未有共識:efavirenz是巴西國內最常用來治療愛滋病的藥品,總計約有38%的巴西愛滋病患(巴西國內愛滋病患約20萬人)使用此一藥品。Merck提出的售價是每一錠1.59美元,以巴西國內對該藥物的需求而言,巴西政府於2007年將須為此支付將近4千3百萬美元的藥品採購價額;然而,巴西政府認為愛滋治療藥品牽涉高度的公益性,堅持Merck應該降低售價,4月底,巴西健康部向Merck發出最後通牒,最後巴西政府拒絕Merck重新提出的價格並祭出強制授權。

 

  強制授權本即為專利制度的一環,不過必須在嚴格的條件下始得動用。由於藥品牽涉到公眾健康問題,加以製藥產業結構特殊,多數開發中國家並無製藥能力,故2005年底的WTO香港會議就公共健康領域通過了特別決議—「執行2003年8月30日大會決議第十一點之TRIPS修正條文建議~有關落實TRIPS與公共健康杜哈宣言第六點」(Implementation of Paragraph 11 of the General Council Decision of 30 August 2003 on the Implementation of Paragraph 6 of the DOHA Declaration on the TRIPS Agreement and Public Health),修正TRIPS之強制授權規定。

 

  5月4日的專利強制授權令乃是巴西政府首次針對藥品專利實施強制授權,巴西政府認為,其強制授權決定符合上述國際條約規定。一般認為,印度學名藥廠Cipla、Ranbaxy、Aurobindo將會是巴西此一強制授權決定之受惠者。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 巴西政府針對Merck愛滋治療藥品實施強制授權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2247&no=86&tp=1 (最後瀏覽日:2025/08/21)
引註此篇文章
你可能還會想看
美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

澳洲發佈《直接行動計畫》以因應氣候變遷

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

美國國際貿易委員會(USITC)發布「全球數位貿易報告,推動數位經濟新機會」

TOP