美國聯邦巡迴上訴法院就Myriad案判決人體基因具可專利性

  2011年7月29日美國聯邦巡迴上訴法院針對Myriad Genetics公司之單離去氧核糖核酸(isolated DNA)專利無效上訴案作出判決,認定人體基因具有可專利性。

  本案緣起於Myriad Genetics公司利用單離DNA BRCA1及BRCA2兩項基因,發展出一套乳癌風險檢測技術,並成功取得7項專利。未料2009年時,美國公民自由聯盟(American Civil Liberties Union,ACLU)及美國公共專利基金會(Public Patent Foundation,PUBPAT)以「授予單離DNA專利權係違反專利法第101條規定」為由,向紐約南區聯邦地方法院提起確認專利無效之訴,並獲致勝訴判決後,全案便上訴至聯邦巡迴法院。

  美國專利法第101條(35 U.S.C §101)雖規定:「任何人發明或發現新而有用的方法、設備、製品或物之組合,或新而有用的改良,皆可依本法所定條件取得專利。」但標的若屬自然產物(product of nature)者,則不應授予專利。因此,本案關鍵問題在於:單離DNA是否屬於自然產物?

  針對此一問題,巡迴法院以1887年聯邦最高法院於Hartranft v. Wiegmann案中所闡明的「人為介入(human intervention)是否已賦予發明物與自然產物明顯不同的特質」原則為判斷標準,認定單離DNA雖取自於原生DNA(native DNA),但其經化學處理後可釋放出特定分子,已與人體內之原生DNA有顯著不同,故具有可專利性。此外,法院更指出,美國專利局(The US Patent and Trademark Office,USPTO)自80年代迄今已釋出40,000件以上與DNA分子相關之專利,其中有20%為人類基因,此種長年行政慣例即便有誤,亦應由國會加以變更,而非法院。

  本案受矚目之處,在於Myriad公司上訴時,美國司法部即透過法庭之友建議書(friend of the court briefs),向巡迴法院表明其否認人類基因具有可專利性的立場,因此本案判決結果等同於對司法部見解之否決。美國生技業者則認為單離基因專利(isolated gene patent)是生技產業的基石,此判決結果符合專利局一貫的專利政策,而此政策正是過去催生美國生技產業的推手;惟外界預料本案極可能再上訴至聯邦最高法院,屆時將對美國生技產業造成何種影響,值得持續觀察。

本文為「經濟部產業技術司科技專案成果」

相關附件
※ 美國聯邦巡迴上訴法院就Myriad案判決人體基因具可專利性, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5515&no=55&tp=1 (最後瀏覽日:2026/02/15)
引註此篇文章
你可能還會想看
日本總務省公布「2006年版資訊通信白皮書」

  日本資訊通信領域主管機關「總務省」 7 月 4 日 公布「 2006 年版資訊通信白皮書」。本年度白皮書除按照慣例闡述資訊通信政策之實施現況(第 2 章)以及今後推動方向(第 3 章)外,更本諸過去數年「 u 化社會」( ubiquitous network society )願景之研析成果與發展脈絡,將 u 化社會之願景與現實生活的技術或應用發展趨勢兩相比較,指出於逐步邁向該等願景的同時,社會整體經濟結構的特性也開始有所變化。   基於前開變化主係肇因於技術變遷、應用普及、逐步邁向 u 化社會願景之故,本年度白皮書第 1 章乃將之稱為「 u 化經濟」( ubiquitous economy ),並認為自宏觀角度而言,資通產業對於國家經濟實力之貢獻有增無減;另自微觀角度而言,個別用戶的重要性將會更加凸顯,資訊的流通傳遞也會更有效率,而本諸知識迅速累積分享的結果,生產力同樣可望大幅提昇。今後亦當本諸此等認知,規劃能令個別用戶放心使用之安全環境,弭平基礎建設未能完全普及之數位落差現象,預先具體指明可能發生之爭議課題,妥善探究適合 u 化社會願景實現之因應對策,以利全體國民均能充分享用 u 化社會所能帶來的福祉。

英國提出因應GDPR自動化決策與資料剖析規定之細部指導文件

  2018年5月,英國資訊專員辦公室(Information Commissioner’s Office, ICO)針對歐盟GDPR有關資料自動化決策與資料剖析之規定,公布了細部指導文件(detailed guidance on automated decision-making and profiling),供企業、組織參考。   在人工智慧與大數據分析潮流下,越來越多企業、組織透過完全自動化方式,廣泛蒐集個人資料並進行剖析,預測個人偏好或做出決策,使個人難以察覺或期待。為確保個人權利和自由,GDPR第22條規定資料當事人應有權免受會產生法律或相類重大效果的單純自動化處理決策(a decision based solely on automated processing)之影響,包括對個人的資料剖析(profiling),僅得於三種例外情況下進行單純自動化決策: 為簽訂或履行契約所必要; 歐盟或會員國法律所授權; 基於個人明示同意。   英國2018年新通過之資料保護法(Data Protection Act 2018)亦配合GDPR第22條規定,制定相應國內規範,改變1998年資料保護法原則上容許資料自動化決策而僅於重大影響時通知當事人之規定。   根據指導文件,企業、組織為因應GDPR而需特別留意或做出改變的事項有: 記錄資料處理活動,以幫助確認資料處理是否符合GDPR第22(1)條單純自動化決策之定義。 倘資料處理涉及資料剖析或重大自動化決策,應進行資料保護影響評估(Data Protection Impact Assessment, DPIA),判斷是否有GDPR第22條之適用,並及早了解相關風險以便因應處理。 提供給資料當事人的隱私權資訊(privacy information),必須包含自動化決策之資訊。 應確保組織有相關程序能接受資料當事人的申訴或異議,並有獨立審查機制。   指導文件並解釋所謂「單純自動化決策」、「資料剖析」、「有法律效果或相類重大影響」之意義,另就可進行單純自動化決策的三種例外情況簡單舉例。此外,縱使符合例外情況得進行單純自動化決策,資料控制者(data controller)仍必須提供重要資訊(meaningful information)給資料當事人,包括使用個人資料與自動化決策邏輯上的關聯性、對資料當事人可能產生的結果。指導文件亦針對如何向資料當事人解釋自動化決策處理及提供資訊較佳的方式舉例說明。

哥本哈根會議後,歐盟討論實行碳關稅的可能

  聯合國於哥本哈根舉行之氣候變遷綱要公約(UNFCCC)第15次締約國會議(COP15)會議後,對於較未有嚴格的管制工廠分布與二氧化碳排放(此情形又稱之為碳洩漏風險,risk of carbon leakage)的國家,由於該些國家的貨品進入,將對歐盟境內工業造成不公平競爭(unfair competition)結果,歐盟因而就如何保護會員國內工業生產者的措施進行討論。   近來像中國等未有過多法律規範以落實減少碳排放的國家,爲抵制此類國家貨品的進口影響歐盟境內工業生產者,歐盟正重新審視討論法國所提出的對進口至歐盟的貨品實施碳關稅(carbon tariff)的政策。   法國總統薩科奇曾表示,對於不尊重京都議定書(Kyoto Protocol)的國家,歐盟應對其進口產品課徵碳關稅,以保護歐盟境內因執行碳排放交易機制(Emission Trading Scheme, ETS)而必須額外負擔成本之工業生產者經濟利益,並消除國外貨品進口所導致的不公平競爭。   碳關稅在歐盟之實行,非只有法國提出,其實早在哥本哈根會議之前,法國與德國即共同向聯合國秘書長潘基文以書面(joint letter)表達於歐盟實施稅捐調整機制(border-adjustment measure)的想法,以抵制其他未落實國際環境保護規範國家。   今年(2010)三月,歐盟機構重新對於法國所提出的碳關稅進行討論,由於此措施將影響WTO對關稅之調降,身為歐盟最大工業國的德國,基於保護國內工業生產者,仍對碳關稅政策表示支持,惟WTO所制定的關稅相關規定,身為WTO會員國的德國也認為應遵循,以避免引起損失更大的貿易爭端。   在強調綠色經濟的時代,各國要作的不只是落實國際環保規範,對於國內業者的利益也應適當關注。現今歐盟刻正討論的碳關稅,因我國非為京都議定書締約國,一旦實施對我國衝擊不小,所以此政策發展值得我們持續觀察。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP