美國最高法院判決單離DNA片段不具專利標的適格性

  2013年6月13日美國最高法院(the Supreme Court of the United States)就備受矚目之Association for Molecular Pathology v. Myriad Genetics, Inc.一案做出判決,認定如乳癌易感基因BRCA1、BRCA2等經單離(isolated)的人類DNA片段不具美國專利法第101條(35 U.S.C. §101)所規定之專利標的適格性。

 

  美國最高法院指出,雖然專利權人發現了BRCA1與BRCA2基因的位置與序列,但是其並未創造或改變BRCA1與BRCA2基因上的任何遺傳資訊,亦並未創造或改變該DNA片段的基因結構,所以即使其是發現了一個重要而有用的基因,但僅是將其從周遭其他基因材料中分離出來,並非為一項發明行為。亦即是說,突破性、創新或卓越的發現並不必然符合美國專利法第101條之要件要求。

 

  不過,美國最高法院認為,cDNA片段可以具備專利標的適格性,因為其為從mRNA所創造出來、僅具備外顯子(exons-only)的分子,而非自然發生之自然產物。然而美國最高法院對於cDNA是否符合其他可專利要件之要求並不表示意見。

 

  美國最高法院亦強調,本案判決並未涉及任何方法發明,亦未就將有關BRCA1與BRCA2基因之知識予以應用的發明做出判斷,且未判斷自然發生之核苷酸順序經改變的DNA片段是否具備專利標的適格性的問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國最高法院判決單離DNA片段不具專利標的適格性, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6211&no=0&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
中國大陸之工業和信息化部發布《算力標準體系建設指南》之徵求意見稿,欲加強算力低碳標準發展

2025年10月21日,中國工業和信息化部發布《算力標準體系建設指南》(徵求意見稿),公開徵求意見。提出九大部分,包含基礎通用、算力設施、算力設備、算網融合、算力互聯、算力平台、算力應用、算力安全以及綠色低碳標準。其中,「綠色低碳」標準旨在引導算力產品、平台及應用在全生命週期內實現環境友好、資源節約與能源高效利用,包含: 1. 綠色低碳產品標準:規範算力產品從設計、生產、使用到廢棄處理全過程的環境影響。包括節能設備技術要求、有害物質管控、材料回收與循環利用,以及生命週期評估(LCA)等標準。 2. 綠色低碳平台標準:建立可以整合統計與分析電、水、碳、熱、冷等資訊的綜合性管理平台。標準涵蓋了平台的架構設計、數據對接與管理功能,以實現能源使用的精細化監測。 3. 綠色低碳應用標準:針對算力服務過程中的環保表現進行評價,包含碳足跡核算、環境適應性、綠色供應鏈管理以及綠色算力的計算方法。 4. 能效監測技術標準:定義算力中心的各項能效核心指標,如電效、水效、碳效及空間效率。此外,也規範了監測頻率、先進節能技術的使用規範以及可再生能源的使用佔比。 5. 算力電力協同標準:規範算力資源與電力資源的協同調度,重點包含「源網荷儲」一體化、算電協同管理及相關關鍵設備的技術要求,以提升整體能源利用效率。 根據徵求意見稿,到2027年,中國將在算力通用基礎、基礎設施、設備、網路融合、平台、應用、安全以及綠色低碳等領域,制定或修改50項以上標準。

德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

德國聯邦內閣政府決議通過「電信終端設備連接與自由選擇法草案 (Gesetz zur Auswahl und zum Anschluss von Telekommunikationsendgeräten)」

  為防止網路服務企業,在提供網路服務上替客戶連接寬頻網路(Breitbandanschluss)時,僅准許使用自家公司提供之路由器(Router),進而導致路由器或數據機(Modem)市場之壟斷狀況,違反市場自由競爭,德國聯邦內閣政府於2015年8月12日決議通過德國聯邦經濟暨能源部(Bundesministerium für Wirtschaft und Energie)於2015年2月25日所提出之「電信終端設備連接與自由選擇法草案」(Gesetz zur Auswahl und zum Anschluss von Telekommunikationsendgeräten)。   透過該草案,德國廣播電台與電信發射設施法(Gesetz über Funkanlagen und Telekommunikationsendeeinrichtungen)新增條文,以確保所有的終端設備(Endgeräten)列為市場自由化之對象。透過法定市場自由化的規範亦達成歐盟貨物公開及自由流通(free movement of goods)之原則。   該草案亦修定德國電信法(Telekommunikationsgesetz),「客戶之網際網路接取」現被定義為「被動式網絡終端點(passiver Netzabschlusspunkt)」。亦即,網路的架構設定與規劃,以往通常為電信業者所指定及管理,並包括路由器在其中,然而透過新法之修訂,已將路由器排除在被動式網絡終端點外,反而明確定義為積極終端設備(aktives Endgerät)。電信業者的管轄管理權限,以草案之修訂在路由器端前就會被設限。因此,讓網際網路使用者自己可使用自己裝置的路由器來定義自身的積極連接點(aktives Zugangspunkt)。   然而,網路營運者仍然可以提供其客戶終端設備,像是路由器或網路數據機,但透過該草案,客戶現可擁有終端產品的選擇權,而不致被迫使用被指定之網路終端設備。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP