歐盟對於不可申請專利的基本生物學方法做出新解釋

  大多數國家是認為動植物為法定不得授予專利之標的,歐盟以往因為歐洲專利公約實施細則(Implementing Regulations to the Convention on the Grant of European Patents,下簡稱實施細則)跟擴大上訴委員會(the Enlarged Board of Appeal,簡稱EBA)決定不一致而造成爭議,EBA於2020年5月做出的新決定,對於動植物是否為可授予專利之標的做出一致性解釋。

  在歐洲專利公約(European Patent Convention,簡稱EPC)第53條第2款規定用以生產動植物的基本生物學方法不可授予專利,並於2017年生效的實施細則第28條第2項將其進一步擴張解釋成,僅運用基本生物學方法所產生的動植物不可授予專利,這與EBA在2015年所做出的決定(G 2/12、G 2/13)並不一致,在2015年的決定中提到,運用基本生物學方法來界定動植物的請求項仍可以被接受,因此實施細則第28條第2項與2015年的決定產生衝突。

  於2019年,技術上訴委員會(Technical Board of Appeal)在案例T 1063/18中發現了這個問題,並提到EBA討論,EBA表示,考慮到法條涵義可能因時間產生變化,需要對EPC第53條第2款進行動態解釋(dynamic interpretation),實施細則第28條第2項與EPC第53條第2款並未矛盾,而是進一步擴展為,僅通過基本生物學過程,或是由基本生物學方法界定動植物之情況,皆屬於不可授予專利之情況,而推翻之前的決定。而為維持法律安定性,本決定(G 3/19)對於2017/07/01前生效或申請的案件並不具效力。

「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

相關連結
※ 歐盟對於不可申請專利的基本生物學方法做出新解釋, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8514&no=57&tp=1 (最後瀏覽日:2025/12/16)
引註此篇文章
你可能還會想看
動物實驗顯示吸入奈米微粒會損害肺部與循環系統

  三月上旬甫於美國新奧爾良舉行的毒物學學會研討會,多數的論文將重點放在肺部暴露於奈米微粒的影響。例如來自美國太空總署休士頓太空中心的John T. James與其同僚,將奈米微粒噴入老鼠的呼吸道,於一週與三個月後再進行檢驗,結果發現儘管類似煤煙的碳奈米球狀物不會造成傷害,可是相當質量的商品化碳奈米管卻會顯著的損及肺部組織,甚至殺死幾隻老鼠。研究人員發現巨噬細胞(macrophages)會困住奈米管,不過隨之死亡。James認為研究小組所使用的劑量並不是非常不切實際,他估計在目前的美國聯邦碳吸入量法規限制下,相對於人體重量,工作人員在17天之內會吸入相等的劑量。    美國西維吉尼亞州國家職業安全與健康協會的Petia Simeonova與其同事,也觀察到接受類似劑量碳奈米管的老鼠會產生富含微粒的肺肉芽腫(granulomas),研究人員也對心臟與主動脈的粒線體DNA進行損害檢查,粒線體傷害為發生動脈硬化(atherosclerosis)的先兆。    日本鳥取大學 (Tottori University )Akinori Shimada報告了首例奈米微粒從肺部移動到血液的系列圖像,碳奈米管一接觸到老鼠肺部極細小的氣管,即湧入穿過表面細胞的微小間隙,並且鑽入毛細血管,Shimada推測此會造成凝集甚至血栓。    羅徹斯特大學Alison Elder報告兔子吸入碳奈米球之後,增大了血液凝塊的敏感性。為了模擬糟糕的都市空氣污染,研究人員給予兔子每立方米包含70微克奈米球體微粒的空氣超過三小時,再觀察發生血液凝塊的時間,結果呼吸奈米微粒的兔子,一天之內即發生血液凝塊現象。因為發生的很快,所以Alison Elder認為奈米微粒是從肺部移動進入血流,而非從肺部送出凝血劑(clotting agents )。

英國Ofcom提出「促進智慧聯網之投資與創新」報告並對英國智慧聯網管制應補強之方向提出建議

  英國電信主管機關Ofcom於2015年1月提出「促進智慧聯網之投資與創新」報告(Promoting investment and innovation in the Internet of Things),對英國智慧聯網(Internet of things, IOT)之管制發表意見。Ofcom認為就英國發展智慧聯網之現況而言,在商業上確實已經進行智慧聯網發展並投資之,然,並未對複雜的發展做好準備;Ofcom亦承認英國在基礎設施和政府管制架構上,尚未具備適當的發展。於此報告中,Ofcom提出四方向的建議,分別為資料隱私與消費者認識、網路安全與防護、智慧聯網可用之頻譜和電話號碼與網址管理等四項。   首先在資料隱私與消費者認識部分,Ofcom認為以現有管制保護智慧聯網下之隱私的效果有限,因此建議英國「資訊專員辦公室」(Information Commissioner's Office , ICO)需要發展未來隱私保護議題之解決方法,並且與政府及其他管制機關就資料隱私之法制議題共同進行,包括將現有之資料保護管制之範圍進行評估,考量是否需涵蓋到所有智慧聯網設施,和訂定智慧聯網資料共享之原則。   第二,在網路安全與防護管理上,Ofcom指出英國2003年通訊法(Communication Act 2003)已就服務提供者所提供之公眾可使用的網路與服務,課與特定安全與防護責任;例如網路與服務提供者必須採取適當的手段管理安全風險,尤其需將對終端使用者之影響降至最低、網路提供者必須採取所有適當的程序,盡可能的保護網路安全。然,Ofcom認為智慧聯網並未直接規定於現有的管制中,例如智慧電網設施之高度安全與防護範圍應涵括私人網路;故,應評估必須規定於法律中的智慧聯網網路與服務種類,以達完善防護。   再者,關於智慧聯網可用之頻譜議題,著重於用於智慧聯網之技術須改進。目前使用之頻譜在2.4和5GHz(此頻譜亦用於Wi-Fi服務);而未來的設施也可能使用到1GHz以下的頻譜,同時Ofcom也說明其將來僅會監視頻譜的利用,而不會開放新的可用頻譜。   最後,在電話號碼與網址管理方面,就智慧聯網設施之網際網路協定,未來可能會從IPv4發展成為IPv6也是相當重要的。Ofcom認為未來智慧聯網可能會發展成一個「相當大數量且顯著的設施」,故採用IPv6將顯得更為重要;然,就目前而言,英國採用IPv6之情況系落後於其他國家的。   Ofcom現正致力於發展新的頻譜管制、數據隱私、網路安全與網址等管制,殊值得繼續觀察以俾利我國智慧聯網管制與發展。

澳洲提出《2023年法定聲明修正法案》,將正式認可數位化法定聲明的效力

澳洲眾議院在2023年9月提出了《2023年法定聲明修正法案》(Statutory Declarations Amendment Bill 2023),法定聲明(statutory declaration)是大英國協法體系中的一種法律行為,效力相當於宣誓,以確認聲明人聲明內容為真。如受雇者可以法定聲明的方式聲明自己的工作經歷屬實,以做為受雇資料不全時的補充。該修正案將使數位方式(digital execution)進行的法定聲明和傳統書面形式具有相同效力。 澳洲政府在Covid-19期間,為了因應疫情對於整個社會的衝擊,在實體接觸困難的社會環境下導入大量臨時措施,但是這些臨時措施將會於2023年12月31日時效到期後失去效力。 本次的修正案除了將允許電子簽名(electronic signature)和視訊見證(video-link witnessing)等數位形式作為進行法定聲明的方式外,亦進一步規定只有在經過核可並且授權的數位平臺(如myGov)才可以進行有效的數位法定聲明。除此之外,使用者也需通過這些線上平臺的身分驗證(如myGovID)後才能使用這一服務,以確認法定聲明發表人的身份並確保該聲明之效力。 為了確保透明和釐清平臺的責任歸屬,該法案除了對數位平臺進行隱私、資安和防詐騙的規範外,亦禁止數位平臺儲存或保留使用者法定聲明的副本,因為這些法定聲明可能都含有高度敏感的個人資訊。 該法案的目的並非要完全取代傳統書面紙張在法定聲明中的地位,而是為了澳洲人民在做成法定聲明時提供另一個不受到地理、實體限制的選擇,這種改變讓個人和企業藉由數位化平臺快速且不受實體距離影響完備所需的法律文件,使他們能夠便捷的享有那些需要法定聲明的政府服務。 澳洲政府為了因應社會變遷及數位時代的來臨,在法律體系中賦予數位形式明確效力,並且嘗試建立起可信賴的數位平臺與路徑,其制度設計及後續影響,可以作為我國推動國家數位轉型時的參考。

美國白宮發佈「AI應用監管指南」十項原則

  美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。   這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標: 一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。 二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。 三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。   這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。

TOP