本文為「經濟部產業技術司科技專案成果」
美國拜杜法案修改由美國商業部的國家標準暨技術研究院(National Institute of Standards and Technology;簡稱NIST)於2018年5月14日發布生效,美國各界稱此次修法案為新拜杜法或是2018拜杜法(new Bayh-Dole Act Regulations)。除此之外;國家衛生研究院(National Institutes of Health;簡稱NIH)也於同年10月公布對應修正的研發成果經費資助政策,並調整IEdison系統以符合新法規。本次修法釐清多項定義、減低法規負擔、解決受資助單位與資助單位共有發明的問題、簡化電子控管程序。修法內容簡要說明如下: 適用範圍不限組織規模,包括非營利機構、小企業、個人,並擴及大企業。 若聯邦雇員是研發成果的共同發明人,其所有權由聯邦資助單位擁有。 一連串時間修正。包括(1)聯邦政府取得研發成果所有權改為無時間限制(原來是60天)。(2)研究機構須在專利申請期限60天前回復聯邦不申請專利的決定(原來是30天)。(3)美國臨時案申請轉為正式專利申請案的時限改為10個月,因為還需要加上提前60天通知聯邦機構不申請專利。 研究機構有權在工作合約要求職員將研究發明權利讓與給研究機構。 最初專利申請的範圍擴及PCT申請以及植物發明品種申請(原本僅限專利申請以及臨時案申請)。
中國大陸公布專利法修正草案對外徵詢意見中國大陸國家知識產權局於2015年4月1日,公佈第四次《中華人民共和國專利法修改草案(徵求意見稿)》,其中涉及實質性修改條文共30條,包括修改現有條文18條、新增11條、刪除1條,並增加「專利的實施和運用」章。 具體修改重要內容包括: 一、強化外觀設計保護:1、產品局部外觀設計納入專利法保護範圍。2、增加外觀設計專利國內優先權制度。3、將外觀設計專利權之保護期限由10年延長到15年。4、鑒於實用新型和外觀設計專利權的授予沒有經過實質審查,具有不穩定性,草案增訂「專利權評價報告」作為侵權糾紛審理和處理過程中必須提交的「證據」,當事人無正當理由不提交,需自行承擔訴訟上不利後果。 二、提升發明人地位:1、草案規定「利用本單位物質技術條件完成的發明創造」,權利歸屬優先適用約定原則,若未約定時,申請專利權利歸屬於發明人或設計人。2、為解決國家設立之研究機構、高等院校專利技術移轉率低問題,允許發明人或設計人在單位怠於實施發明情形下,可與單位協商自行實施或者授權他人實施該專利,並按照協議享有相應權益,藉以激勵發明人積極進行技轉實施。 本次意見徵集時間已於4月28日截止,上述強化外觀設計保護及發明人地位作法,得否順利通過,有待後續持續追蹤。
標準制定組織成員之專利揭露義務標準制定組織為了提高產業競爭,防止標準制定組織之會員們,在獲得涵蓋產業標準的專利權後,以壟斷性手段壓迫其他競爭對手,故通常會以智慧財產權政策要求參加的會員揭露其被標準制定組織選擇寫入標準的專利。其重要內容通常包括: 1. 必要專利揭露 許多標準制定組織皆有規定,標準必要專利權人應依以誠實信用及適當方式進行揭露之義務,例如IEEE及ETSI 。即對於討論中的技術標準,必須對標準制定組織及其參與者公開揭露所持有的必要專利。揭露的基本目的主要有三項 : (1) 使標準開發相關工作小組會員可以掌握納入標準之多項候選技術的基本資訊(例如專利技術價值、成本及可行性等等),並做出適當選擇。 (2) 藉此得知須提出授權聲明或承諾的必要專利權人。 (3) 藉此讓必要專利的潛在實施者得知應向那些必要專利權人獲取必要專利相關資訊。 2. 事前揭露授權條款(ex-ante disclosure of licensing terms) 事前揭露授權條款係一種受保護之技術在被採納為標準必要專利前,將授權條件的揭露的機制,目前IEEE及ETSI採行自願性揭露方式。與必要智財權的揭露及授權聲明不同,其主要的目的在於讓標準制定委員會將技術採納為標準前,可以根據所揭露的授權條件來決定有那些技術在符合權利人授權條件下,有哪些技術可以納入標準,又有哪些不同替代技術,並據以作成決定 。
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。