智慧財產權管理標準之建立-由管理系統標準談起(下)

刊登期別
第15卷,第11期,2003年11月
 

※ 智慧財產權管理標準之建立-由管理系統標準談起(下), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=304&no=64&tp=1 (最後瀏覽日:2026/01/19)
引註此篇文章
你可能還會想看
歐盟「永續經濟活動分類規則」(Taxonomy Regulation)

  自從2004年聯合國發布之「Who Cares Wins」文件首次提及ESG原則,近年來國際企業不斷倡導ESG原則,即企業針對環境(Environmental)、社會(Social)、公司治理(Governance)三大面向之要求。歐盟從一開始倡導呼籲企業遵守ESG原則的階段逐漸發展為將ESG原則融入具有法律效力之規範。目前歐盟針對ESG原則擁有兩大基石,也就是2019年11月頒布的「歐盟永續財務揭露規則」(Sustainable Finance Disclosure Regulation)以及2020年6月頒布的「永續經濟活動分類規則」(Taxonomy Regulation)。   「永續經濟活動分類規則」係起源於歐盟委員會於2018年3月發布之「歐盟關於金融永續發展行動計畫」。直到2020年6月,歐洲議會與歐盟理事會終於共同公布「永續經濟活動分類規則」,該法規的目的為:為歐盟建立一個統一通用的法律框架,以分類經濟活動是否具有環境永續性。該法規規定所有金融商品都必須根據該分類規則進行分類。對於宣佈具有環境永續性之商品,皆必須揭露如何適用分類規則以及符合該分類規則;而針對不符合環境永續性之其他商品(包括那些具有ESG目標但不具備環境永續性的商品)將必須提出聲明該金融商品未符合歐盟的永續經濟活動分類規則。   而針對金融商品是否具備環境永續性,需視其是否對於下列事項作出重大貢獻。例如:減緩氣候變化;適應氣候變化;水和海洋資源的持續利用和保護;發展可循環性經濟;污染防治;生物多樣性和生態系統的保護和恢復。   「永續經濟活動分類規則」雖然於2020年6月公布,並於同年7月12日生效,但其中許多重要規定仍尚未明文,須待後續授權之施行細則規範。重要時程如下: 2020年12月31日通過就氣候相關目標的科技篩選標準之施行細則。 預計於2021年12月31日通過就所有其他環境相關目標的科技篩選標準之施行細則。 預計於2022年1月1日達成氣候相關之目標。 預計於2023年1月1日達成所有其他環境相關之目標。   隨著歐盟「歐盟永續財務揭露規則」以及「永續經濟活動分類規則」的發展,逐漸將ESG原則融入法規中,可以明顯看出國際間對於ESG原則愈發要求。我國金管會亦跟隨國際潮流,於2020年8月公布之「綠色金融行動方案2.0」提及永續金融之概念,是以,我國企業亦應著重企業自身針對ESG原則之要求,以與國際趨勢接軌。

延長專利保護對產業研發創新的效應思考-兼談專利法修正草案第54條

全球創新指數顯示創新活動在疫情期間仍持續增長

  今(2021)年10月發布的2021年全球創新指數(GII)報告反映了創新如何塑造和維持世界的運作,最明顯的例子就是COVID-19疫苗的快速發展。此外,數位創新也提供了公部門和私部門應對大流行病浪潮的解決方案,例如接觸者追踪工具、應用程序和診斷方法等。   實際上在2020年9月,也就是COVID-19被宣佈為大流行病的六個月後,第13屆年度GII就預測了未來一年的研發支出將保持強勁。儘管大流行病造成了毀滅性的人員傷亡和經濟衝擊,但研發支出、智慧財產權申請和創業投資(VC)交易都在大流行病前的高峰上持續增長。   在2021年的GII報告中提到,在全球研發支出前2,500名的企業中,約有70%已發布了2020年的研發支出數據,從數據中可發現在2020年整體大約有10%的研發支出增長,且大約60%的企業聲稱其研發支出增加。在智慧財產權方面,向世界智慧財產權組織(WIPO)提交的國際專利申請在2020年創下歷史新高。2020年專利申請在醫療技術、製藥和生物技術呈現明顯增長,與前幾年形成鮮明對比,當時數位通信和電腦技術是增長最快的領域。與健康相關領域的專利活動反映了大流行病期間科學活動的持續增長,且鑑於最近醫療保健與加速數位化的研發突飛猛進,可以預期這些領域的專利申請將在未來幾年繼續強勁增長。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP