歐盟執委會針對研究發展與創新通過新的國家補助綱要架構(state aid Framework for Research, Development and Innovation)

  根據歐盟條約,國家補助的行為原則上為條約所禁止,例外須經歐盟執委會核准。為使會員國得以事先瞭解哪些行為會被認為符合共同市場的精神,歐盟執委會在11月22日針對國家補助規則,通過了「研究發展與創新綱要架構」(Community framework for state aid for research and development and innovation,以下簡稱為R&D&I Framework),期能加速此類案件的審理效率。新綱要架構規定預計自2007年1月1日起開始生效適用。


  根據新的綱要架構,會員國在規劃其國家補助措施之際,仍有義務通知執委會,經執委會確認或核准後,始符合歐盟相關法制。不過執委會認為,會員國在規劃國家補助措施時,如能依循綱要架構的指導說明,將可加速執委會的作業,提升審查效率。


  過去僅有研發補助可例外被認為符合歐盟條約之精神,惟根據新的綱要架構,除了研發補助以外,創新補助亦是可以獲得豁免管制者。此外,綱要架構對特定有助於研究發展與創新的國家補助措施類型,提供了詳細的指導原則說明,這類國家補助措施可以帶動私人企業的研發與創新投資,有助於經濟成長與就業,因而可提升歐盟的競爭力。


  R&D&I Framework同時也允許會員國視其國內發展狀況與特殊條件,設計符合該國之補助措施,前提是要符合可矯正特定市場失靈的檢視要件,且其所設計的措施可能帶來的優惠超出補助對競爭可能造成之損害。


  另新綱要架構也指出阻礙研發與創新的主要市場失靈的因素如下:知識外溢(knowledge spill-overs)的效果有限、資訊不足與不對稱(imperfect and asymmetric information)、缺乏協調與網絡建構(coordination and network failures)。此外,新綱要架構中亦針對各類行的國家補助措施,逐項為會員國解說如何妥善運用,以符合補助規則(state aid rules)。這些政策措施如下:

●研發計畫(aid for R&D projects);
●技術可行性之補助研究(aid for technical feasibility studies);
●對中小型企業智慧財產權費用給予補助(aid for industrial property right costs for SMEs);
●對新創事業提供補助(aid for young innovative enterprises);
●對服務流程及組織功能創新所提供之補助(aid for process and organisational innovation in services);
●對智慧財產提供諮詢或支援服務之補助(aid for innovation advisory services and for innovation support services);
●對中小型企業因晉用高級專業人員所需之貸款提供融資的補助(aid for the loan of highly qualified personnel for SMEs);
●對創新育成事業提供的補助(aid for innovation clusters)。
新的綱要架構同時希望可以改善歐盟對國家補助的管控機制,集中資源於管理對可能破壞競爭的案件,故綱要架構對於具有高度破壞競爭與交易風險的鉅額案件,詳細說明了執委會如何進行個案評估。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟執委會針對研究發展與創新通過新的國家補助綱要架構(state aid Framework for Research, Development and Innovation), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=518&no=64&tp=1 (最後瀏覽日:2025/12/13)
引註此篇文章
你可能還會想看
歐盟將公布精準醫療國際合作發展倡議

  歐盟於2016年5月公布將成立個人化醫療國際聯合會(International Consortium for Personalised Medicine, IC PerMed),並草擬發展倡議。其成立背景為目前用來治療大部分病人之一般藥品效果未如預期,且因藥物嚴重副作用導致需急性醫療入院情形,約超過60%之比例。此外,歐盟的醫療照護成本將隨著人口老化以及慢性疾病增加而加重。個人化醫療具有特定預防目的以及治療方法,因此,病人利用最佳的治療方是,可避免試驗與治療錯誤之問題。個人化醫療是一個快速成長的市場,歐洲醫療照護產業具有發展潛力,並同時帶來經濟成長與就業機會。   歐盟認為,儘管個人化醫療尚未有明確定義,但依據Horizon2020諮詢小組(Horizon 2020 Advisory Group)定義為利用個人表現型或基因型特徵之醫療模型,針對正確的個人、治療時間,以明確的醫療政策為目標進行診治,或者是找出疾病特徵給予即時的預防。其中,重要部份在於,個人化關注的不僅是藥品或醫療產品,尚需對於生物機制以及環境與疾病、健康之間的交互作用等進行瞭解是否影響整體的健康照護。雖然歐洲部分國家已經開始引進個人化醫療,但實際上歐洲仍處在早期執行階段,尚待更多的研究開發。   為此,歐盟執委會與部分健康研究機構以及決策組織團體等共同合作,決議成立個人化醫療國際聯合會,目標為2016年底之前開始此項計畫。歐盟執委會與IC PerMed組織成員合作,將進行以下事項: 1.將歐洲建立成為全球個人化醫療研究領導者地位 2.透過合作研究支持個人化醫療醫學 3.將個人化醫療的利益展現於民眾以及醫療照護體制 4.為精準醫療提供給民眾做好準備   IC PerMed將聚焦在研發補助與合作,以實現上述所設定之任務。目前,IC PerMed正研擬發展倡議藍圖。依據草擬之藍圖,IC PerMed將提供各組織成員之間彈性合作架構。藍圖主要建構於個人化醫療歐洲願景(Shaping Europe’s Vision for Personalised Medicine)之相關文件,該文件屬於政策研發議程(Strategic Research and Innovation Agenda, SRIA)之一部分,同時為先前歐盟所補助之PerMed(2013~2015)計畫範圍之一。依據PerMed SRIA,發展可區分為五項領域,包括: 發展過程與結果、整合巨量資料與ICT解決模式、將基礎轉為臨床研究、將研發鏈結市場、以及形成延續性的醫療照護體系。未來,IC PerMed發展倡議藍圖將依上述五個領域建構,並在2016年底預計公布第一部分的施行願景。

英國資訊委員辦公室(Information Commissioner’s Office,ICO)認定Uber違反《Data Protection Act 1998》資料保護法

  英國資訊委員辦公室(Information Commissioner’s Office,ICO)認定知名共享公司Uber未能在網路攻擊期間保護客戶的個人資料,故處以罰款385,000英鎊。   ICO調查發現Uber的諸多過失,包含系統存有一系列原可避免的數據安全漏洞,使得攻擊者可透過Uber美國母公司旗下所營運的雲端儲存系統,下載大約270萬筆英國客戶個人資料,例如全名、電子郵件及電話號碼等。該事件亦影響了Uber在英國8萬多名司機的相關營運紀錄,如旅程詳情及支付金額。然而,受影響的客戶和司機竟達一年多未被告知此個資外洩事故。相反的,Uber反而向攻擊者妥協並支付了10萬美元,以銷毀被盜取的數據。   ICO認為,這不僅為Uber資料安全之問題,且當時未採取任何措施通知可能受影響的人,或對其提供任何協助,已完全忽視受害客戶和司機之權益。而對攻擊者支付贖金後即保持沉默,亦非對於網路攻擊之適當反應,Uber未完善的數據保護措施,以及隨後的決策與行為,反將可能會加劇受害者權益的受損。   因此,ICO認為該事件已嚴重違反了英國1988年資料保護法(Data Protection Act 1998, DPA)第7條的原則,有可能使受影響的客戶和司機面臨更高的詐欺風險,故從嚴判處Uber高達385,000英鎊罰款。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

香港CEPA第三次補充協議關於知識產權保護之內容與影響

TOP