歐盟通過《外國補貼規則》並於2023年1月正式生效

  2023年1月12日,歐盟《外國補貼規則》(Foreign Subsidies Regulation, FSR)正式生效。其旨為歐盟欲有效打擊因領有外國補貼而具不公平競爭優勢之企業,以保護歐盟市場公平競爭。

  2021年5月5日,歐盟執委會(European Commission)提出《外國補貼規則》草案以防範上述企業在歐盟市場進行危害競爭之行為。該規則於2022年11月分別經歐洲議會(European Parliament)與歐盟理事會(European Council)通過後,同年12月23日刊載於歐盟官方公報,並於2023年1月正式生效。

  歐盟執委會於2023年2月6日公布《外國補貼規則》執行細則草案,詳細規範踐行企業併購及參與公共採購程序通知義務所應提交之資訊、調查期程及受調查企業之權利等。根據新規,執委會可調查非歐盟國家之企業財務補助(financial contribution)情形,就調查結果決定是否限制其在歐盟市場從事企業併購、參與公共採購以及其他可能影響市場競爭之經濟活動。

  若併購一方的歐盟營業額達5億歐元(€500 million),且外國注資達5,000萬歐元(€50 million),相關企業須向歐盟執委會報告。另外,執委會有權解除未履行通知義務但已執行之交易。而公共採購標案方面,標案金額預估達2.5億歐元(€250 million),且參與投標之企業受外國補貼達400萬歐元(€4 million),該企業即應通知執委會,執委會得禁止接受補貼之企業或違規者得標。

  歐盟執委會將考量利害關係人意見回饋後預計自2023年7月12日起實施,而部分通知義務將自同年10月12日起實施。

  本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
※ 歐盟通過《外國補貼規則》並於2023年1月正式生效, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8963&no=57&tp=1 (最後瀏覽日:2026/05/13)
引註此篇文章
你可能還會想看
歐盟在考量營業秘密對企業重要性下,通過兼顧重要資料保護的資料法法案,以推動資料經濟發展

歐盟理事會於2023年11月27日批准通過資料法法案(Data Act),該法案雖預計於2025年才會生效,該草案自2022年公告以來,各界對該法案都紛紛從不同角度表示意見,如企業對於資料共享是否對營業秘密外流的風險表達擔憂,歐盟在發揮資料經濟價值(資料交易與資料使用)的方向下,將業界考量納入進行修改,以下就經理事會通過之資料法法案關鍵影響概要如下: 1、資料共享 有鑑於因網路裝置/服務所產出的數位資料往往掌握於產品製造商或服務提供商身上,資料法建立了資料共享的基本規則,確保數位資料由製造商/服務商流動至第三人(包含產品/服務使用者),另資料法所保護之資料包含使用AI所產生之資料。 2、營業秘密保護 為避免資料持有人的營業秘密因此外流,資料持有人可以與請求提供資料的第三人(資料請求者)協議應採取之保密措施,在保密措施未達成一致或使用者未實施保密措施,資料持有人可暫停資料共享,在有重大經濟損失之虞時甚可拒絕資料共享。 3、對資料持有者的限制 資料持有者僅能在與使用者約定之範圍內使用資料,在無使用者許可下,不得用使用者所產出之資料去回推使用者的經濟、資產或生產等資訊,以避免損及使用者的商業地位。 資料法法案的主要目標在於塑造具競爭性的資料市場生態,確保資料的價值可公平分配到不同參與者身上,其聚焦在非個人資料的數位資料上,除適用於對歐盟提供產品/服務之廠商外,亦包含可於歐盟境內取得資料之情況。國內廠商宜先檢視自身商業行為與歐盟之關聯性,盤點現有產品或服務所產出的資料屬性,如可能需特別約定保密措施之營業秘密,預先規劃資料管理機制與對應管制措施,就重要資料或營業秘密管理機制可參資策會科法所公布之《重要數位資料治理暨管理制度規範(EDGS)》、《營業秘密保護管理規範》。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

固網業者路權取得相關問題之研究

基改種子與專利品銷售後使用限制之爭議-美國判決之觀點

TOP