中國大陸商務部頒布《阻斷外國法律與措施不當域外適用辦法》維護國際經貿發展權益

  中國大陸商務部於2021年1月9日公布《阻斷外國法律與措施不當域外適用辦法》(商務部令2021年第1號,簡稱《辦法》),以保護中國大陸公民、法人或其他組織的合法權益,不受他國法律與措施的不當侵害。過去,美國等國家透過出口管制推行單邊主義,限制中國大陸企業的國際經貿活動空間,顯示外國法律與措施的不當域外適用,對中國大陸經濟發展造成不利影響。《辦法》因此借鑒歐盟於1996年制定《抵制第三國立法域外適用效果及行動條例》(Council Regulation (EC) No 2271/96)的立法經驗,拒絕承認外國法律和措施的域外效力,以維護國際經貿發展權益。《辦法》由國務院商務部負責評估和確認外國法律與措施是否存在不當域外適用情形,發布「不得承認、不得執行、不得遵守有關外國法律與措施禁令」;中國公民、法人或者其他組織若因外國法律與措施的域外適用遭受重大損害,得向中國法院提起訴訟,要求獲益當事人賠償損失,以此作為中國大陸對外貿易之必要反制措施。《辦法》所建立的阻斷工作機制架構說明如下:

  1. 及時報告:依據第5條,中國大陸公民、法人或其他組織遇到外國法律與措施不當域外適用,即禁止或限制其與第三國(地區)開展正常經貿及相關活動者,應在30日內報告。
  2. 評估確認:依據第6條,關於外國法律與措施是否存在不當域外適用情形,商務部應結合各種因素進行評估確認。
  3. 發布禁令:依據第7條,經評估確認外國法律與措施存在不當域外適用情形,商務部得發布「不得承認、不得執行、不得遵守有關外國法律與措施的禁令」。第8條,亦由商務部負責「豁免遵守禁令」申請案之否准。
  4. 司法救濟:依據第9條,因外國法律與措施的不當域外適用遭受損失,中國大陸公民、法人或其他組織可在中國大陸國內法院起訴並請求損害賠償。
  5. 處罰制度:依據第13條,對違反如實報告義務和不遵守禁令之行為,給予相應警告、責令限期改正,並根據情節輕重處以罰款。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 中國大陸商務部頒布《阻斷外國法律與措施不當域外適用辦法》維護國際經貿發展權益, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8624&no=55&tp=5 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
歐盟公布人工智慧白皮書

  歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。   在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。   而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。

歐盟提出先進製造先進歐洲報告與行動方針

論數位經濟下研究報告開放近用及著作權例外國際新發展

澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP