OECD就全球企業最低稅負制發布避風港規則

經濟合作暨發展組織(下稱OECD)於2022年12月20日發布全球企業最低稅負制(即第二支柱,下稱最低稅負制)的「避風港與罰款免除規則」,再於2023年2月2日發布進階行政指引。系爭規則與指引旨在協助跨國企業降低法律遵循成本。

經蓋最低稅負制為防免跨國企業以稅捐規劃(如移轉訂價等方式)持續侵蝕稅基,透過實施補充稅(Top-up Tax)制度,並配合所得涵蓋與徵稅不足支出等原則,即向上或向下分配等方式,確保全球收入逾7.5億歐元的跨國企業及其所有經濟實體的個別有效稅率均不低於15%。

經上述補充稅制度看似簡單,惟其實施同時涉及各國相互合作與彼此補充稅間可能的零和遊戲,徵之各國境內稅捐制度調整、現有國際稅捐規則的淘換與新國際稅捐規則的建立等交互作用下,導致OECD與最低稅負制有關文件繁多,內容細項更不計可數,增添不確定性;另外,包含我國在內的許多國家均表示將於2024年起陸續實施全球企業最低稅負制,再增添急迫性。此不確定性與急迫性的雙重夾擊,致使受規範跨國企業法律遵循成本持續增加。

經準此,為避免最低稅負制不當限制跨國企業發展,甚至有害全球經濟,OECD提出避風港條款,使位於高稅負或低風險稅捐管轄區的跨國企業或其經濟實體得減免其補充稅或簡化其計算基礎等,提高補充稅制度確定性以協助降低跨國企業法律遵循成本。

相關連結
你可能會想參加
※ OECD就全球企業最低稅負制發布避風港規則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8986&no=86&tp=1 (最後瀏覽日:2025/10/16)
引註此篇文章
你可能還會想看
InterDigital對聯想在英國高等法院提起4G標準專利之侵權訴訟

  InterDigital成立於1972年,主要從事無線通訊與視頻技術開發,其擁有超過32,000項專利,涵蓋3G、4G標準技術,但不實際生產相關硬體設備。許多國際知名無線通訊產品製造商皆為其專利授權對象,包含三星、蘋果、LG、Sony等。   2019年8月28日,InterDigital在英格蘭與威爾士高等法院(the High Court of Justice of England and Wales)起訴中國大陸電腦製造商聯想(Lenovo)侵害其4項有關4G技術之英國專利(UK2363008、UK2557714、UK2485558、UK2421318)。InterDigital聲稱聯想在其手機、筆記型電腦、平板電腦中使用其4G專利技術,且雙方已進行近10年談判,但仍未達成協議。InterDigital曾明確表示,其同意請第三方公正仲裁員小組確認其標準必要專利(SEP)授權條款是否符合公平、合理與非歧視性(FRAND)要件後,才提起訴訟。   InterDigital的起訴聲明包含,請法院確認InterDigital向聯想提供的全球授權條款與InterDigital的FRAND承諾一致,或定義InterDigital 3G、4G之SEP組合授權FRAND條款。InterDigital目前亦尋求類似先前Unwired Planet起訴華為(Huawei)一案之模式,期望透過英國高等法院裁定“FRAND禁售令”,以避免法院確認FRAND授權條款後,聯想若未按照該條款簽訂時,即可防止聯想在英國繼續侵犯其專利。聯想目前則未對於前述評論做出回應。   我國資通訊廠商容易涉及標準技術,需留意在進行SEP授權談判時,對於專利權人提出之條件應即時回應,若不同意對方提出條款,亦應提出更能符合FRAND宗旨之條款,避免後續訴訟產生。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

從美日共同侵權責任認定之實務發展談創新服務方法發明之專利布局策略

談我國基因改造生物田間試驗管理規範之現況與修正方向

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP