台日為促進5G導入創設優惠稅收待遇制度

  日本自民黨(目前執政黨)稅制調查會於去(2019)年12月12日公布「令和2年度稅制改正大綱」,並於同年12月20日經閣議決定,創設促進5G 導入稅制,決定對正在開發通訊網絡的行動通訊廠商,給予優惠稅收待遇。預計於今(2020)年通過「促進特定高端資訊通信等系統普及相關法律(暫定)」,於該新法施行日至2022年3月31日期間,受認定為「導入事業者(暫定)」之法人,導入符合「認定導入計畫(暫定)」之5G系統,取得5G系統設備並將其用於日本國內事業時,可選擇特別抵免取得價格的30%,或稅額扣除取得價格的15%,扣除上限額為法人稅額的20%。

  我國於去(2019)年10月24日發布實施「公司或有限合夥事業投資智慧機械或第五代行動通訊系統抵減辦法」,亦規定有國內企業導入5G系統之抵減辦法,適用對象為同一課稅年度支出總金額100萬元以上,不逾10億元為限,可選擇支出金額5%抵減當年度應納營所稅額,或3年內支出金額3%抵減各年度應納營所稅額,抵減上限為當年度應納營所稅額30%,合併適用其他投資抵減時,當年度應納營所稅額50%。

  我國與日本均可望透過優惠稅收待遇制度,促進5G 導入。隨著在地化5G的導入,預計可利用於工廠生產線自動控制和農產品效率化生育管理等智慧化資通訊系統,以促進智慧工廠或智慧農業的落地普及。

相關連結
相關附件
※ 台日為促進5G導入創設優惠稅收待遇制度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8395&no=67&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
美國專利標示不實之罰金計算

  美國聯邦巡迴上訴法院在2009年底於The Forest Group Inc. v. Bon Tool Co. 一案中將美國專利法35 U.S.C. § 292中關於不實專利標示(false patent marking)的懲罰金計算方式認定為罰金之計算是以每一個標示錯誤專利資訊的產品為基礎。美國專利法35 U.S.C. § 292中要求法院對專利資訊標示不實或錯誤之產品或包裝處以最高美金$500的罰金。在此案之前,許多地方法院將35 U.S.C. § 292解釋為罰金之計算是以每一次被告”決定”將產品標示不實專利資訊為基礎 (single penalty for each “decision” to falsely mark products),不論此決定是包含一個或一整批產品。在本案中,聯邦巡迴上訴法院同意地方法院的看法認定被告Forest Group意圖藉不實專利標示企圖欺騙大眾但撤銷地方法院將罰金定為$500之判定,而將目前專利法35 U.S.C. § 292 解釋為罰金是以”每一個”標示錯誤專利資訊的產品為基礎 (penalty for false marking on a per article basis)。   為了防範日後因此案罰金計算方式而造成所謂”標示流氓”(marking trolls) 之興起,聯邦法院於其判決中特別說明其解釋並非要求法院必須將每一標示錯誤專利資訊的產品處以$500美元的罰金。因法條中之罰金是以美金$500為上限,法院有權利權衡各案例背景決定罰款金額。例如,針對大量製造但價錢低廉的產品, 法院可對每一個產品處以極少的罰金。   The Forest Group 一案是美國聯邦巡迴上訴法院第一次針對不實專利標示之罰金提出解釋,直得關注其後續引發反應。廠商也應重新檢視其產品專利標示是否有不實或錯誤之狀況以避免被控標示不實專利資訊而被處以罰款。

新加坡個資保護法責任指南

  新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)的基本原則之一在於可歸責性(Accountability)之建立,原因在於個資保護的責任歸屬,是組織對個資的持有與控制所為的承諾與責任表示。因此,PDPA第11、12條之法遵責任,組織必須對所持有或控制的個資負責,並且需制定並實施資料保護政策、溝通並告知員工相關政策、及履行PDPA義務所必須施行之流程與作法。於組織責任而言,PDPA雖有強制性義務責任,但應忖量組織內部責任歸屬的措施,而非僅將責任落於遵守法律的程度,組織必須從合於法規的方法轉為基於責任歸屬的方法來管理個人資料。   從而,該指南在政策、人員、流程等領域中透過資料生命週期的循環,確立組織責任歸屬。從落實良好的責任制始於組織領導力的概念出發,設定組織管理高層之職責與調性,繼而規劃處理個資及管理資料風險的方法。並由組織人員治理面向,確立溝通資訊與員工培訓知識與資源。除此之外,也在特定流程設置上,紀錄個人資料流動,了解如何收集、儲存、使用、揭露、歸檔或處理個人資料為流程的首要任務,繼而確認資料保護層面主要的差距與需要改進的領域。再將資料保護實踐於業務流程、系統、商品或服務。

德國聯邦議院通過能源效率法,節能目標將入法

德國聯邦議院於2023年9月21日通過《能源效率法》(Energieeffizienzgesetz, EnEfG)草案,確立德國能源效率目標,並規範公部門及企業的具體效率措施,及首次定義資料中心的能效標準,本法並要求德國2030目標應符合歐盟能源效率指令(EU Energy Efficiency Directive, EED)。預計聯邦參議院將在10月底審議該法律,之後將盡快生效。本次修法重點如下: 1.能源效率目標:EnEfG規定2030年德國減少初級和最終能源消耗的目標,以及2045年減少最終能源消耗的目標。以最終能源消耗而言,此代表著2030年減少約500TWh(與目前水準相比)。未來,聯邦政府將在立法期開始時,定期向聯邦議院通報目標實現情況,並在必要時決定調整工具組合。 2.聯邦及各邦的節能義務:從2024年起,聯邦政府和各邦政府有義務採取節能措施。至2030年,聯邦及各邦的最終能源消耗每年各分別節省45TWh和3TWh。 3.公部門在節能減排方面樹立榜樣:為了使聯邦和邦層級的公部門在提升能源效率方面能做為表率,未來將導入能源或環境管理系統。此外,EnEfG也規定節能措施的實施,目標是每年最終能源消耗減少2%。 4.企業能源或環境管理系統:EnEfG要求能耗較大(超過平均7.5GWh)的企業導入能源或環境管理系統,最終能源消耗總量為2.5 GWh以上的企業,則需要在實施計畫中,記錄和公布節能措施。此種作法不僅提高能源消耗的透明度,同時也讓企業可自行決定導入哪些措施以及預計的成果。 5.資料中心的能源效率及餘熱要求:新的資料中心應遵守能源效率標準,還必須利用餘熱(Abwärme)。未來,所有大型資料中心營運商應使用再生能源電力,並於公共登錄冊中記載能源消耗的資訊,以及向客戶告知其具體能源消耗狀況。 6.餘熱的避免與利用:未來應盡可能避免生產過程中產生餘熱。如果無法避免,則應利用餘熱。此外,有關企業餘熱潛力的資訊將綁定並公布在一新平台上。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP