經濟合作暨發展組織(下稱OECD)於2022年12月20日發布全球企業最低稅負制(即第二支柱,下稱最低稅負制)的「避風港與罰款免除規則」,再於2023年2月2日發布進階行政指引。系爭規則與指引旨在協助跨國企業降低法律遵循成本。
經蓋最低稅負制為防免跨國企業以稅捐規劃(如移轉訂價等方式)持續侵蝕稅基,透過實施補充稅(Top-up Tax)制度,並配合所得涵蓋與徵稅不足支出等原則,即向上或向下分配等方式,確保全球收入逾7.5億歐元的跨國企業及其所有經濟實體的個別有效稅率均不低於15%。
經上述補充稅制度看似簡單,惟其實施同時涉及各國相互合作與彼此補充稅間可能的零和遊戲,徵之各國境內稅捐制度調整、現有國際稅捐規則的淘換與新國際稅捐規則的建立等交互作用下,導致OECD與最低稅負制有關文件繁多,內容細項更不計可數,增添不確定性;另外,包含我國在內的許多國家均表示將於2024年起陸續實施全球企業最低稅負制,再增添急迫性。此不確定性與急迫性的雙重夾擊,致使受規範跨國企業法律遵循成本持續增加。
經準此,為避免最低稅負制不當限制跨國企業發展,甚至有害全球經濟,OECD提出避風港條款,使位於高稅負或低風險稅捐管轄區的跨國企業或其經濟實體得減免其補充稅或簡化其計算基礎等,提高補充稅制度確定性以協助降低跨國企業法律遵循成本。
澳洲國家交通委員會(National Transport Commission, NTC)2017年11月提出「國家自駕車實施指南(National enforcement guidelines for automated vehicles)」,協助執法單位適用目前道路駕駛法規於自駕車案例上。由於澳洲道路法規(Australian Road Rules)第297條第1項規範「駕駛者不得駕駛車輛除非其有做出恰當控制(A driver must not drive a vehicle unless the driver has proper control)」,此法規中的「恰當控制」先前被執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。因此本指南進一步針對目前現行法規適用部分自動駕駛系統時,執法機關應如何詮釋「恰當駕駛」內涵,並確認人類駕駛於部分自動駕駛系統運作時仍應為遵循道路駕駛法規負責。 本指南僅提供「恰當控制」之案例至SAE J2016第一級、第二級和第三級之程度,而第四級與第五級之高程度自動駕駛應不會於2020年前進入市場並合法上路,因此尚未納入本指南之詮釋範圍之中。本指南依照採取駕駛行動之對象、道路駕駛法規負責對象(誰有控制權)、是否應將一隻手放置於方向盤、是否應隨時保持警覺以採取駕駛行動、是否可於行駛中觀看其他裝置等來區分各級自動駕駛系統運作時,人類駕駛應有之恰當駕駛行為。
英國數位文化媒體暨體育部發布數位身分之公眾諮詢,發布法制政策回應並揭示相關原則英國數位文化媒體暨體育部(Department for Digital, Culture, Media and Sport, DCMS)2020年9月1日發布「數位身分:政府諮詢回應」(Digital Identity: Call for Evidence Response)文件,以回應過去英國政府曾於2019年7月向各界蒐集如何為成長中的數位經濟社會建立數位身分系統之意見。依據諮詢意見之成果,英國政府計畫調修現行法規,使相關身分識別流程以最大化容許數位身分之使用,並發展有關數位身分之消費者保護立法;立法中將特別規範個人之權利、如何賠償可能產生的侵害,以及設定監督者等相關內容。數位身分策略委員會(Digital Identity Strategy Board)並提出六項原則,以加強英國之數位身分布建與政策: 隱私:當個人資料被使用時,應確保具備相關措施以保障其保密性與隱私; 透明性:當個人身分資訊於使用數位身分產品而被利用時,必須確保使用者可了解其個資被誰、因何原因,以及在何時被利用; 包容性:當人們希望或需要數位身分時即可取得。例如不備有護照或駕照等紙本文件時,對於其取得數位身分不應產生障礙; 互通性(interoperability):應設定英國之技術與運作標準,使國際與國內之使用上可互通; 比例性:使用者需求與其他因素(如隱私與安全)之考量應可平衡,使數位身分之使用可被信賴; 良好監理:數位身分標準將與政府政策與法令連結,未來之相關規範將更加明確、一致並可配合政府對於數位管制之整體策略。
美國FDA為因應藥品汙染事故公告四項製藥新指導原則美國食品藥物管理局(the United States Food and Drug Administration,以下簡稱FDA)於2015年2月13日公告四項與藥品製造有關之指導原則(guidance)作為補充相關政策執行之依據,主要涉及藥品製程中,藥品安全不良事件回報機制、尚未經許可之生技產品的處理模式、藥品重新包裝,以及自願登記制度中外包設施之認定應進行的程序與要求。 該四項指導原則係源於FDA依據2013年立法通過之藥物品質與安全法(The Drug Quality and Security Act,以下簡稱DQSA)所制定之最新指導原則。因2012年位於麻州的新英格蘭藥物化合中心(The New England Compounding Center),生產類固醇注射藥劑卻遭到汙染,爆發致命的黴菌腦膜炎傳染事故,故美國國會制定DQSA,以避免相同事故再次發生。DQSA要求建立自願登記制度(system of voluntary registration),倘若製藥廠自願同意FDA之監督,成為所謂的外包設施(outsourcing facilities)。作為回饋,FDA即可建議特定醫院向該製藥廠購買藥品。 而本次四項指導原則之內容,其一主要涉及外包設施進行藥物安全不良事件回報之相關規定,要求製藥廠必須回報所有無法預見且嚴重的藥物安全不良事件。在不良事件報告中必須呈現四項資訊,其中包括患者、不良事件首名發現者、所述可疑藥物以及不良事件的類型。同時,禁止藥品在上市時將這些不良事件標示為潛在副作用。第二份指導原則對於尚未經許可的生技產品,規定可進行混合,稀釋或重新包裝之方法;並排除適用某些類型的產品,如細胞療法和疫苗等。第三份指導原則涉及重新包裝之規定,內容包括包裝地點以及如何進行產品的重新包裝、監督、銷售和分發等其他相關事項。而第四份指導原則規範那些類型之藥品製造實體應登記為外包設施。為此,FDA亦指出聯邦食品藥物和化妝品法(the Federal Food Drug & Cosmetic Act)之規定裡,已經要求製造商從事無菌藥品生產時,必須將法規針對外包設施之要求一併納入考量。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。