美國國防部(Department of Defense, DoD)於2024年6月25日發布「關鍵點:國防部資訊技術發展戰略」(Fulcrum:DoD Information Technology (IT) Advancement Strategy),將持續促進DoD之IT變革,並為未來奠定基礎。
本戰略描述作戰人員在推動IT方面應達成之目標與重要性,並列出提供聯合作戰IT能力、資訊網路與運算現代化、最佳化IT治理、栽培第一數位人力等四大目標(Line of Effort, LOE),簡述如下:
(1)提供聯合作戰IT能力(Provide Joint Warfighting IT Capabilities):在現今不斷變化且充滿競爭的全球環境中,該目標以使用者為中心,提供具功能性、可擴增、永續且安全之IT功能。並以改善作戰人員可用資訊為重點,以利在快節奏、多領域(multi-domain)作戰中獲得決策與競爭優勢。
(2)資訊網路與運算現代化(Modernize Information Networks and Compute):該目標著重於迅速滿足任務與商務需求,利用卓越技術與以資料為中心的零信任(Zero Trust)資通安全方法,提供安全且具更快資料傳輸速度、更低延遲與高度彈性的現代化網路。
(3)最佳化IT治理(Optimize IT Governance):該目標將提高傳送效率、節省成本,且透過從治理到資料獲取系統的簡化政策,以轉變治理制定更好的決策,包括使用強大資料功能。
(4)栽培頂尖的數位人才(Cultivate a Premier Digital Workforce):該目標將確保作戰人員為新興技術之布署做好準備,並持續致力於識別、招募、發展並留住最佳數位人才。其擴展DoD網路人力框架(DoD Cyber Workforce Framework, DCWF),著重於更廣義的數位人力,包括資料、人工智慧、軟體工程的工作角色。
本文為「經濟部產業技術司科技專案成果」
德國聯邦經濟事務暨能源部(Federal Ministry for Economic Affairs and Energy)於2020年1月24日提出反競爭-數位化法草案(GWB-Digitalisierungsgesetz),主要係針對競爭法相關規範進行修正、調適,意在解決數位經濟中濫用市場地位、權力不平衡之問題。因大型數位公司和營運平台往往擁有大量的用戶資料而居於市場優勢支配地位,將阻礙、影響到其他新進公司的整體競爭和創新發展。 從而,數位經濟時代的競爭政策需要有適當的競爭規則和監管手段,以便強化有效的市場競爭,本草案進一步擴大德國競爭監管機關(Bundeskartellamt)的職權,目的在嚴格監管濫用市場力量之大型數位公司和平台營運商(如FACEBOOK、GOOGLE等),同時增加競爭對手的市場創新和共享資料存取的機會,確保相關規定與執法達到適當平衡。 茲將該草案擬修正之主要內容,重點整理如下: 禁止大型數位公司刻意阻礙用戶將其個人資料移轉至其他數位服務提供者的限制競爭行為-促使用戶更易選擇轉換到其他平台,使德國競爭監管機關在判斷數位公司是否涉及限制競爭行為時,有更明確的介入依據。 提出有關濫用(abuse)的新概念,係針對「在跨市場競爭上具顯著影響」之公司(paramount significance for competition across markets),並賦予德國競爭監管機關新的干預權限-在評估時,德國競爭監管機關不僅會考慮單一市場,也會透過規定的要件檢視整體市場(例如:該公司在一個或數個市場上的主導地位、財力、對資料或其他資源的存取、垂直整合)。若競爭監管機關發現該公司雖尚未在市場上取得主導地位,但依其判斷已經對於跨市場競爭具顯著影響性,除有正當理由外,原則上可以提出命令,並禁止該公司繼續進行特定行為。 提出「中介力量(Intermediation power)」的概念—對於依賴中介者(Intermediaries)(例如多樣化數位平台)提供產品或服務的企業而言,中介者對於控制市場的進入具有一定程度之影響力。由於這種影響力可能遭濫用,因此草案中引入「中介力量」的概念,擴大數位服務提供者市場力量的評估標準,需考量中介者對於市場進入的影響性。 重新定義和擴大關鍵設施原則(Essential Facility Doctrine)之規定—關於是否應強制公司授予對資料的同意存取權及如何規範這種存取權限,存在爭議,為了強化競爭法的存取權,草案擬重新定義和擴大關鍵設施原則的規定,使其他公司可向居於市場優勢地位的企業要求開放資料、網路或其他基礎設施的存取權限以開展業務,否則將阻礙競爭。 濫用相對市場力量(relative market power)原則之擴大適用—現行法雖規範具有相對市場力量之公司不得濫用此地位,但此原則僅適用於對中小型企業的保護。因此,草案希望擴大保護大型公司,避免其受到傳統或數位平台的濫用行為所影響。因為資料的使用對於在數位經濟中提供相關服務、創新和競爭而言相當重要。 賦予競爭監管機關充份權限以避免市場獨占(monopoly)發生—現行法下若已經有一定規模但尚未具主導地位的公司試圖以反競爭行為(anti-competitive manner)引發市場傾銷(tipping of the markets)時,競爭監管機關並無權干預。草案則擬賦予競爭監管機關在公司居於主導優勢地位前介入的權利。又,為因應數位市場變化,並使競爭監管機關可即時介入,草案在程序上擬放寬競爭監管機關為暫時性措施(Interim measures)的要件。 針對企業併購之新規範—擬規範小型公司之連續併購(Successive acquisition)以及「殺手併購」(killer acquisitions)行為,係因現行法對於前者之交易情形並未規範需要通知主管機關,而有致市場壟斷之虞,因此於草案中擬為規範;後者則是考量此惡意的手段係透過阻礙新創公司對其創新產品的研發,以達到避免與收購方自身產品競爭之目的,因此草案擬增訂規範予以限制。 該草案目前預計將於2020年下半年通過,使德國競爭監管機關在數位經濟領域針對數位公司和平台營運商的執法上有所變化,後續值得留意。
歐盟執委會提出ESG評鑑機構監管草案,以健全歐盟永續金融市場歐盟執委會(European Commission, EC)於2023年6月13日發佈「環境、社會與治理(ESG)評鑑透明度與誠信的規則草案(Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on the transparency and integrity of Environmental, Social and Governance (ESG) rating activities,下稱本草案)」,以健全歐盟永續金融市場。 ESG評鑑係指評鑑機構向投資者和金融機構提供有關ESG的投資策略和風險管理等關鍵資訊,在歐盟永續金融市場扮演重要角色。因此本草案提出評鑑機構治理與利益衝突防免的規範,確保ESG評鑑機構誠信營運、提升評鑑的可靠性和透明度、並協助投資者作出更明智的永續投資決策。本草案要點如下: (1)授權許可:ESG評鑑機構原則上須取得歐洲證券與市場管理局(European Securities and Markets Authority, ESMA)的授權許可,始得於歐盟境內經營ESG評鑑業務。如為第三國ESG評鑑機構,則須申請取得同等認定(equivalence decision)後始得在歐盟經營ESG評鑑業務 (2)評鑑機構內部治理:要求ESG評鑑機構確保其獨立性、建立申訴處理機制、限制評鑑機構兼營金融與稽核業務等 (3)提升評鑑透明度:要求ESG評鑑機構公開揭露方法論、模型、主要假設與技術標準等 (4)授予ESMA監管權力:ESMA得要求評鑑機構與相關人士提供資料、詢問評鑑機構代表或職員、甚至實地查核等措施;就違反規定的評鑑機構,ESMA亦有要求暫停營運、課予罰鍰以及撤銷經營許可的權力
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。