韓國首爾高等法院第七行政庭(下稱:韓國高等法院)於2019年12月4日部分駁回高通對韓國公平交易委員會(Korea Fair Trade Commission,下稱:韓國公平會)提起的行政訴訟,高通仍需支付鉅額罰鍰。 韓國公平會於2016年12月28日,曾針對高通干涉數據機晶片組(Modem Chipset)的對手廠商之商業活動,進而破壞市場競爭一事,開出史上最高額的行政罰鍰共1.0311兆韓元。當時韓國公平會指出,高通的標準必要專利(Standards-Essential Patents, SEPs)授權不符合「公平、合理、非歧視原則」(Fair, Reasonable and Non-Discriminatory, FRAND),希望藉由開罰徹底矯正高通的商業模式,不讓高通透過該商業模式不合理地維持並擴張其數據機晶片的獨佔地位,進而壓迫數據機晶片業者(如:聯發科或英特爾)和手持裝置(Handset)業者。高通不滿韓國公平會之行政處分,逕向韓國高等法院提出撤銷行政處分之訴,並請求暫緩執行。然而,高通所提出的暫緩執行請求,於2017年11月27日即被韓國高等法院駁回。至於高通所欲提起的撤銷行政處分之訴,韓國高等法院則於本次駁回。 儘管韓國高等法院對韓國公平會的部分決議積極地表示贊同,並非照單全收,韓國高等法院於裁判要旨中指出:韓國公平會針對「全面性的專利組合授權」(Comprehensive Portfolio Licensing)請求矯正措施(Remedy)一事係屬違法,換言之,高通毋須逐一重啟授權談判。至於罰鍰和其他決議,韓國高等法院則認為有其合理性。
英國政府將設置兩個新的網路安全機關,以維護國家網路安全英國政府在考量保護政府機關及民眾免於網路安全之威脅下,設置了網路安全辦公室(Office of Cyber Security,OCS)及網路安全營運中心(Cyber Security Operations Centre,CSOC)兩個新的網路安全機關,並將於2010年3月正式運作。同時,內閣辦公室(Cabinet Office)發出聲明表示,英國政府將網路安全訂為21世紀政府的安全防護重點,並認為透過設置這兩個新的機關協助維護國家安全,將是達成這個目標的重要步驟。 在英國政府的規劃下,OCS設於內閣辦公室下,負責提供政府跨部會的資訊安全策略,並整合協調政府部門間網路安全之工作;CSOC則是設置於英國政府通信總部下(Government's Communications Headquarters,GCHQ),負責有效的監測網路空間之健全性並針對緊急事件提出應變措施、瞭解攻擊英國政府及使用者之技巧、提供對於企業及大眾有關網路安全風險應變之忠告與建議。內閣辦公室也表示,OCS將與移民署(Home Office)及警察局長協會(Association of Chief Police Officers,ACPO)合作,盡快制訂出有關防範網路犯罪之相關策略。 英國政府肯認網路安全對於政府在安全防護上的挑戰。因此內閣辦公室強調,網路安全防護策略之整合是重要的,其將透過企業,國際合作伙伴及民眾的力量,藉由專業知識及能力的提升、以及更為完善的策略,降低安全風險及發掘安全防護機會,發揮英國在網路安全防範之優勢。
經濟部選定八大產業發展綠色能源經濟部所擬定的「綠色能源產業發展計劃」可分為兩大領域,一是發展再生能源,如推動太陽光電、風力發電、生質柴油等,取代部分石化能源;另一則是透過節能措施減少使用化石能源的使用量,如生產LED照明、混合動力車輛等。 此發展計劃選定太陽光電、太陽能熱水系統、風力發電、生質柴油、氫能及燃料電池、LED照明、冷凍空調、混合動力車輛等八大產業為重點輔導對象,並擬利用貨物稅租稅工具、經費補貼政策及行政力主導等政策工具引導業界大力投資。透過給予進口混合動力車貨物稅減半、五千萬元以上公共工程須設置一定比例太陽光電設施等措施輔導業界投入。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。