雖然微軟才針對「Internet Explorer」弱點「CVE-2012-1875」剛公佈修補程式不久,但針對「CVE-2012-1875」的為攻擊目標的網路攻擊正在發生。
因為作業準則(PoC)也已經公佈,有可能會發展成大規模的網路攻擊。日本IBM的Tokyo SOC也已經確認發生針對脆弱性的惡意攻擊,並將攻擊的報告公佈在該中心的部落格上。經該中心分析現在攻擊的範圍雖然「非常限縮」,但是標的型攻擊的可能性非常的高。 也正因為作業準則(PoC)也已經公佈,也將被預測到發生大規模攻擊,微軟也呼籲儘速下載修補程式對程式弱點進行修補,避免遭到攻擊 。
微軟針對「CVE-2012-1875」的弱點在6月13日每月定期公佈的資訊安全性更新程式「MS12-037」進行修補。在6月13日公佈的時間點雖然已經確認發生惡意攻擊的資訊安全安事件,也已經透過非公開管道向微軟報告,但微軟並沒有公開確認弱點的存在。
日本經濟產業省(簡稱經產省)於2025年3月5日發布《資安產業振興戰略》(サイバーセキュリティ産業振興戦略),目前日本大多使用海外製造的資安產品,且相當重視使用產品的實際體驗,進而導致日本國產資安產品難以銷售獲利,陷入缺乏資金開發投資的惡性循環,為求打破現狀促進日本資安產業發展,具體因應政策如下: 1. 創造有利資安新創企業進入市場的環境:彙整具有前景的資安新創企業名單,提供予政府參考,讓政府率先試行導入資安新創企業提供的產品與服務,展示實際使用資安產品與服務的成果,藉此提升資安新創企業知名度,降低其進入市場的難度。 2. 發掘具有潛力的技術及具市場競爭力之產品或服務:實施競賽形式的獎金制度,發掘可提升資安、解決問題,對社會具有貢獻的技術,並推動約300億日圓的研發計畫,促進技術實際落地運用,改善不利開發投資的環境。建立系統整合商、日本國產產品與服務供應商之間的媒合機制,讓供應商可在產品銷售過程中發揮影響力。 3. 充實高階專業人才拓展國際市場:擴大高階專業人才培育計畫,提升並宣傳資安人才的職業魅力,支援產業向海外發展,與合作國家共同促進企業與人才交流,以因應資安產業整體基礎不足,難以培育人才,拓展國際市場等問題。
日本發布創新治理報告書,主張強化企業等對法規範形成的實質參與日本經濟產業省於2020年7月13日發布「創新治理:實現Society5.0的法規與結構設計(GOVERNANCE INNOVATION: Society5.0の実現に向けた法とアーキテクチャのリ・デザイン)」報告書。其作成背景係依據日本在去(2019)年G20峰會時,基於大阪框架(大阪トラック、Osaka Track)下的「可資信任的資料自由流通機制(Data Free Flow with Trust(DFFT))願景,所提出的創新治理目標。該目標指出,過往的治理模式主要依靠法律規範,但明顯已追趕不及數位化與創新的快速步伐,致生新型態風險無法獲得有效控管、法律可能阻礙創新等問題,因而有必要革新治理模式,以掃除創新活動的障礙。基此,就上述創新治理模式的必要性與方式,日本召集國內外法律、經濟、科技、經濟等各界專家徵求意見進行討論,彙整後作成本報告書。 本報告書主張,應擺脫法規範的設計、法遵與執行,均由國家主導的傳統模式,建立提高企業參與規範擬定與實施程度的治理型態。具體主要包含以下作法: (1)法規範制定層面:規範之制定方向,改以作成價值決定的目的導向為主。至於細節性的行為義務,包含企業如何在數位化的虛擬場域內,透過程式語言等途徑落實上述法目的,則應由該些企業、以及在虛擬場域活動的社群或個人等利害關係人共同參與擬定相關的指引或標準。 (2)法遵層面:如上(1)所述,未來法規範制定將轉為形塑價值與目的為主,不會明確訂定企業的行為義務,而交由企業來擬訂。企業所制定之行為規範能否達成法規範目的,則須仰賴企業主動揭露其法遵方法,供外界檢視。因此,除企業應採用創新手法達成法目的、並對內落實法遵事項的說明外,應運用各種內外部查核機制來控管風險。同時,應著手研發相關技術或措施,讓利害關係人得取用企業之即時資料,以隨時確認企業所採取方法有無達成法遵,實現有效監督。 (3)執法層面:政府應以企業之行為對社會產生影響的程度,作為執法標準。若遭遇AI參與決策而衍生的事故,不應歸責於個人,而應建立獎勵機制,鼓勵企業積極協助究明事故原因。另一方面,亦應推動訴訟與訴訟外紛爭解決機制的線上化(Online Dispute Resolution, ODR),例如共享經濟平台服務的認證機制與標準、就電商平台上發生的小額消費糾紛由平台透過公告罰則等方式抑止與處理糾紛。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
涉外智慧財產權訴訟之國際裁判管轄-以侵害訴訟為中心