日本文部科學省於2022年3月發布「教育資訊安全政策指引」(教育情報セキュリティポリシーに関するガイドライン)修訂版本,該指引於2017年10月訂定,主要希望能作為各教育委員會或學校作成或修正資訊安全政策時的參考,本次修訂則是希望能具體、明確化之前的指引內容。本次修訂主要內容如下。
(1)增加校務用裝置安全措施的詳細說明:
充實「以風險為基礎的認證」(リスクベース認証)、「異常活動檢測」(ふるまい検知)、「惡意軟體之措施」(マルウェア対策)、「加密」(暗号化)、「單一登入的有效性」(SSOの有効性)等校務用裝置安全措施內容敘述。
(2)明確敘述如何實施網路隔離與控制存取權的相關措施:
對於校務用裝置實施網路隔離措施,並將網路分成校務系統或學習系統等不同系統,若運用精簡型電腦技術(シンクライアント技術)則可於同一裝置執行網路隔離。另外,針對校務用裝置攜入、攜出管理執行紀錄,並依實務運作調整控制存取權措施,例如安全侵害影響輕微者則可放寬限制以減輕管理者負擔。
近幾年來,為了增加台籍員工向心力,不少台商都辦過「增資認股」,多數的情況是,企業辦理增資時,讓出一部分股權,開放員工入股。不論,員工入股是否自行買單,企業辦理「增資入股」時,都會先由台灣母公司辦理增資海外控股公司,再將計畫入股的員工載入控股公司名冊。 隨著台資企業開放員工入股漸成風潮,士林電機董事會日前通過,將以士電蘇州恆通增資為首例,讓台籍幹部入股百分之二十,未來海外子公司,都將循相同模式,這是首次有上市櫃台商清楚表明,增資用途是讓員工入股,引起外界關注。 經濟部投資審議委員指出,依「在大陸地區從事投資或技術合作許可辦法」第4條第1項第3款規定,台灣地區人民在大陸地區取得當地現有公司股權,視為「在大陸地區從事投資」,必須在行為發生前,依同法第7條第1 項備具申請書件向投審會申請許可,縱投資金額在公告限額以下,亦應填具申報書並檢附相關文件向投審會申報。 根據上開規定,台幹入股台資企業,視為「投資」行為,必須事前提出申請,否則恐將挨罰。另員工入股之後,按在大陸地區從事投資或技術合作審查原則第3點規定,也必須遵守台灣地區個人對大陸投資累計金額不得超過八千萬元的上限。
因應京都議定書生效壓力 工廠溫室氣體減量 將訂規範全國能源會議於六月二十日登場,面對京都議定書生效壓力,新舊工廠未來究竟應如何減量,備受企業高度關切,經濟部已擬出政策規劃,將自二○○七年開始推動既設工廠溫室氣體減量措施,至二○一五年減量一○%(二千年為減量基準年)。 工業部門溫室氣體排放量占全國排放總量五五%,但占全國 GDP 比例逐漸減少,工業局計畫在全國能源會議中,提出多項溫室氣體減量措施。 為建立產業減量機制,工業局規劃出短、中、長期三階段減量計畫外,並提出攸關溫室氣體查核機制的能源效率計算模式,藉由會議尋求共識後,逐步落實。 據瞭解,能源效率計算機制因各國規劃採取的措施不同而所有差異,有國家採用每人耗能量為計算基準,也有以生產產品所需耗能量計算,或是每創造單位國內生產毛額所需耗用的能源計算(即能源密集度)。 工業局認為,以能源密集度做為我國工業查核指標,可顯示能源消費與該產業的邊際效應變化趨勢,有助於落實工業部門減量策略的執行,因此建議我國未來在產業溫室氣體排放查核機制上,以能源密集度為查核指標。 至於,在溫室氣體減量機制上,工業局規劃我國自二○○七年時推動既設工廠實施溫室氣體減量措施,並至二○一五年時達到溫室氣體排放密集度降低一○%的目標,而其減量的基準年為二千年;在新設廠方面,則以全球一○%標竿能源效率製程的排放密集度擬訂排放標準加以審議。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。