日本經產省發布《促進資料價值創造的新資料管理方法與框架(暫定)》之綱要草案徵求意見

  2021年7月中旬,日本經濟產業省(下稱經產省)發布《促進資料價值創造的新資料管理方法與框架(暫定)(データによる価値創造(Value Creation)を促進するための新たなデータマネジメントの在り方とそれを実現するためのフレームワーク(仮))》之綱要草案(下稱資料管理框架草案),並公開對外徵求意見。

  近年日本在「Society5.0」及「Connected Industries」未來願景下,人、機器與科技的跨界連接,將創造出全新附加價值的產業社會,然而達成此願景的前提在於資料本身須為正確,正確資料的自由交換,方能用於創造新資料以提供附加價值,因此正確的資料可說是確保網路空間連結具有可信性的錨點。為此,經產省提出資料管理框架草案,透過資料管理、識別資料在其生命週期中可能發生的風險,以確保資料在各實體間流動的安全性,從而確保其可信性。

  該框架將資料管理定義為「基於資料的生命週期,管理各場域中資料屬性因各種事件而變化的過程」,由「事件(資料的產生/取得、加工/利用、轉移/提供、儲存和處置)」、「場域(例如:各國家/地區法規、組織內規、組織間的契約)」和「屬性」(例如:類別、揭露範圍、使用目的、資料控制者和資料權利人)三要素組成的模組。經產省期望未來能透過三要素明確資料的實際情況,讓利害關係人全體在對實際情況有共同理解的基礎上,能個別確保適當的資料管理,達成確保資料正確之目的。

「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

相關連結
你可能會想參加
※ 日本經產省發布《促進資料價值創造的新資料管理方法與框架(暫定)》之綱要草案徵求意見, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8719&no=0&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
日本公布2014年度智慧財產推進計畫

  日本於2013年6月由智慧財產戰略本部發布了「智慧財產政策願景」,作為自公布後未來十年中長期智慧財產政策的核心,其後每年均依此制定各年度的智慧財產推進計畫。   延續前揭「智慧財產政策願景」內容,智慧財產戰略本部於今年7月4日公布「智慧財產推進計畫2014」,除仍以「為強化產業競爭力,構築全球性智財系統」、「中小、新創企業的智財管理強化支援」、「對應數位網路社會的環境建構」、「強化以內容為中心的軟實力」等四項領域作為核心之外,另經由2013年10月起設置的「檢證。評價。企畫委員會」選擇十二項議題進行充分的討論,並以此十二項議題作為制定今年度「智慧財產推進計畫2014」的基礎。   此外,委員會並針對單一部會進行施政將有所困難,有必要進行跨部會橫向協力的五項課題設置特別任務小組,列為「智慧財產戰略本部最重點的五支柱」,分別為:1、職務發明制度根本性的修正;2、營業秘密保護整體性的強化;3、中小、新創企業和大學的海外智財活動支援;4、數位內容的海外拓展及與搏來客行銷間的協力;5、加速建構以促進數位典藏的利活用。日本智財戰略本部並期待此「智慧財產戰略本部最重點的五支柱」能發揮司令塔的功能,對相關連的政策發揮引導的功用。

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

國際能源總署發布「擴大轉型金融」報告,旨在說明如何透過金融機制協助高碳排部門邁向淨零

國際能源總署(International Energy Agency, IEA)於2025年10月16日發布「擴大轉型金融」(Scaling Up Transition Finance)研究報告,提出轉型金融應與綠色金融作為能源轉型的互補工具,並進一步分析轉型金融的前景與推動建議。 轉型金融是指有助於減排的金融活動,特別適用於難以減排的產業及資金需求高、但綠色金融支持有限的新興市場及發展中經濟體。報告重點分析轉型金融三大領域,並說明各產業投資方向即可量化的減碳目標,重點如下: (1)重工業:鋼鐵及水泥業合計約占全球能源燃燒與製程排放之14%,主流投資仍集中於傳統高碳排製程,導入轉型金融,除可支援中短期減碳措施外,亦能鼓勵企業於設施設計階段預留導入低碳技術之條件(即具「可改造性」,retrofit-ready),避免產生「高碳資產鎖定」與「無法回收之投資風險」。IEA建議,應結合國家層級減碳指標與產業路徑,將轉型金融納入減碳政策框架,並鼓勵金融機構明確區分綠色金融與轉型金融投資組合。 (2)關鍵原物料:原料開採與冶煉雖屬能源轉型必要條件,但亦產生排放量高、高耗水量、土地劣化與生物多樣性流失、及社會與治理風險。轉型金融則可支持低排放技術、改善ESG表現,並促進高影響力投資。IEA建議,應建立礦業轉型金融標準與績效指標;政府與多邊開發銀行應提供保證或融資機制;加強資料透明與監測機制;統籌國際供應鏈治理與稅收誘因。 (3)天然氣:IEA強調,轉型金融可協助天然氣產業減排改造,並推動替代性低碳氣體基礎建設發展,但不得成為長期依賴化石燃料之藉口,因此應用優先順序應為甲烷減量、液化天然氣減排、低排放氣體基礎設施、電力系統調節角色。且必須符合透明性、時限性及一致性等條件。其目的在於支援能源轉型初期之電力穩定與彈性,並為未來低碳氣體基礎設施鋪路。 轉型金融強調企業與金融機構的實質合作,當前挑戰在於擴大資金流與明確界定「轉型」特質。IEA建議,推動轉型金融須兼顧新興市場與中小企業參與,並強化產業別績效指標、改造潛力設計及定期審查。此外,轉型金融應提升為全球減碳融資之第二支柱,藉此面對難以減排之領域,並確保投資帶來實質減碳與能源安全等效益。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP