日本經濟產業省於2017年起提倡「Connected Industries」,其中一項重點任務為「平台、基礎設施安全」。為達成上述任務,經產省召開「平台資料活用促進會議」(プラントデータ活用促進会議),於2018年4月26日制定公布「資料契約指引產業保安版」(データの利用に関する契約ガイドライン産業保安版)及「物聯網安全對應手冊產業保安版」(IoTセキュリティ対応マニュアル産業保安版),以因應資料經濟時代資訊外洩及網路攻擊等風險。
日本經產省為促進業界資料流通與利用,已陸續於2015年、2017年和2018年制定「推動現有資料交易為目的之契約指引」(既存のデータに関する取引の推進を目的とした契約ガイドライン)、「資料利用權限契約指引」(データ利用権限に関するガイドラインVer.1.0)。本次「資料契約指引產業保安版」則進一步整理資料權利歸屬判斷方式,提供模範條款及說明各條款內容,並羅列作為資料提供者可能具備之優點。此外,隨著物聯網等資訊科技發展,資安風險逐漸受到重視,為提升物聯網產品安全防護,經產省亦以平台管理者為對象,制定「物聯網安全對應手冊產業保安版」,提供適當安全對策及案例。
本文為「經濟部產業技術司科技專案成果」
為鼓勵出租人利用屋頂型太陽能裝置直接提供承租戶用電,並鼓勵推動民眾參與能源轉型,德國制訂「租戶電力促進法」(Gesetz zur Förderung von Mieterstrom)及修正相關再生能源法,並於2017年7月已正式生效。 所謂「租戶電力」(Mieterstrom)係指來自建築物本身裝設或周遭區域裝置的太陽能設備生產之電力,未循傳統利用方式將電力饋入一般電網中,而直接就地(Vor Ort)提供給終端用戶(主要為建築物承租戶)電力使用。但查現行太陽能電力之利用狀況,發電設備所有人(同時也是出租人)多數仍選擇將發電饋入電網,以取得依再生能源法規定之相當報酬。新法制訂後,未來出租人將電力提供給承租人後仍可獲得同樣報酬,而原先承租人負擔許多自電網中購電必須支付的電網費、網路端分配費、電力稅及其他雜費,以及未來可能會產生的附加費等,也可節省下來。 因此,透過本法將可提升發展與使用太陽能的經濟誘因。一方面促使出租人將太陽能發電直供承租人使用,依據其太陽能裝置及太陽能板鋪設大小,出租人約可獲得3.8歐分/kWh~2.75歐分/kWh之間的報酬,此外,並限制補助太陽能裝置為每年500MW以下,以確保發電容量符合用電發展。而依據德國經濟與能源部委託相關研究報告顯示,有高達380萬的家庭戶具備開發此種直接向租戶供電的潛力。另一方面,該法亦包含租戶電力契約的存續期間,及承租人將保有電力供應商的選擇權,並設定其租戶電力費用上限(修正能源經濟法§42a),以確保租戶電力費用具市場競爭力。
精神衛生法強制住院侵害身心障礙者自由權-身心障礙者權利公約初次國家報告國際審查本文從我國身心障礙者權利公約(以下簡稱身權公約)初次國家報告國際審查結論性意見中,精神衛生法強制住院違反公約規定的評價出發,盤點身權公約對身心障礙者人身自由保護之規範內容,並將其與我國精神衛生法相關規定比較,認為現行規定及研擬中的修法方向皆確有違反身權公約之嫌。本文最後建議,在國際人權公約逐步完成內國法化程序的背景下,我國科學與科技相關法制例修法時,應注重相關人權公約的規範。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
新加坡LTA與NTU及JTC共同宣布建立新加坡第一個自駕車測試中心新加坡陸路交通管理局(Land Transport Authority, LTA)與南洋理工大學NTU及JTC共同宣布建立新加坡的第一個自駕車測試中心,在裕廊東創新特區(Jurong Innovation District)。 其中心設立的目的為協助2016年建立的卓越自駕車測試與研究中心(Centre of Excellence for Testing & Research of AVs–NTU, CETRAN)建立自駕車試驗標準與認證。自2015年來新加坡已逐步建立道路駕駛場域,但此為第一個自駕車測試中心。 此自駕車測試中心的特點在於其充分模擬道路之建設,使自駕車輛可測試與其他車輛或道路基礎設施間的通訊與互動,因此此中心設計並複製模擬真實道路環境。 包含具有1. 道路燈光;2. 專用短距通訊信號發射器; 2. 下雨模擬器;3.洪水模擬器;4. 模擬大樓阻隔,以模擬衛星受干擾的情況; 5. 彎道;6. 道路突起與斜坡;7. 巴士站等設備。其中並設置360度的閉路電視監視系統(CCTV):提供LTA監督與研究自駕車行為,並會將資訊回傳至陸路交通局的智慧交通系統中心,以分析並評估自駕車的上路可行性。