日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。
本文為「經濟部產業技術司科技專案成果」
美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
綠不綠有關係?!-論綠色資料中心及其相關能源效率法制政策 德國聯邦工業聯盟與Noerr法律事務所所公布「工業4.0 – 數位化進程面臨之法律挑戰」意見報告德國聯邦工業聯盟(Bundesverband der Deutschen Industrie)與Noerr法律事務所於2015年11月共同公布「工業4.0 – 數位化進程面臨之法律挑戰」(Industrie 4.0 – Rechtliche Herausforderungen der Digitalisierung)意見報告。該報告透過德國聯邦工業聯盟與Noerr法律事務所訪談德國數家企業法務部門,以釐清業界在邁入工業4.0轉型下會遇到的法律議題,並對此議題提出法律意見。 此報告針對工業4.0相關法律議題提出以下建議: 1.資料保護:業者可透過技術性設計達到資料保護的目的,例如隱私設計(Privacy by Design)。另,繼歐盟法院針對安全港判決的裁定,業者應積極關注歐盟第29條資料保護工作小組針對跨國資料傳輸的指引或德國聯邦資料保護委員(Datenschutzbeauftragten des Bundes)針對跨境資料保護規範的建議。 2.資料產權:在立法上不應急於規範管制,有恐危及企業資料分享的空間。建議企業間可透過雙方性契約規定資料的使用權 3.資訊安全:雖支持於2015年7月通過之德國資訊系統安全法(IT-Sicherheitsgesetz),強制性業者履行在遭資安攻擊時履行通報義務(Meldepflicht)。但是,若能實施以業者本身主動完成資安保護措施之鼓勵機制,則更能積極性的鼓勵業者履行其資安義務。 4.智慧財產權:標準必要專利的授權及使用係業者在工業4.0體系中,特別在系統的互通性上,非常重要的一環。在法制環境上應讓各個業者,在一定的條件下,均享有標準必要專利授權。 5.產品責任:因智慧工廠下之自治系統(autonome Systeme)有自主決定的能力,而因其所導致的民事糾紛,可透過新民事責任概念的架構所解決,並不一定要將該自治系統視為一獨立的數位法人(ePerson)。