英國政府公布物聯網設備安全設計報告,提出製造商應遵循之設計準則草案

  英國數位、文化、媒體暨體育部於2018年3月8日公布「安全設計(Secure by Design)」報告,此報告目的在於使IoT設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。

  此報告中包含了一份經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論後,提出之可供製造商遵循之行為準則(Code of Practice)草案。

  此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。

  其中提出了13項行為準則:1. 不應設定預設密碼(default password);2. 應實施漏洞揭露政策;3. 持續更新軟體;4. 確保機密與具有安全敏感性的資訊受到保護;5. 確保通訊之安全;6. 最小化可能受到攻擊的區域;7. 確保軟體的可信性;8. 確保個資受到妥善保障;9. 確保系統對於停電事故具有可回復性;10. 監督自動傳輸之數據;11. 使用戶以簡易的方式刪除個人資訊;12. 使設備可被容易的安裝與維護;13. 應驗證輸入之數據。

  此草案將接受公眾意見,並於未來進一步檢視是否應立相關法律。

本文為「經濟部產業技術司科技專案成果」

※ 英國政府公布物聯網設備安全設計報告,提出製造商應遵循之設計準則草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8092&no=0&tp=5 (最後瀏覽日:2026/01/30)
引註此篇文章
你可能還會想看
美國加州於6月28日通過新版個資隱私法規

  加州立法體系在2018年6月28日通過了美國最嚴格的個人資料隱私法規,該法案無異議通過,並已經加州州長Jerry Brown簽署同意,將於2020年1月1日施行,以賦予科技產業修正其內部政策的緩衝期間。   該法案之所以如此速戰速決,據媒體解讀是為了避免該法案內容成為加州11月選舉併公民投票之公投提案的一部分。如以公投方式通過這部法規,日後修正時將重新以公民投票進行,有造成修法困難的疑慮;而以立法者立法方式通過這部法規,賦予立法者有對其修訂改正權限,於日後能以一般修法程序進行修法。   該法案內容與2018年5月25日實施的歐洲GDPR規範相近似,將造成加州原先隱私權規範些許改變,與倡議最初法案不同的地方在於,揭露接受個資第三人的相關資料時需揭露該第三者之類型(category)而非其身分。   隨著本年度加州消費者隱私保護法(The California Consumer Privacy Act)的修法,大型科技公司如Google和Facebook等蒐集有大量消費者個人資料者,都將受到重大影響,依據該法,一般使用者可以向企業確認被蒐集的個資種類以及個資販賣流向,亦可以請求中止個資的蒐集及販賣,提升了一般使用者在以往對於個資使用上的地位。   自歐洲GDPR規範實施以來至目前,美國聯邦法尚未有相應強度之規範,本次加州修法可認係GDPR實施以來美國國內第一部因應而修正之法律。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

歐盟「未來工廠」發展計畫

  歐盟執行委員會依展望2020 (Horizon 2020)於2016年4月14日至15日召開未來工廠公私夥伴合作 (FoF cPPP)研討會,並展示目前資助的研究與創新成果,透過本計畫將協助歐盟內製造業,特別是中小企業,將資通訊及關鍵技術與整個工廠生產鏈結合,達到整體製造業升級。   計劃具體目標如下:(1)以資通訊技術為基礎的解決方案導入製造業生產過程,增加產品獨特性、多樣化、可大規模生產,及保有高度靈活性,以迅速反應瞬息萬變的市場。(2)縮短進入市場的研發製程,提升產品質量,並透過數位化設計、成型、模擬實作及預測分析,提升工作效率。(3)改善整合生產環境的人為因素。(4)透過現代資通訊基礎的生產技術使得資源、材料、能源更有持續性。(5)促進並強化製造領域的共同平台及其生態系統。(6)從獨特的地理位置創建虛擬價值鏈,從而善用優秀人才的潛力。   我國為整合新創能量,以創造製造業下一波成長動能,今年亦陸續公布「智慧機械產業推動方案」與「數位國家‧創新經濟發展方案」,以具高效率、高品質、高彈性等特徵之智慧生產線,透過雲端及網路與消費者快速連結,打造下世代工廠與聯網製造服務體系。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP