日本經產省發布中小企業開發IoT機器之產品資安對策指引

日本經濟產業省(下稱經產省)於2023年6月6日發布中小企業開發IoT機器之產品資安對策指引(IoT機器を開発する中小企業向け製品セキュリティ対策ガイド),本指引彙整企業應該優先推動IoT機器資安對策,經產省提出具體資安對策如下:

1.制定產品資安政策(セキュリティポリシー)並廣為宣導:由企業經營者率先制定資安政策,進行教育宣導,並依實際需求修正調整。

2.建立適當的資安政策體制:確立實施資安政策必要之人員及組織,明確其職務及責任。

3.指定IoT機器應遵守之資安事項,並預測風險:決定IoT機器的預設使用者及使用案例,並於釐清使用者需求後,指定IoT機器應遵守之資安事項,預測衍生風險。

4.考量IoT機器應遵守之資安事項及預測風險,進行設計與開發:以預設IoT機器應遵守之資安事項衍生風險為基礎,從設計與開發階段開始採取風險對策。

5.檢測是否符合資安相關要件:從設計與開發階段開始制定檢測計畫,檢測是否符合資安要件,並依據檢測結果進行改善。

6.於產品出貨後蒐集風險資訊,與相關人員溝通並適時提供支援:蒐集全球資安事故與漏洞資訊,並設置可適時與委外廠商以及用戶溝通之窗口。

相關連結
你可能會想參加
※ 日本經產省發布中小企業開發IoT機器之產品資安對策指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=9063&no=67&tp=1 (最後瀏覽日:2026/01/27)
引註此篇文章
你可能還會想看
歐洲航空安全局EASA將制訂無人機管理草案

  近來無人機使用越來越普遍,歐洲各國無人機管理制度不同,例如在德國,無人機不得超過25公斤,英國則規定重量超過20公斤以上的無人機視同一般民航機管理。法國雖禁止飛行器未經核准不得在巴黎上空飛行,但日前頻傳有無人機圍繞著艾菲爾鐵塔、美國大使館、羅浮宮和巴士底獄紀念碑,一度造成恐慌。至於美國,聯邦航空總署(Federal Aviation Administration,FAA)原則上禁止大部份商用無人機飛行,但業者可以申請豁免。   因此,為了統一無人機相關管理辦法,歐洲航空安全局(European Aviation Safety Agency, 以下簡稱EASA)目前已擬管理草案,並將無人機分為三種等級,最低風險無人機是指低耗能飛行器(aircraft),包括模型飛機,該類飛機無須任何形式的證照,只能在操作者視線內且不得在機場與自然保護區使用,其最高飛行高度為150公尺,並禁止在人群上空使用。然而,最高風險無人機管理範圍則將與現行飛行器相關管理規則一樣,必須取得多種飛行證明。此外,無人機帶來的隱私與安全憂慮,EASA表示,這是國家層面議題,例如各國政府可要求無人機上加裝SIM卡的方式解決。   歐盟委員會(European Commission)希望無人機基本規範架構能於今年年底前到位。有關最低風險無人機相關管理草案預計於12月提出,以便業者經營無人機明年可以上路。EASA局長Patrick Ky在一份聲明中表示:「這些規定將確保無人機產業可在安全與可成長的環境下發展。」

開放原始碼組織有意減少授權版本

  開放原始碼協會(Open Source Initiative,簡稱OSI)的新任總裁Russ Nelson在3月2日提出了一項新的提案,希望解決一項重大的問題:開放原始碼授權的擴增問題。亦即,只要符合該組織的10點開放原始碼定義,OSI可提供正式開放原始碼授權(licenses,或稱「許可」)身份。   在寄給開放原始碼社群的一份聲明裡,Nelson表示,新的條款規定:授權不可與既有的授權重覆;必需以清楚、簡單,而容易了解的方式撰寫;以及把個人、專案或組織的名稱通通移至隨附的附件中,以便讓授權書可重複使用。    Nelson在接受專訪時表示,新條款要由OSI董事會通過才可生效。董事會成員已經過過該提案,但還未安排好投票的議程。OSI並不打算取消已經通過的授權認證,Nelson表示。他認為,推出「OSI Gold」升級認證應該可達到同樣的效果。他進一步表示,新的條款是否能夠有效減少授權數量,還要看執行是否有力。

國有研發設施開放近用之法制規範研析-以美日韓規定為核心

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

TOP