日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊

  日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。

本文為「經濟部產業技術司科技專案成果」

※ 日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7870&no=64&tp=1 (最後瀏覽日:2026/04/24)
引註此篇文章
你可能還會想看
日本電業節能義務之介紹

日本政府透過公告呼籲產官合作,提供有助防疫之統計資料

  日本經濟產業省於2020年3月31日會同內閣官房、厚生勞動省(下稱厚勞省)以及總務省等中央主管機關,發布「請求提供有助防止新型冠狀病毒傳染病疫情擴大之統計資料(新型コロナウイルス感染症の感染拡大防止に資する統計データ等の提供の要請)」公告(下稱本公告),請求經營平台及行動通訊等服務的業者,提供有助於形成防疫措施的相關統計資料,如平台或電信服務使用者的移動軌跡或服務使用紀錄。本公告之目的,係使政府取得相關資料,掌握各地區的人員流動、群聚感染徵兆及其風險,對外提供精確資訊,進而早期發現疫情,並即時擬定保持社交距離、防堵群聚感染蔓延等措施,以防止新型冠狀病毒傳染病的疫情擴大。   此處的請求(要請)因無法律明文授權,故對受請求之業者無拘束力。同時,上述向業者請求提供的資料,排除個資法令所定義的個人資料之統計資訊。本公告並指出,經請求取得的資料,亦僅供職司防止新型冠狀病毒傳染病疫情擴大的權責單位,在遏止新型冠狀病毒傳染病疫情之目的範圍內使用。一旦相關任務結束,將會儘速刪除上述資料。未來於必要時,亦可能另行請求業者提供涉及個資的資料,此時則會遵照個人資料保護法、以及同法訂定的例外規定,向各業者提出具適法性之請求。   依據本公告意旨,厚勞省同日即與LINE達成合作協議,其後於4月13日,又與日本YAHOO達成相同協議。同時,LINE亦約定會配合厚勞省釋出的防疫措施與資訊,向LINE使用者主動發送防疫資訊、提醒應定期量測體溫、提供返國人士與接觸者之諮詢窗口等訊息。

美國證券交易委員會發布指引要求公司進一步揭露加密資產之潛在影響

美國證券交易委員會(United States Securities and Exchange Commission,下稱SEC)於2022年12月8日發布「致公司有關近期加密資產市場發展之樣本函(Sample Letter to Companies Regarding Recent Developments in Crypto Asset Markets)」指引文件(下稱本指引),指導公司應針對自身業務涉及近期加密資產市場動盪事件(如虛擬貨幣交易所破產等),進行直接或間接影響之風險揭露,以符合聯邦證券法規之資訊揭露(如風險及風險暴露等)義務。SEC轄下之企業金融處(Division of Corporation Finance,以下簡稱金融處)認為公司應向投資者提供具體且量身訂製之市場動盪事件報告、揭露公司在動盪事件中之狀況以及可能對投資者造成之影響。爰此,本負有常態報告義務的公司應據此考量現有的揭露內容是否須進行更新。 金融處說明,為加強並監督公司對資訊揭露要求之遵守狀況,爰依據1933年證券法(Securities Act of 1933)及1934年證券交易法(Securities Exchange Act of 1934)內涵,要求公司亦須針對應作出聲明的實際狀況,進一步揭露相關重大訊息,且不得進行誤導。本指引所要求公司明確揭露加密資產市場發展的重大影響,包括公司對競爭對手及其他市場參與者之風險暴露;與公司流動資金及獲取融資能力相關的風險;及與加密資產市場法律程序、調查或監管影響相關的風險等。 值得注意的是,本指引並未列出公司應考量問題的詳細清單,個別公司應視自身情況評估已存在之風險,或是否可能受到潛在風險事項的影響。由於公司所揭露之文件事前通常不會經過金融處審查,因此金融處也敦促各公司應自主依循本指引進行相關文件準備。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP