日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊

  日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。

本文為「經濟部產業技術司科技專案成果」

※ 日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7870&no=64&tp=1 (最後瀏覽日:2026/03/05)
引註此篇文章
你可能還會想看
歐盟首例 丹麥救濟基金途徑保障遭受基改(Genetically Modified,GM)作物污染的農民

  歐盟執委會於11月底同意丹麥針對GM作物所提出的賠償方案(compensation scheme),這是歐盟國家中第一個透過法律途徑來保障因GM作物污染而遭受經濟損失的農民的國家。丹麥所提出的賠償方案為當非GM的作物(如有機或是傳統作物)被含有超過0.9%成份的GM作物污染,且限於標示GM與法律未要求應標示之作物有市場價差時,農民即可得到賠償。   歐盟認為賠償方案有助於基改與非基改的共存制度,目前賠償基金主要來源為種植可能導致污染的GM作物的農民所繳納之特別捐,藉由此方案更可以刺激種植GM作物的農民審慎地預防污染的發生,未來賠償基金將改為由私人保險支付。   生物科技在歐盟一直是受爭議之領域,事實上,歐洲人民反GM食品的情緒有增無減,從英國人民關切GM食品的比例逐漸爬升(從2002年的56%提高至現今的61%)即可看出端倪。此外,歐洲食品大廠Heinz與英國的大型超商也都已改用非GM的名義來當為市場銷售工具。不過,也不是所有的歐盟國家中態度都相同,歐盟所進行不下十次的支持或反對GM食品或飼料投票,英國、芬蘭和紐西蘭永遠都是投下支持GM的那一票。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

日本制定民間個人健康紀錄業者蒐集、處理、利用健康資料之基本指引草案

  日本厚生勞動省、經濟產業省和總務省共同於2021年2月19日公布「有關民間個人健康紀錄(Personal Health Record, PHR)業者蒐集、處理、利用健康資料之基本指引」(民間PHR事業者による健診等情報の取扱いに関する基本的指針)草案,檢討民間PHR業者提供PHR服務之應遵守事項,希望建立正確掌握和利用個人、家族健康診斷或病例等健康資料之電子紀錄制度。   本指引所稱之「健康資料」,係指可用於個人自身健康管理之敏感性個人資料,如預防接種、健康診斷、用藥資訊等;而適用本指引之業者為蒐集、處理、利用上開健康資料並提供PHR服務之業者。根據指引規定,PHR業者應針對資訊安全對策、個人資料處理、健康資料之保存管理和相互運用性及其他等4大面向採取適當措施。首先,在資訊安全對策部份,業者需取得風險管理系統之第三方認證(如資訊安全管理系統制度(ISMS));其次,針對個人資料,業者應制定隱私政策和服務利用規約,並遵守個資法規定;然後,為確保健康資料之保存管理和相互運用性,系統應具備雙向資料傳輸之功能;最後,本指引提供檢核表供業者自行檢查,業者亦應在網站上公佈自行檢查結果。

英國倫理機構針對海量資料(big data)之使用展開公眾諮詢調查

  納菲爾德生物倫理學理事會(Nuffield Council on Bioethics)成立於1991年,是一家英國的獨立慈善機構,致力於考察在生物與醫學領域新近研究發展中所可能牽涉的各項倫理議題。由該理事會所發表的報告極具影響力,往往成為官方在政策決策時之依據。   有鑑於近年big data與個人生物和健康資料的分析使用,在生物醫學研究中引起廣泛的爭議討論,此間雖然不乏學者論理著述,但對社會層面的實質影響卻較少實證調查研究。Nuffield Council on Bioethics於日前發布一項為期三個月(2013/10/17~2014/01/10)的生物暨健康資料之連結使用公眾諮詢調查計畫(The linking and use of biological and health data – Open consultation)。此項計畫之目的在於,瞭解更多有關資料連結與使用時所可能導致之傷害或可能的有利發展。並研析適當的治理模式和法律措施,使得民眾隱私權保護與相關研究之合法性得以兼顧,俾使更多人受益。   為執行此項計畫,Nuffield Council on Bioethics延攬健康照護資訊技術、資訊治理、健康研究、臨床診療、倫理和法律等領域專家組成計畫工作小組,由工作小組廣泛地蒐集來自民眾與各類型組織的觀點,探詢當民眾在面對個人的生物與健康資訊相互連結、分析時,民眾對當中所牽涉倫理議題之看法。該項公眾諮詢調查將針對以下重點進行: 1.生物醫學資料之特殊意義 2.新的隱私權議題 3.資料科學和資訊技術發展所造成之影響 4.在研究中使用已連結的生物醫學資料所可能帶來的影響 5.在醫學臨床上使用已連結的資料所可能帶來的影響 6.使用生物醫學研究和健康照護以外的生物醫學資料所可能帶來的影響 7.探討能夠在倫理上支持連結生物醫學資料的法律和治理機制   由於Nuffield Council on Bioethics被視為英國科學界的倫理監察員、政府智囊團,因此未來調查報告發布後對相關政府政策所可能產生的影響,當值得我們持續關注。

TOP