簡介日本「u-Japan政策」

刊登期別
2006年01月
 

※ 簡介日本「u-Japan政策」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=768&no=64&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊

  日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

因應巨量資料(Big Data)與開放資料(Open Data)的發展與科技應用,美國國會提出「資料仲介商有責與透明法草案」(Data Broker Accountability and Transparency Act)

  美國國會議員Markey與Rockefeller於2014年2月提出S. 2025:「資料仲介商有責與透明法草案」(Data Broker Accountability and Transparency Act),以促進對於消費者保護,與資料仲介產業發展間的平衡。該草案預將授權「美國聯邦貿易委員會」與各州據以監督與執行。   該草案對「資料仲介商」(以下簡稱Data Broker)加以定義為係以銷售、提供第三方近用為目的,而蒐集、組合或維護非其客戶或員工之個人相關資料的商業實體;更進一步的禁止Data Broker以假造、虛構、詐欺性的陳述或聲明的方式(包括提供明知或應知悉為偽造、假造、虛構、或詐欺性陳述或聲明的文件予以他人),自資料當事人取得或使其揭露個人相關資料。   該草案亦要求Data Broker建置及提供相關程序、方式與管道,以供資料當事人進行下列事項: 1.檢視與確認其個人相關資料(除非為辨識個人為目的的姓名或住址)正確性(但有其他排除規定)。 2.更正「公共紀錄資訊」(Public Record Information)與「非公共資訊」(Non-public Information) 3.表達其個人相關資料被使用的時機與偏好。例如在符合一定條件下,資料當事人得以「選擇退出」(Opt Out)其資料被Data Broker蒐集或以行銷為目的而販售。   於此同時,加州參議院亦已於2014年5月通過S.B. 1348:Data Brokers的草案,該草案要求資料當事人擁有檢視Data Broker所持有的資料,並得要求其於刪除提出後10天內永久刪除;當資料一經刪除,該Data Broker不得再行轉發或是將其資料販售給第三人。加州參議院並提案,該法案通過後將涵蓋適用至2015年1月1日所蒐集的資料,且個人於Data Broker每次違反時得提出$1,000美元的損害賠償訴訟(律師費外加)。雖然該草案受到隱私權保護團體的支持,卻受到加州商會(California Chamber of Commerce)與直銷聯盟(Direct Marketing Association)的反對。加州在Data Broker的立法規範上是否能超前聯邦的進度,讓我們拭目以待吧。

英國政府公布醫療器材之「未來法規施行」規劃

英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)在2024年1月9日針對醫療器材(下稱醫材)提出「未來法規施行」(Implementation of the Future Regulations)規劃,旨在提升病人安全,並且確保英國市場對醫療技術創新者來說仍具有吸引力。本次內容主要包含2024年度規劃公告的重大法案,以及2025年後預計實施的核心政策,以下節錄相關說明: 1.預計於2024年實施的法規及政策 MHRA擬定了幾個重要法規及政策的公告時程表,主要包含名為「AI-Airlock」的監理沙盒 (AI-Airlock regulatory sandbox)及數則醫材軟體監管指引,主題有「醫材開發地圖的優良機器學習實踐」(Good machine learning practice for medical device development mapping)、「人工智慧醫材開發和部署的最佳實踐」(AI as a Medical Device(AIaMD) development and deployment best practice)及「資料驅動醫材軟體的研究、發展及治理」Data-driven SaMD research, development and governance);另外,因應世界貿易組織(World Trade Organization, WTO)於2023月7月26日發佈的 《上市後監督要求之行政立法性文件草案》(draft Post-market Surveillance Requirements Statutory Instrument, PMS SI),英國政府也打算在 2024 年引入相關立法,以加強醫材上市後的監管要求。 2. 未來核心政策規劃 MHRA已選定數個醫材管理核心主題,並預計從2024年上半年開始與利害關係人啟動相關討論會議,以利於2025年後制定更詳細的施政草案。管理議題明確包含對植入式醫材的風險分類進行升級、增加醫材軟體的分類、加強對醫材之品質管理系統與加強技術文件、推行專屬識別碼(Unique Device Identifiers, UDI)、更新臨床試驗施行措施、引入國際承認框架,使已獲得類似監管機構批准的醫材更快進入市場,以及促使英國對於醫材軟體網路安全等基本管理要求持續與歐盟接軌。 以上施政規劃,反映出英國政府為確保民眾安全,欲持續加強醫材品質的風險管理力道,以及隨著搭載AI技術的智慧醫材在各國快速發展,英國政府有意將此類的醫材朝向細緻化管理的布局。此外,英國於2020年脫歐後,歐盟的醫療器材法規在英國已不再適用,故MHRA近年積極發布更適合英國體質的醫材監管政策,以確保國內醫材市場保持國際競爭力,也避免醫材供應鏈發生短缺之情形。

TOP