新加坡自今年(2018年)1月5日起推動「醫療服務法案(Healthcare Services Bill)」之制定,該法案預計取代現有「私人醫院和醫療診所法(Private Hospitals and Medical Clinics Act)」。其中「國家電子醫療紀錄(National Electronic Health Record),下稱NEHR」將整合並改善國營醫療機構及非國營醫療機構兩種醫療紀錄無法互通之情形,而行動醫療及遠端醫療亦納入之。
根據目前之諮詢狀況(已於今年2月15日結束),提案單位衛生部(Ministry of Health)表示,由於現代醫療技術已趨近複雜,若能整合各醫療單位之就診紀錄,將可大幅提升醫療效率,特別是在急診的狀況下,整合過的單一病歷將可降低評估所需的時間。
而對於病患之個資方面保護,該部表示,首先,NEHR並不會蒐集全部患者的醫療參數,只有患者之核心醫療參數才會上傳至NEHR之資料庫內,此外亦不提供非醫療目的外之使用(例如就業及保險評估)。而為降低非法使用之機率,非法使用亦將處罰之。
另外為尊重病患個人之資訊自決權,NEHR亦提供了病患選擇退出機制(opt-out)以作為個資保護的最後屏障。然而該退出機制仍不同於一般的退出機制(即退出後不得蒐集、處理及利用),該機制僅禁止各醫療機構讀取該病患之醫療紀錄,但是各該機構依NHER之架構仍應將每次就診紀錄上傳之,此一設計係避免緊急情況下或病患同意讀取電子病歷時,卻無醫療紀錄可供查詢之窘境。
歐盟於2015年5月9日在拉脫維亞的里加舉辦了為期一週之「eHealth Week」研討會,包含由歐盟輪值理事會主辦之高階eHealth會議,以及由歐洲HIMSS (Healthcare Information and Management Systems Society)主辦之「WoHIT (World of Health IT Conference & Exhibition)」兩大活動,而2015歐洲mHealth高峰會為其中備受矚目的重要主題活動。該高峰會以推動歐洲mHealth進程之執行為領導思考核心,相關利害關係者(包括公部門、ICT產業、健康保健專業學者)於5月12日以mHealth綠皮書公眾諮詢結果為基礎,針對歐盟目前執行中以及未來可能採取之政策為討論,主要議題包括:1.所蒐集資料之隱私與安全保護。2.生活康樂型apps產品之安全性與品質管控。3.網路經營者對於mHealth市場之進入障礙。 針對資料之隱私與安全保護議題,公眾諮詢結果顯示,關鍵問題在於mHealth apps蒐集使用者資料是否有足夠的隱私與安全保障措施?與會者並認為此問題在資料的第三人再利用情形尤為重要。對此歐盟執委會表示將展開就mHealth apps訂定以產業為主導、範圍涵蓋資料隱私與安全性之行為守則,以建立使用者對mHealth apps之信任感,並提升app開發者對歐盟資料保護法規之遵法意識。 針對生活康樂型apps(包括健康照護相關app)產品之安全性與品質管控議題,透過與會者現場意見調查顯示,認為健康照護相關apps之安全性、品質與可靠性由於欠缺臨床佐證,導致就apps的目的與功效會有錯誤的宣示。值得注意的是,制定法規控管並非多數意見,大多數與會者認為以訂定指引或標準的方式,作為生活與康樂型apps的安全性與品質之依循方針較為妥適。對此歐盟執委會表示會持續跟進此議題並與相關利害關係者討論下一步之行動。 針對網路經營者進入歐盟mHealth市場議題,與會者認為網路經營者將面臨複雜的進入障礙,諸如歐盟相關法規架構的不清與零散、mHealth方案與設備的互通性與開放標準的欠缺等。歐盟執委會明確表示,支持網路經營者進入mHealth市場,目前歐盟正在進行的「Startup Europe」等相關倡議措施,即是以強化網路及資通訊業者商業環境為目的,提供網路經營者法規諮詢、投資媒合、商業模式育成等協助,以降低網路經營者所面對之市場進入門檻並有機會展現其新創能量。
電力市場2.0--2015德國電力市場改革最新發展 美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
世界智慧財產權組織執行ICANN/UDRP決定之趨勢分析