UCLA醫學中心以開放原始碼軟體Zope建置資訊系統,展開一項稱為「治療成效開放式架構」(OIO, Open Infrastructure for Outcomes) 的計畫,構築起未來醫療資訊系統的新基石。讓治療成效的資訊,能在一個共通的平台架構上進行資源分享。
長期以來,醫療資訊系統面臨的挑戰主要來自於下列三個面向:一、如何讓資訊系統提供令人滿意的服務功能,以取代將醫療記錄登載在紙張上的傳統方式。二、資訊系統的需求經常會改變,如何快速因應系統的改變需求。三、如何與其他醫療團隊夥伴,共同分享資料與工具。
OIO計劃透過資訊共享可加速醫療研究。開放式架構計畫的主要目的,並不是用來要求臨床工作者與醫療研究中心分享病歷資料,而是提供一個分享管理工具的機制,讓使用者能夠利用這些管理工具,進行資料的收集與分析,並和特定的診療研究人員進行溝通,而透過系統安全的機制,在過程當中並不會讓其他人得知資料內容。不過,如果有人想要進行管理工具或資料的進一步加值利用,僅需額外投入相當小的成本。
另外, 開放式架構計畫的設計極具彈性,除了目前所專注的治療成效資訊統計之外,其系統概念也可以用來管理客戶資訊、進銷存資訊、會計資訊等。整個系統開發環境是針對使用者而設計,而非程式人員,並且以網頁應用程式來實作,力求操作的便利性,目的之一是讓使用者能夠動手創造出自己所需的表格資料。另一方面,設計上也面對來自於法律與技術層面的挑戰,例如取得病患的同意及對系統的信任感,促使這套系統在實作時,必須能夠提供高度的修改彈性與安全性。
由於 OIO 在設計上,包含低成本、高效益、使用者導向、架構具有彈性等特色,並以開放源碼開發模式來鼓勵使用者測試及提供回饋意見,目前的應用效果持續擴大中。
本文為「經濟部產業技術司科技專案成果」
日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國FDA發布「醫療器材單一識別碼系統」規則草案美國推動醫療器材「單一識別」(Unique Device Identification, UDI)系統已行之有年,藉由建立UDI系統,強化醫療器材錯誤回報(Adverse Event Report)以及上市後產品監督(Post-Market Surveillance)等相關資訊的流通,以保障病人的安全。2007年由美國國會所通過的《食品藥物管理法修正案》(Food and Drug Administration Amendments Act of 2007, FDAAA)第226項,修正《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act , FD&C Act)新增第519項f款,提供美國食品藥物管理局(U.S. Food and Drug Administration, FDA)訂定「醫療器材單一識別系統」法規之法源基礎。另一方面,在美國國會的要求之下,FDA於2012年7月3日正式發布「醫療器材單一識別碼系統」規則草案,進行公眾預告與評論(Notice and Comment)程序。 FDA長期收集醫療器材產業、醫療社群、病人與消費者,以及產業專家之建議,而將這些建議呈現在規則草案內容中,目的在於減少廠商成本,並順利建置UDI系統,是故草案內容實採取某些公司實際使用的標準與系統經驗。FDA所發布的規則草案重點如下: 1.「單一識別碼」將分為「器材識別碼」(Device Identifier),包含特定器材的單一識別;「生產識別碼」(Production Identifier),包含器材的生產資訊。 2.將採取區分醫療器材風險程度之高低作為標準,分階段置入高風險的醫療器材的「單一識別碼系統」;低風險的醫療器材將有條件在部分或全部的規則中例外免除。 3.免除零售的非處方(Over the Counter)醫療器材適用此規範,係因這些器材尚有統一商品條碼(Universal Product Code, UPC)作為識別。 FDA宣稱,隨著系統的建置與規範的制定,絕大多數的醫療器材將必須具有統一的日期標準,包含標籤上的到期日;亦必須使UDI能夠容易閱讀,且能為系統自動識別與應用資料擷取技術,進一步成為全球UDI資料庫建置的標準。我國目前雖尚無UDI系統的相關法規範,但產業與主管機關已就相關議題進行討論,而FDA所發佈的規則草案之發展歷程,即可作為相關單位在制定法規之參考,藉此瞭解先進國家在此議題之發展,提早與先進國家之標準做接軌。
敏感科技保護「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。 各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。