醫療物聯網(The Internet of Medical Things, IoMT)

  醫療物聯網(The Internet of Medical Things, IoMT)之意義為可通過網路,與其它使用者或其它裝置收集與交換資料之裝置,其可被用來讓醫師更即時地瞭解病患之狀況。

  就運用的實例而言,於診斷方面,可利用裝置來連續性地收集關鍵之醫學參數,諸如血液生化檢驗數值、血壓、大腦活動和疼痛程度等等,而可幫助檢測疾病發作或活動的早期跡象,從而改善反應。於療養方面,由於患者的手術後恢復時間是整個成本花費之重要部分,故縮短療養時間是減少成本之重要要素。可利用穿戴式感測器來幫助運動、遠端監控,追蹤各種關鍵指標,警示護理人員及時作出回應,並可與遠距醫療相結合,使加速恢復更加容易。於長期護理方面,可藉由裝置之測量與監控來避免不良結果與延長之恢復期。

  由於機器學習和人工智慧之共生性增長,醫療物聯網之價值正在增強。於處理來自於感測器醫療裝置之大量連續資訊流時,資料分析和機器學習可更快地提供可據以執行之結論以幫助治療過程。惟醫療物聯網亦可能面臨安全與標準化之挑戰。由於醫療保健的資料是駭客的主要目標,任何與網路連接之設備都存在安全性風險。此外,隨著相關裝置被廣泛地運用,即需要標準化以便利裝置之間的通訊,製造商和監管機構皆需尋找方法來確保裝置可在各種平台上安全地通訊。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 醫療物聯網(The Internet of Medical Things, IoMT) , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8366&no=67&tp=5 (最後瀏覽日:2026/03/04)
引註此篇文章
你可能還會想看
美國、日本、韓國舉辦「顛覆性技術保護網路高峰會」,簽署技術保護及出口管制合作意向書

美國、日本、韓國於2024年4月25日舉辦首屆「顛覆性技術保護網路高峰會」(Disruptive Technology Protection Network Summit,下稱高峰會),就顛覆性技術保護展開正式合作。 此高峰會係為履行三國於2023年8月18日「大衛營」(Camp David)峰會作出之「未來每年度應至少舉行一次三方國家會談」承諾。美國積極利用此高峰會,深化美國顛覆性技術打擊小組(Disruptive Technology Strike Force)與日本、韓國相應執法單位的資訊交換機制或經驗分享,加強技術保護及打擊相關犯罪活動。有關本次高峰會進展,簡要彙整如下: 一、經驗與案例分享:三國執法單位各自說明其技術保護工具、政策之最新舉措,並進行執法案例分享。 二、相關執法單位簽署合作意向書: (一)美國司法部(The Department of Justice)、日本警察廳(警察庁)和韓國法務部(법무부)共同簽署「深化技術外洩執法資訊分享合作意向書」(Letter of intent on deepening information sharing for tech leak law enforcement)。 (二)美國商務部(The Department of Commerce)、日本經濟產業省(経済産業省)和韓國產業通商資源部(산업통상자원부)共同簽署「實施出口管制合作意向書」(Letter of intent for cooperation on export control implementation)。 三國共識非法出口貨品或移轉技術行為,已對國家安全、經濟安全構成威脅,除持續優化相關法規外,有必要強化三國「執法面」連結,進行較即時的打擊犯罪跨國合作,防範民族國家境外勢力(Nation-state adversaries)以不正當手段獲取先進技術,並建立更全面的國際「顛覆性技術保護網路」(Disruptive Technology Protection Network)。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

從Google提起的「FITBEING」商標異議案談JPO對於近似與著名商標的判斷

日本特許廳(Japan Patent Office,後稱JPO)於2024年6月駁回Google公司對來自中國大陸的深▲せん▼小▲ちぇ▼科技有限公司(後稱中國大陸公司)有關「FITBEING」文字商標的註冊異議,認為中國大陸公司的「FITBEING」商標與Google公司的「FITBIT」商標在外觀、發音等方面存在顯著差異,因此不會對消費者造成混淆。 中國大陸公司於2023年1月在日本申請註冊「FITBEING」文字商標,指定於第14類的「鐘錶和計時儀器」等商品。Google公司於同年8月對該商標提出異議,主張「FITBEING」商標與其於2018年註冊的「FITBIT」文字商標,在拼寫及發音上相似,並有致相關消費者混淆誤認之可能,違反日本商標法第4條第1項第11款、第15款。此外,Google公司亦表示其「FITBIT」文字商標已為Google穿戴設備的「周知」標識,應具有排他性。 JPO指出,儘管「FITBEING」和「FITBIT」在拼寫上皆以「FITB」開頭,惟二者字尾的「ING」和「IT」無論在文字外觀、字母數量還是音節數量上的差異皆具顯著差異。此外,JPO亦評估「FITBIT」商標是否為「周知」商標。依日本商標法第4條第1項第10款規定,與消費者廣泛認識其為表示他人營業商品或服務之商標相同或近似,使用於同一或類似之商品或服務者,不得註冊商標。本案中,JPO指出Google公司所提供的證據,包括各國市場調查報告和廣告宣傳資料,卻未能提交足夠的日本市場調查資料,以證明「FITBIT」在日本已被相關消費者廣泛認識為Google穿戴式設備的「周知」標識。因此,基於雙方商標近似及周知程度,JPO駁回了Google公司的異議,認定兩商標無導致消費者混淆誤認之虞。 由本案可知,日本JPO對商標近似性的判斷標準與我國大致相同,均會考量商標的外觀、發音及涵義的差異。企業在設計創作商標時,應檢視商標的外觀、讀音以及涵義,避免欲註冊商標與現有商標近似,以避免無法取得註冊商標。此外,若欲主張「周知商標」,企業應確保提交充分的當地市場調查資料證明商標的知名程度,包括當地市場的消費者調查結果及銷售資料等,當面臨爭議時,用以主張商標的著名程度。 本案目前經JPO駁回Google公司的異議後,尚無進一步的訴願或訴訟公開資訊。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw/)

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP