歐盟提出智慧醫院防禦網路攻擊建議

  歐盟網路與資訊安全局於2016年11月(ENISA)提出醫院導入智慧聯網技術因應資訊安全之研究建議,此研究說明智慧醫院之ICT應用乃以風險評估為基礎,聚焦於相關威脅與弱點、分析網路攻擊情節,同時建立使用準則供醫院遵守。由於遠端病患照護之需求,將使醫院轉型,運用智慧解決機制之際,仍須考量安全防護問題,且醫院可能成為下一階段網路攻擊之目標,醫院導入智慧聯元件的同時,將增加攻擊媒介使醫院面對網路攻擊更加脆弱,因此,報告建議如下:
1.醫療照護機構應提供特定資訊安全防護,要求智慧聯網元件符合最佳安全措施。
2.智慧醫院應確認醫院內之物件及其如何進行網路連結,並根據所得資料採取相應措施。
3.設備製造商應將安全防護納入現有資安系統,並在設計系統與服務之初邀請健康照護機構參與。

  在我國部分,2016年9月行政院生技產業策略諮議委員會議中即提到,強調將建立智慧健康生活創新服務模式,提供民眾必要健康資訊及更友善支持環境,同時結合ICT與精密機械及材料,發展智慧健康服務的模式。2016年11月,行政院推動「生醫產業創新推動方案」,藉由調適法規等方式統整醫療體系與運用ICT技術及異業整合,其中在智慧聯網應用下之資訊安全防護議題實屬重要。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 歐盟提出智慧醫院防禦網路攻擊建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7670&no=57&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
OECD 發布2015年科學、科技與產業計分板,建議各國政府應增加對於創新研發之投資

  於2015年10月19日,經濟合作與發展組織(OECD)發布最新2015年OECD科學、科技與產業計分板(OECD Science, Technology and Industry Scoreboard 2015),此份報告指出,各國政府應增加對於創新研發的投資,以發展工業、醫療、資通訊產業的新領域科技,也將為氣候變化等全球性挑戰提供急需的解決措施。該報告數據顯示,美國、日本和韓國在新一代突破性科技方面具領先地位,即智慧製造材料、健康、資通訊技術這些有潛力改變現有進程的領域,尤其是韓國,最近在這些領域獲得了重大進展。自2000年以來,韓國的公共研發支出增加二倍之多,2014年GDP佔比達1.2%。反觀,許多發達經濟體的公共研發支出卻停滯不前,2014年OECD經濟體公共研發GDP佔比平均水平低於0.7%。   於2010-12年間,在智慧製造材料、健康和新一代資通訊技術領域,在歐洲和美國申請專利家族(patent families)中,美國、日本和韓國共佔到65%以上,接著是德國、法國與中國。2005-07年,韓國在這三個領域的專利家族申請數表現出最為強勁。在資通訊技術領域,韓國正致力於推動智慧聯網技術,歐盟是量子計算,中國則是巨量資料。於2013年OECD國家總研發支出實際增長了2.7%,達1.1萬億美元,但其GDP佔比與2012年相同,為2.4%。這一增長主要來自企業研發投入,而政府研發投入受到了預算合併等措施的影響。創新不止依靠研發上的投入,也依靠互補性資產,如軟體、設計和人力資本,即知識資本(knowledge-based capital, KBC)。知識資本投入已證實可抵抗經濟危機的衝擊,且2013年的數據表明各個經濟行業都增加了對知識資本的投入。但自2010年以來,許多發達國家政府資助或實施的研發減少或停滯不前。OECD警示,研發支出的減少對許多發達經濟體科技研發系統的穩定產生了威脅。鑑於OECD國家70%的研發來自企業部門,也傾向於關注特定應用程序的開發,從而改進先前的OECD計分版本,此份報告強調政府有必要保持對更具開放性的“基礎研究”的投入,始能激發與一些潛在用戶相關的新發現與新發明。

著名商標之淡化保護 v.s. 嘲諷性使用著名商標之言論自由保障-從美國商標法及判決評析

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

日本提出設置沙盒制度的法律修正案

  日本內閣府於2018年3月13日閣議決定,提出「國家戰略特別區域法」的法律修正案,以特定的地域為限,創設供自駕車、無人載具等技術測試與實踐運行之用的沙盒制度。   該法案為使這些前所未有、具高度革新性的近未來技術用於實地測試時,在確保監督管道的前提下,能獲得迅速、具彈性且友善的法律環境配合,將上開技術測試運行的事前管制強度降至最低,而以強化事後查核機制取代之,期望藉此增進產業的國際競爭力,並建立國際性經濟活動據點。   依該法案的設計,將因沙盒制度而受惠的技術實踐行為類型,包含下列五種:(1)部分未符合道路運送車輛法第41條技術基準要求的汽車運行;(2)自駕車運行而似會影響一般交通之情形;(3)在具影響一般飛航安全之虞的空域內、或在住宅密集地區上空令無人機飛行之行為;(4)未依照航空法所定之列舉方式運行無人機之行為;(5)因上開(1)至(4)之行為而必須使用無線設備的情形。   於現行法的規範下,上開技術測試行為本係牴觸法規範而不被允許、或需依各該特別法規定於個案例外取得許可或使用執照的情形。   但經沙盒制度修正案的調整後,該些測試行為只要是在經國家戰略特別區域會議制定、且受內閣總理大臣等相關機關主管認可的個別技術實證區域計劃之框架下提出,並交由獲得認定的業者進行,即可例外容許其得以不須滿足(1)當中的法定技術基準要求,或直接擬制其已獲得許可;此外,就必須使用無線設備的情況,要求總理大臣盡速發給執照予符合資格的業者。   於事後查核機制,則在區域會議設置由第三方組成的技術實證評價委員會,對各該區域計劃進行評價。

TOP