日本於「再興戰略2016」中公布今後醫療等領域徹底ICT化之相關政策

  日本政府於2016年6月2日經內閣議決「再興戰略2016」,為提升國民健康、提高平均壽命,以「世界最先進的健康國家」大篇幅宣布未來政策。其中,在「醫療、長照等領域徹底ICT化」方面之具體新措施如下:

(1)醫療等領域中導入ID制度
  日本厚生勞動省於2015年11月18日召開第10次「醫療等領域利用識別號碼制度之研究會」(医療等分野における番号制度の活用等に関する研究会),並於次月公布相關研究報告書,其內容包含導入「醫療保險線上資格審查」以及「醫療ID制度」,上述制度預計自2018年開始階段性運用,並於2020年正式實施,因此,本年度工作目標設定為,著手勾勒具體之應用系統機制,並針對實務面相關議題進行討論,自明年開始落實系統開發,整體而言,日本現階段最重要的目標就是促使醫療領域徹底數位化及標準化。

(2)透過巨量資料之利用,增進相關領域之創新
  「次世代醫療ICT基礎設施協議會」(次世代医療ICT基盤協議会策定)將延續2016年3月由其所策定之「醫療領域資料利用計畫」(「医療等分野データ利活用プログラム」,意即加強各資料庫(例如醫療資訊資料庫MID-NET)之交流並擴大相關應用。
  此外,在現行法規範下,為達成促進醫療領域資訊利用、醫藥相關研發之目標,應成立「代理機關(暫稱)」,以便於擴大收集醫療、檢驗等數據資料,並妥善管理與去識別化,日本政府於「再興戰略2016」中將此機關之設置列為次世代醫療ICT基礎設施協議會之重要工作項目,期望透過協議會對相關制度之討論,能在明年訂定出具體的法律措施。

(3)個人醫療和健康資訊之綜合利用
  日本政府期望透過不同終端設備收集關於醫療、健康等資料,並鼓勵民間依此開發新市場,但在此之前,政府必須先行建構一個能良性發展的環境。首先,為實現針對個人需求量身打造的「個別化健康服務」,保險業者、握有病歷的機構、健檢中心及可穿戴式終端設備等,得經當事人同意後收集、分析其日常健康資訊,該「個別化健康服務」之實證計畫將於本年度啟動,由地區中小企業開始。
  為強化醫療保險業者去整合運用相關資源並應用於預防、健康醫學上,政府機關應訂定一些獎勵措施,鼓勵業者將ICT技術活用於預防、健康醫學領域上。

  此外,今年度「次世代醫療ICT基礎設施協議會」還有一項重要的工作項目,即建立可記錄患者所有就醫過程資訊之系統(Peronal Health Recaord,簡稱PHR),讓相關醫療資料得以流通運用。同時,日本政府希望能在2018年達成「地區性醫療情報聯結網路」,並普及到全國各地,這麼做的目的在於,過往因為醫療資訊不流通,以及重症照護上的斷層,使身心障礙者往往難以離開長期利用的醫療環境,新政策希望讓這些患者無論遷居何處,在全國各地皆能安心接受醫療服務,而不受限於地區限制。

相關連結
※ 日本於「再興戰略2016」中公布今後醫療等領域徹底ICT化之相關政策, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7615&no=57&tp=1 (最後瀏覽日:2025/12/26)
引註此篇文章
你可能還會想看
美國創新戰略推動下科技政策與重要法案之觀察

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

下一個要控告的是…其它所有公司?

  Eolas,一家由加州大學資助成立的軟體技術研發公司,於1999年控告微軟侵犯了一個關於瀏覽器技術的專利 – US 5,838,906。該專利所揭露的技術讓微軟的IE瀏覽器得以嵌入互動式內容的外掛(plug-in)程式。2003年,美國芝加哥法院認定微軟侵犯906專利,並判決微軟必需賠償Eolas及加州大學5.21億美元。2007年,微軟終於暫時與Eolas達成和解,但兩家公司都不願透漏和解的內容。     美西時間2009年10月6日上午,Eolas大動作地控告包含科技業的Adobe、Amazon、Apple、eBay、Google、Sun Microsystems、Texas Instruments、Yahoo、YouTube,以及非科技業的Citigroup、JPMorgan Chase …等共22家公司,侵犯上述906專利以及其所衍生的US 7,599,985專利。Eolas表示:「985專利是 906專利的延續,其所揭露的技術能讓網站透過附加元件和Ajax網頁開發技術的使用,為其線上服務加入完全互動式的嵌入應用軟體。」     此外,Eolas總裁Michael Doyle博士也表示:「我們只想獲得公平的對待。本公司在15年前就已經研發並廣泛的展示這些技術。使用本公司的技術來營利且未付出合理報酬的情形對本公司並不公平。」 至於被控告的大多數公司目前都尚未做出正式的回應。

TOP