開放臍帶血移植 再等等

  林口長庚醫院透過專案申請,已經完成10例「非親屬臍帶血移植」手術,病人術後狀況良好,都不需再輸血,有2人連抗排斥藥物都不需要。目前學界草擬的「臍帶血移植草案」已出爐,將放寬為常規手術,不過須審慎訂定符合手術的資格,開放與否還得再等。


  林口長庚原本預計在2年內完成4例手術,結果半年內就完成,再度以專案申請,1年2個月下來共完成10例。參與的兒童醫院血液腫瘤科醫師江東和表示,參與試驗的病童,多為重度海洋性貧血,在臍帶血配對上,不那麼嚴格,術後恢復情形良好,加上家長口耳相傳,所以不斷有人希望透過此一途徑,救自己的孩子。


  
不過,林口長庚暫時無法再繼續「加班」,江東和表示經費是主因,這10例由於是試驗性質,醫療費用、門診追蹤費用,全由長庚的研究經費支付,不可能無限量供應。江東和表示院方對於臍帶血移植手術,累積的信心度很高,未來須視手術開放的程度,列為常規醫療還是專案申請,才能決定如何繼續這項治療方法。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 開放臍帶血移植 再等等, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=252&no=64&tp=1 (最後瀏覽日:2026/02/20)
引註此篇文章
你可能還會想看
韓國公布「數位平台政府實施計畫」

2023年4月韓國政府公布「數位平台政府(디지털플랫폼정부위원회,Digital Platform Government)實施計畫」,促使政府全面結合人工智慧和資料運用,打破過往部會機關個別發展數位專業的阻隔,為國民提供數位化整合的政府服務,並鼓勵企業創新。 「數位平台政府」為2022年新任總統尹錫悅推行的政府改革措施之一,同年7月頒定組織條例,成立直屬於總統之「數位平台政府委員會」,委任財政、科學、行政及個資保護4部會首長及19位專家組成。數位平台政府實施計畫預計2027年完成,計畫訂出4項數位平台政府關鍵服務任務,任務目標與對應措施如下: (1)政府為人民服務:建立政府綜合服務窗口,統整中央、地方各級單位之千餘種稅捐、福利等內容,提供如「青年政策整合」之個性化便利服務,以減少人民不便與潛在社會問題。 (2)智慧的一體式政府:擴大機構間資料的共享與利用,打破部會之間、中央和地方政府之間的資料孤島情形,目標串連1.7萬餘的政府系統,成為政府創新基礎設施,以靈活應對快速變化的外部環境。 (3)公私協力的成長平台:打造數位經濟生態系,以交通、安全、能源和城市為初步建置領域,後續擴展到醫療、環境和公共管理等,預計培養1萬家基於此生態系經營的SaaS(Software as a Service,軟體即服務)公司。 (4)可信賴的平台政府:加強人民對個人資料的控制權,將於數位政府平台中引入資料近用記錄檢查和管理功能,並採用「零信任」、「供應鏈安全」等機制提高安全性。

歐洲議會近日通過《數位營運韌性法案》,堅守數位金融市場安全

  為因應金融產業數位化及鼓勵金融業創新,並在打造歐盟金融業競爭之同時,確保消費者之保護及金融市場之穩定,歐盟執委會於2020年9月間通過「數位金融整體計畫」(Digital Finance Package),該計劃包含之項目十分廣泛,建構了歐盟未來對於數位金融市場之整體性立法框架。   而2022年11月甫通過之「數位營運韌性法案」 (Digital Operational Resilience Act, DORA)便是數位金融整體計畫中之一分支,該法案預計將於2025年生效。有鑑於過去歐盟會員國各自對資通安全事件行動效果有限,且國家措施之不同調導致重疊、不一致、重複之要求而產生高昂之行政和法遵成本,此情況分裂了單一市場,破壞了歐盟金融機構之穩定性和完整性,並危及消費者和投資者保護,遂有本法案之誕生。   本法案主要之訂定目的在於建立資通安全事件之要求標準及通報流程機制以加強銀行、保險業、投信投顧等金融業者之資通安全,使其面臨網路攻擊時,能保有韌性及恢復力,並維持正常之營運狀態。具體而言,本法案為促金融業者達成高度數位經營韌性之統一要求,遂要求金融業者採取以下手段:   (一)資通風險管理監控   (二)資通事件之報告及建立於自願基礎上之重大網路威脅通報   (三)向主管機關通報重大營運或支付安全有關之事件   (四)數位營運韌性檢測   (五)有關網路威脅或漏洞有關之資訊情報共享   (六)健全控管對第三方資通技術供應者之機制。   總地而論,本法案透過建立歐盟統一之資通安全事件通報原則及營運韌性檢測標準等方式加強歐盟之眾金融機構在受網路攻擊之應對能力,且將可避免過去各國間無法取得共識,金融機構於發生資通安全事件時手足無措之窘境,值得讚許,或可為我國未來借鏡採納。

美國FDA將整合區塊鏈等新興技術於電子協同運作系統之開發,以提升藥物供應鏈的安全性

  依據2013年11月27日通過之藥物供應鏈安全法(Drug Supply Chain Security Act, DSCSA),美國食品與藥物管理局(US Food and Drug Administration, FDA)於2019年2月7日公布新的領航計畫(Pilot Program)。此計畫主要的目標在於發展電子協同運作系統(electronic, interoperable system)以降低不合規範的藥物於市場流通的可能性,並提升患者的用藥安全。   此運作系統預計於2023年開始正式實施,其主要的功能包含辨識(identify)或追蹤處方藥物(prescription drugs)於供應鏈中的流通狀態,以及排除非法藥物進入供應鏈。於後者的情形,此運作系統將同時協助相關主管機關在非法藥物於市場中流通時迅速反應。FDA進一步指出,為達到這些目的,將引入區塊鏈(blockchain)等已使用在全球食品供應鏈(global food supply chains)的管理技術,以促進系統運作過程中的可追蹤性(traceability)及準確性。   此計畫於2019年2月8日到3月11日間接受加入申請,FDA鼓勵供應鏈中的相關人員,包含製造商(manufacturers)、再包裝商(repackagers)及其他利害關係人(other stakeholders)加入並試行計畫中開發的運作系統等技術,以加強產品使用狀況的管理。此外,FDA未來將持續公布相關的指引草案,如藥物辨識指標(product identifiers)等,以提升產業利用性及藥物使用的安全性。

歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步

歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)

TOP