為妥適管理中國幹細胞醫療產業,中國衛生部下令停止未經許可之幹細胞臨床研究和應用行為,並展開為期一年的幹細胞臨床研究和應用規範整頓工作。此期間分為「自查自糾」、「重新認證」和「規範管理」等階段。中國衛生部及國家食品藥品監督管理局(以下簡稱食品藥品監管局)辦公室於今年(2012年)1月6日發布一份名為《關於發展幹細胞臨床研究和應用自查自糾工作的通知》之部門規章,明白揭示於「自查自糾」階段各省、自治區及直轄市之衛生廳局及食品藥品監督管理局應如何辦理。
該通知中要求全國各級各類從事幹細胞臨床研究及應用之醫療機構及相關研究單位應依照《藥物臨床實驗質量管理規範》及《醫療技術臨床應用管理辦法》之規範進行自查自糾工作,如實總結並填寫幹細胞臨床研究和應用自查情況調查表,報告已完成或刻正進行之幹細胞臨床研究和應用活動;另外一方面,中國衛生部及食品藥品監管局及各省、自治區及直轄市將分別組成工作領導小組及工作組,制定自查自糾工作方案。針對尚未經批准之幹細胞臨床研究和應用,於通知文件中明白揭示應予停止;已經批准者,亦不得任意變更臨床試驗方案,或自行變更為醫療機構收費項目。值得注意者,為整頓對幹細胞臨床研究及應用之管理,並研擬符合國內需求之管理機制,直至今年7月1日前,相關主管機關將不受理任何申報項目。
中國截至目前為止,尚未針對幹細胞技術之臨床實驗或應用做成法規或政策,僅適用一般性藥品法規,相較於國際間先進國家屬相對鬆散。中國衛生部及食品藥品監管局於近日做成之通知文件顯示了中國政府開始對於幹細胞臨床實驗及應用之規範面向有所重視,針對其後續衍生之管理規範值得我們持續追蹤關切。
本文為「經濟部產業技術司科技專案成果」
紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。
歐洲藥物管理局(EMA)加強與歐洲毒品與毒癮監控中心(EMCDDA)於精神性影響藥物和藥物濫用上的資訊交換合作2010年藥物主動監視法規(pharmacovigilance legislation)要求EMA和EMCDDA必須加強在藥物產品濫用(包含不合法藥品)的資訊交換合作關係,是以,EMA和EMCDDA於今年九月初於葡萄牙里斯本相互簽署了修訂工作協議(amended working arrangement),約定在新型精神性影響藥物與藥物濫用的面向上,加強相互間的資訊交流合作。 於EMA和EMCDDA所簽訂的修正工作協議中,雙方約定就下列領域深化資訊交換: 1.雙方需各自依照歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條,對於所擁有之新型精神性影響藥物與藥物濫用(包含不合法藥品)資訊進行交換合作; 2.資訊交換需透過通常基準的報告形式由EMCDDA送至EMA,並含括有關於藥物產品濫用、不合法藥物,以及新型精神性影響物質等相關資訊; 3.EMA必須通知EMCDDA有關於藥物產品濫用的有效導因(validated signals),同時,EMA必須提供EMCDDA有關於藥物產品濫用和新型精神性影響藥品市場核准狀況的細部資訊; 4.EMA對於選定藥物產品之風險管理計畫的界定,可考量是否需先行與EMCDDA作諮詢意見交換; 5.EMA和EMCDDA在歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條所設基礎的合作模式下,必須要特別注意確保人類或動物健康照護並無惡化的情事,同時應確保科學建議之潛在衝突於前階段將會被界定與管理; 6.EMA和EMCDDA兩者間諮詢的進行,必須避免非關於新型精神性影響物質風險評估之科學建議的潛在衝突; 7.對於任何額外合作計畫的執行,必須考量EMA和EMCDDA兩者的例行性工作規劃; 8.對於特定計畫需要額外資源時,必須經由EMA和EMCDDA共同同意,並將同意文件附於現階段的工作協議中; 9.EMA和EMCDDA可就其各自舉辦的會議相互邀請對方,並邀請對該會議有興趣的其他團體參與; 10.對於EMA和EMCDDA間實際的合作面向,將在工作協議既定架構下繼續發展。 除了前述的適用範圍外,EMA和EMCDDA的修訂工作協議,亦有就相互諮詢和秘密資訊等領域作出約定,以確保資訊交換係在符合雙方需求與不侵害個人基本權利的情況下進行。有鑑於EMA和EMCDDA希冀藉由資源互補的強化約定,來彌補自身於精神性影響藥物和藥物濫用領域的資訊不足缺陷,是否我國在相關醫療、藥品管制或是藥品商業化資訊需有跨機關的整合機制,以促使我國在醫療、醫藥資訊交換與流通,在不侵害個人基本權利的情況下,能夠發揮互益效用,則是我國有關單位必須審慎思考的問題。
歐盟委員會發佈新「電視無疆界指令」(Television without Frontiers)歐盟委員會在2007年03月09日,發佈了具現代化的統一文案:「電視無疆界指令」。在經過歐盟議會以及首長會議一讀後,委員會對於歐洲相關視聽的未來法律框架,有了廣泛的共識。 加速1989年電視無疆界指令的現代化,是2005年12月13日由委員會提出,目的是希能夠幫助歐洲視聽產業能更具競爭力,也期望透過對傳統電視廣播業者更彈性的規範,使其能夠因應技術的發展,接受新的技術,也能因應市場變化以及閱聽者收視習慣的改變,進一步創造新興的視聽媒體服務(數位電視中的視聽服務、行動電視、隨選視訊服務)。 除了新的規範內容,新指令還重申了自1989以來,一直為歐洲視聽政策核心的共同政策目標。這些目標包括尊重多元文化、要求各會員國採取適當措施來保護未成年人、媒體多元化、打擊種族和宗教仇恨等。此外,也明確鼓勵業者自律以及國家與非國家間的相互約束。整個新指令的文案目前正進行二讀中。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。