本文為「經濟部產業技術司科技專案成果」
新加坡國立大學生物工程系科研人員宣佈,他們利用天然聚合物製成可以診斷癌細胞、又可殺死癌細胞的奈米載體。該系助理教授張勇相信,這是全球首次成功利用天然聚合物製成奈米顆粒。 研究甲殼素多年的張勇指出,從螃蟹、蝦殼中提煉出來的甲殼素,在實驗室內製成奈米顆粒的過程中,最困難的就是體積的控制,因為天然聚合物分子一般比較大。但最後仍突破瓶頸,以甲殼素研製出直徑約五十奈米的奈米顆粒,很容就可以被比它大一百倍到四百倍的人體細胞吸收。他說,這種利用天然聚合物製成的奈米顆粒,具備適合生物體、擁有生物功能等特性。 這些奈米顆粒將可用來裝載被稱為人工原子,以細微半導體材料製成的量子點和藥物。由於量子點受光源照射時會發光,不同大小量子點發出不同的光,發光時間可以維持幾個小時。因此把裝載量子點和藥物的奈米顆粒送入讓癌細胞吸收後,就可用光源照射,讓醫生可以辨認哪些是癌細胞,再把癌細胞殺死。目前其已與國大醫學院展開合作,在成肌細胞內注入裝載量子點的奈米顆粒,然後把成肌細胞移植到動物心臟,以進一步了解成肌細胞如何修復心臟組織。
歐盟執委會提出醫藥品管理整體配套方案,保障歐盟境內大眾用藥安全為確保歐洲民眾於健康醫療方面之利益,歐洲製藥工業協會聯合會(European Federal Pharnaceutical Industrial Association;簡稱EFPIA)於2009年2月17日,向歐洲議會(European Parliament)提出建議,並敦促其應儘速通過歐盟執委會(European Commission)於去年年底所提出一項關於醫藥品安全、創新與易近用性之議案。而一位業界代表Günter Verheugen於當(17)日會面後指出:「此次會面,主要是希望能就新近執委會所提交之醫藥品管理整體配套方案(Pharmaceutical Package),進行初步意見之交換與討論」。 由於保障歐盟境內民眾之健康安全,實乃歐盟決策者(Decision-makers)所應掮負之重要責任,故EFPIA總幹事Brian Ager於此次會面交流之前,亦曾高聲向歐洲議會與各會員國家呼籲,應優先將病患安全(Patient Safety)議題納入考量,並採取果斷之行動;同時,其也指明,歐洲醫藥各界為尋求各種可能落實之方法,先前早已經歷過各個階段,並遲延了決策做成之時機;故,此次會面,除要為執委會提案之審查,奠定啟動之基外,亦盼能再次集聚並挹注歐洲醫藥各界之能量,於保護歐洲人民健康安全相關之行動當中。 關於歐盟執委會於去(2008)年底所提出之議案,由於其中有多項內容對歐洲醫藥各界之影響實廣且深;因此,該項提案目前業已廣泛地受到EFPIA與業者之重視。此外,就此項醫藥品管理整體配套方案中擬採行之具體立法規範措施,實包含如後3個面向:首先,是欲透過規範擬提昇藥物警戒(Pharmacovigilance)方法之現代化;其次,強化管制規範以減少假藥滲入歐洲整體醫藥品供應鏈之機會;最後,則是要要提供高品質之健康與醫藥品相關資訊給有需要之病患或大眾近用(Access)等。 由此可知,未來歐盟整體醫藥品管理立法方向,將分由3個不同之角度出發;並同時朝「改善歐洲大眾用藥安全」之目標前進;不過,在進一步進行條文化之前,前述由執委會所提出之醫藥品管理整體配套方案,將會先交由歐洲議會與歐盟理事會官員共同進行初步之討論。
澳洲發佈《直接行動計畫》以因應氣候變遷 世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。