新加坡科學家研究出奈米載體有效送藥抗癌

 

 

  新加坡科學家研究出新的抗癌方法,新加坡生物工程與奈米科技研究院宣佈,研究出智慧奈米載體,可以攜帶抗癌藥物準確送入癌細胞裏,有效地把癌細胞殺死,減少副作用。


   星國科技研究局生物工程與奈米科技研究院宣佈,研究出以聚合物製成的智慧奈米載體,大小少過二百奈米,也就是大約頭髮直徑的五百分之一,這種微粒載體內部中空,可以裝載抗癌藥物,而載體的外殼可以保護藥物免受消化液消化掉,在一般環境裏結構穩定,解決過去載體結構不穩定的問題。


   領導這項研究的科學家楊義燕博士表示,這種奈米載體可用酸鹼度和溫度變化來控制,當微粒載體碰到成低酸度的癌細胞組織和細胞質時,就會沈澱變形,同時釋放出內部的藥物分子殺死癌細胞。過去也有科學家研究出類似的微粒載體,但必須由體外透過溫度變化來控制微粒在體內的行進,控制不易;這次研究的載體,只要靠酸鹼度變化就可以把抗癌藥物帶到深層組織或細胞群,控制容易。


   載體釋放藥物的過程:當智慧奈米載體遇到癌細胞組織,會附在癌細胞組織表面,同時載體外部也附上生物訊號,能夠協助載體辨識和深入癌細胞內部,當癌細胞吸收了載體後,載體反過來吸收癌細胞內的質子,並把藥物分子釋放到細胞質和細胞核裏。


   研究團隊在進行老鼠乳癌細胞臨床實驗顯示,透過智慧奈米載體把用來治療白血病和各種癌症的阿黴素送到癌細胞內,有效抑制腫瘤生長,卻不會產生對正常細胞的毒害作用及副作用。

 

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 新加坡科學家研究出奈米載體有效送藥抗癌, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=274&no=64&tp=1 (最後瀏覽日:2026/05/16)
引註此篇文章
你可能還會想看
日本制定民間個人健康紀錄業者蒐集、處理、利用健康資料之基本指引草案

  日本厚生勞動省、經濟產業省和總務省共同於2021年2月19日公布「有關民間個人健康紀錄(Personal Health Record, PHR)業者蒐集、處理、利用健康資料之基本指引」(民間PHR事業者による健診等情報の取扱いに関する基本的指針)草案,檢討民間PHR業者提供PHR服務之應遵守事項,希望建立正確掌握和利用個人、家族健康診斷或病例等健康資料之電子紀錄制度。   本指引所稱之「健康資料」,係指可用於個人自身健康管理之敏感性個人資料,如預防接種、健康診斷、用藥資訊等;而適用本指引之業者為蒐集、處理、利用上開健康資料並提供PHR服務之業者。根據指引規定,PHR業者應針對資訊安全對策、個人資料處理、健康資料之保存管理和相互運用性及其他等4大面向採取適當措施。首先,在資訊安全對策部份,業者需取得風險管理系統之第三方認證(如資訊安全管理系統制度(ISMS));其次,針對個人資料,業者應制定隱私政策和服務利用規約,並遵守個資法規定;然後,為確保健康資料之保存管理和相互運用性,系統應具備雙向資料傳輸之功能;最後,本指引提供檢核表供業者自行檢查,業者亦應在網站上公佈自行檢查結果。

歐盟提出通用型人工智慧模型的著作權管理合規措施建議

歐盟提出通用型人工智慧模型的著作權管理合規措施建議 資訊工業策進會科技法律研究所 2025年07月23日 為推動以人為本且值得信賴之人工智慧(Artificial Intelligence, AI)應用,同時確保高度保護健康、安全及歐盟《基本權利憲章》所載之基本權利,包括民主、法治及環境保護,防止AI在歐盟境內造成有害影響,並依據歐盟《人工智慧法》(AI Act, AIA)第1條第1項支持創新。歐盟人工智慧辦公室(The European AI Office) 於2025年7月10日提出《人工智慧法案》關於通用型人工智慧的準則(The General-Purpose AI Code of Practice)[1],以下簡稱「GPAI實踐準則」。 該準則由辦公室擬定計劃邀集通用型人工智慧(以下簡稱GPAI)模型提供商、下游提供商、公協會、權利人、專家學者、民間團體組成工作小組,進行討論與草擬。目的在協助GPAI模型的提供者符合AIA要求其應訂定模型技術文件,提供給下游提供者,並應制定著作權政策、發布訓練內容摘要的規定。預計將自 2025 年 8 月 2 日起適用。 壹、事件摘要 歐盟GPAI實踐準則包括透明度、著作權與安全維護(Transparency, Copyright, and Safety and Security)三大章節。為證明符合AIA第53條及第55條所規定義的指導文件(guiding document),並確保GPAI提供者(providers)遵守其在《人工智慧法》下之義務,於該準則於著作權章節提供適用AIA第53條第1項(c)款規定[2]的措施建議。 該準則強調採取相關措施可以證明符合前揭定之義務,但符合歐盟著作權及相關權利法規,並不以遵守該準則為要件,而且也不會影響歐盟著作權及相關權利法規的適用與執行,其權利最終歸屬法院。而著作權人依法保留的權利,以及針對文字與資料探勘(Text and Data Mining, TDM)的例外或限制 (EU 2019/790號指令第4條第1項),仍應在合法條件下適用。 考量到一些GPAI提供者是新創企業,規模有別於一般企業,故該準則亦強調其所要求採取的是相稱措施(proportionate measures),應與提供者之規模相稱且合乎比例(commensurate and proportionate),並充分考量中小企業(SMEs),包括新創公司(startups)之利益。 貳、重點說明 該準則建議GPAI提供者,採取訂定著作權政策、合法重製、尊重權利保留、積極防止侵權、提供問責管道等五大著作權管理措施。 一、訂定、維持並實施著作權政策 為證明已符合AIA第53條第1項(c)款所負之義務,GPAI提供者針對其投放於歐盟市場之通用人工智慧模型,應制定政策以遵守歐盟著作權及相關權利法規。該準則建議提供者應將著作權章節所列措施納入於政策中,公開發布並維持最新狀態其著作權政策摘要,且在組織內部指派負責實施和監督。 二、獲取合法可存取之受著作權保護內容 GPAI提供者進行 EU 2019/790號指令第2條第2項之文字與資料探勘及訓練其通用人工智慧模型進行網際網路內容的重製並擷取時,例如使用網路爬蟲(web-crawlers)或授權他人使用網路爬蟲代其抓取(scrape)或以其他方式編譯資料,應防止或限制對作品及其他受保護標的物之未經授權行為,特別是應尊重訂閱模式(subscription models)或付費牆(paywalls)所施加之任何技術性拒絕或限制存取。而且在進行網路爬取時,應排除歐盟認定為持續且重複大規模商業侵犯著作權及相關權利之網站。 三、識別並遵守權利人的權利保留 GPAI提供者文字與資料探勘及訓練其通用人工智慧模型,其網路爬蟲應識別並遵守EU 2019/790號指第4條第3項的機器可讀(machine-readable)權利保留[3],讀取並遵循機器人排除協議(Robot Exclusion Protocol, robots.txt)。 該協議包括任何經網際網路工程任務組(Internet Engineering Task Force,IETF)證明技術上可行且可由AI提供者和內容提供者(包括權利人)實施之版本,或經國際或歐洲標準化組織採納透過基於資產(asset-based)或基於位置(location-based)之詮釋資料(metadata)等其他方式的機器可讀協議。亦包括通常係透過在歐盟層級經由權利人、AI提供者及其他相關利害關係人參與討論所達成共識的識別方案。 GPAI提供者亦應透過公開該等資訊並提供受影響權利人可在該等資訊更新時自動獲得通知的適當措施,使受影響之權利人能夠取得相關資訊,包括所用的網路爬蟲、所採識別並遵守權利保留之措施。 四、降低著作權侵權輸出之風險 為降低整合GPAI模型的下游人工智慧系統(downstream AI system),生成可能侵害著作權或相關權利的作品或其他標的物GPAI提供者應實施適當且合乎比例之技術保障措施,防止其模型生成以侵權方式重製受歐盟著作權及相關權利法規保護之訓練內容。;同時,在使用政策、條款與條件或其他類似文件中禁止模型用於著作權侵權目的。對於以自由及開源授權(free and open source licenses)發布之GPAI模型,應在隨附文件中請使用者注意禁止模型用於著作權侵權用途。無論是將模型整合至其自身的人工智慧系統,或係依據契約關係提供給他人。 五、提供聯繫受理管道 GPAI提供者應提供與受影響權利人進行連繫的管道與資訊,讓受影響之權利人及其代理人(包括集體管理組織(collective management organizations))以電子方式進行投訴。同時,勤勉、非任意地並在合理時間內處理投訴,除非投訴明顯無根據,或已對同一權利人提出之相同投訴作出回應。 參、事件評析 美國先前於2025年6月23日曾由加州北區聯邦地方法院(United States District Court for the Northern District of California),威廉·阿爾斯法官(Judge William Alsup)針對Andrea Bartz、Charles Graeber、Kirk Wallace Johnson這三位美國作家,對Anthropic公司訓練大型語言模型(Large Language Model, LLM)時使用受其等著作權保護書籍一案,作出AI訓練行為可主張合理使用的簡易裁決(summary judgment)[4]。但法官仍然指出提供AI訓練的合理使用(Fair Use)不代表資料來源的適法性(Legality of Source)獲得合法認定,並不支持盜版一本本來可以在書店購買的書籍對於創建大型語言模型 (LLM) 是合理必要 (reasonably necessary) 的。 這次歐盟的準則更明確指出,GPAI提供者進行文字與資料探勘及訓練其通用人工智慧模型,以網路爬蟲(web-crawlers)進行網際網路內容的擷取,應尊重訂閱模式(subscription models)或付費牆(paywalls)所採取的技術性拒絕或限制存取。而且在進行網路內容爬取時,應排除歐盟認定為持續且重複大規模商業侵犯著作權及相關權利之網站,即訓練資料的取得必須是合法。而且必須積極使用可識別並遵守機器人排除協議(Robot Exclusion Protocol, robots.txt)的技術,更應透過公開該等資訊、提供受影響權利人可在該等資訊更新時自動獲得通知的適當措施,使受影響之權利人能夠及時知悉所用網路爬蟲、所採尊重權利保留之措施。 雖然前揭美國法院案件正在進行審理,但顯然與歐盟的GPAI實踐準則及美國著作權局的合理使用立場[5]一樣,均不認同迴避權利保護施、自盜版網站取得的資料之情況。我國日前發生七法與法源公司之間的著作權訴訟,七法以網路爬蟲爬取法源公司於使用條款限制存取的資料,並非技術創新撞上不合時宜的舊有法律框架,而是創新應用仍應在合理保護權利的前提下進行。 歐盟GPAI實踐準則所揭示的政策制訂、尊重權利保留、積極防止侵權、提供有效且給予合理回應的問責管道等AIA合規要求,已提示GPAI的開發、服務提供,應如何透過公開、揭露措施來配套降低科技創新應用過程對既有權利的影響,也指引其應建立的內部管理與外部溝通重點。對於開發、運用GPAI對外提供服務的企業而言,在爭執訓練資料應有合法空間的同時,或許應該思考是否應先採取歐盟GPAI實踐準則所建議的措施,以尊重既有權利的態度,積極降低權利人的疑慮,始有助於形成互利的合法利用空間。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The European AI Office, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai。(最後閱覽日:2025/07/21) [2]該條款要求將通用人工智慧模型投放於歐盟市場(Union market)之提供者,必須制定政策以遵守歐盟著作權及相關權利法規,特別是透過最先進之技術,識別並遵守權利人依據《第2019/790號指令》(Directive (EU) 2019/790)第4條第3項所表達之權利保留。 [3]指不接受其著作被用於文字與資料探勘目的之利用。 [4]Bartz et al. v. Anthropic PBC, No. 3:24-cv-05417-WHA, Doc. 231, (N.D. Cal. June 23, 2025),https://cdn.arstechnica.net/wp-content/uploads/2025/06/Bartz-v-Anthropic-Order-on-Fair-Use-6-23-25.pdf。(最後閱覽日:2025/06/25) [5]劉家儀,美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?https://stli.iii.org.tw/article-detail.aspx?no=0&tp=1&d=9352。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

英國Ofcom完成第一階段數位通訊審查

  英國Ofcom在2015年7月16日公布數位通訊審查第一階段之報告,指出英國未來可能面臨的挑戰問題,希望使消費者以及企業在未來的十年甚至以後能享有高品質的數位通訊服務。Ofcome先前在2015年3月提出預計進行數位通訊政策審查,檢視競爭、投資、研發以及所有數位通訊服務的使用情形,包括寬頻、行動電話、以及捆綁式服務等。 Ofcom針對四個主要領域部分提出建議: 1.市場的投資與研發,有助於服務普及。 Ofcom預估10Mbit/s為必要的寬頻速度,可以提供每天熱門的線上服務使用,例如影視音隨選服務。然而,目前英國僅有8%家戶可以取得此等速度服務。因此,Ofcom檢視法規如何使未來超高速寬頻的商業應用發展更完備。同時,Ofcom預估將來4G行動寬頻將達98%,但未來消費者與企業的期望也將隨之增高,因此仍有待於再加強網路投資。 2.競爭,藉此能提供有品質的服務和良好的價格。 在此次的檢討中,Ofcom將檢視以下議題: (1) 保留目前運作模式:電信網絡部門Openreach有別於BT,在功能上不同,利用一般性市場審查來說明任何與競爭相關之問題。 (2) 將目前的運作模式延伸: 透過對於BT的新規範,例如利用較強的誘因來控制批發價格,藉此改善服務品質,或甚至當BT出現問題時,以處罰方式進行。 (3) 將Openreach從BT中劃分,藉此可以對末端使用者有良好的競爭利益。 (4) 去管制並且促進網路競爭。 3.賦予消費者以及業者有選擇的權利,尤其是可以自由選擇或轉換這些服務提供業者。 對於Ofcom而言,所要考量的重點在於消費者在選擇服務時,是否以擁有充分的資訊可以參考。同時要思考消費者在轉換服務業者時,其是否具有障礙。 4.持續追蹤法規議題,為使市場能構良好運作,應該去管制。 例如OTT網路通訊服務,對於行動業者而言將需要較少的管制,或是是否將現有的規範直接延伸規定。   未來,在此項檢討之後,ofcom將再進行第二階段的檢視,預計於2015年10月8日進行回應討論,以促使整體英國具有良好的通訊服務環境。

TOP