奈米級化粧品的安全尚待評估

  近年來,越來越多的化粧品標榜與奈米科技結合,其 業者表示,奈米顆粒較傳統化粧品為小,可由深層肌膚吸收 進而達到 強化保養的功能。不過 ,美國食品藥物管理局( FDA )及英國皇家學會則持相對保留的態度,認為奈米顆粒對於人體的長期風險還不明確,有待進一步研究 特別是針對細小微粒進入人體細胞或滲入血液時 ,對人體 可能產生的影響。


  為了確保奈米級化粧品的安全性
FDA 曾考慮針對此類產品建立一套類似製藥體系的實驗與許可證制度 ,並積極從事相關研究,以求增加此方面的知識進而 評估風險。此外 英國皇家學會也表示,目前仍不清楚這些微粒是否真能深入肌膚,以及是否會對血液產生長期影響。雖然 至今無人能夠證實奈米科技對於人體的危害,但卻有人相當擔心,它可能和基改一樣有利有弊。


  目前化妝品市場平均每年成長百分之十,若干業者更深信奈米科技能夠協助製造新一代產品。由於看好奈米級化粧品的一片榮景
目前國際知名的化妝品公司紛紛投入此類產品的開發 我國相關產業似乎也躍躍欲試 。面對越來越多的業者投入奈米級化粧品的開發與生產, 我國衛生署則提醒,奈米科技在化妝品上的運用是否成熟還需要觀察,其效果與安全性也有待進一步評估 因而民眾選購時應審慎判斷。

相關連結
※ 奈米級化粧品的安全尚待評估, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=484&no=55&tp=1 (最後瀏覽日:2026/01/14)
引註此篇文章
你可能還會想看
英國政府公布物聯網設備安全設計報告,提出製造商應遵循之設計準則草案

  英國數位、文化、媒體暨體育部於2018年3月8日公布「安全設計(Secure by Design)」報告,此報告目的在於使IoT設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。   此報告中包含了一份經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論後,提出之可供製造商遵循之行為準則(Code of Practice)草案。   此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。   其中提出了13項行為準則:1. 不應設定預設密碼(default password);2. 應實施漏洞揭露政策;3. 持續更新軟體;4. 確保機密與具有安全敏感性的資訊受到保護;5. 確保通訊之安全;6. 最小化可能受到攻擊的區域;7. 確保軟體的可信性;8. 確保個資受到妥善保障;9. 確保系統對於停電事故具有可回復性;10. 監督自動傳輸之數據;11. 使用戶以簡易的方式刪除個人資訊;12. 使設備可被容易的安裝與維護;13. 應驗證輸入之數據。   此草案將接受公眾意見,並於未來進一步檢視是否應立相關法律。

智慧財產權侵權風險分擔機制-歐盟專利訴訟保險制度

比利時法院對網路搜尋引擎巨擘被控侵害著作權乙案,判決Google敗訴

  比利時法院針對報業出版組織Copiepresse控告網路搜尋引擎巨擘Google侵害著作權一案,於二月十三日做出一審判決。該法院認為 Google未取得授權,在Google News新聞搜尋之服務中片斷重製原告之報導內容,並以重製的方式將受到保護之著作傳播給公眾,該行為已侵害到Copiepresse之著作權。法院除了下令Google刪除搜尋引擎中所出現的新聞報導片斷,並按該網站刊登的時間為基準,計算一天兩萬五千歐元的賠償金,Google應給付總金額高達三百四十五萬歐元的賠償金於Copiepresse。   Google的主要答辯指出,其係為協助使用者在該網站上尋找資訊的搜尋引擎,而非擁有自己資訊的入口網站。Google News也只針對使用者所輸入之搜尋關鍵字所做出之新聞頭條匯集及文章聯結,該行為應受到著作權法中「合理使用」(Fair Use) 之保護。而對搜尋結果之頭條、內容片斷及縮小圖片顯示,Google則抗辯此一作法已替Copiepresse網站吸引來更多想要閱讀全文之讀者,並為其締造更高的網路流量。   Copiepresse則主張,Google因在其網站刊登片斷重製之報導內容而受有廣告收益,就法律面而言已是侵害行為所得之利益。該組織的報導內容出現在Google的快取頁面,已使得該片斷的報導內容得自Google的網站中免費取得。通常許多報業僅將其報導文章的資料庫提供給付費會員瀏覽。   對此判決結果,Google已決定上訴。   全球媒體業者都對此判決密切注意。Google去年八月已和美聯社達成和解。而法國法新社去年三月控告Google的快取網頁侵害著作權乙案,目前仍在法院審理中。而其它入口網站公司YAHOO! 、AOL、Microsoft等已付費於法新社取得授權刊登其新聞文章內容。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP