奈米級化粧品的安全尚待評估

  近年來,越來越多的化粧品標榜與奈米科技結合,其 業者表示,奈米顆粒較傳統化粧品為小,可由深層肌膚吸收 進而達到 強化保養的功能。不過 ,美國食品藥物管理局( FDA )及英國皇家學會則持相對保留的態度,認為奈米顆粒對於人體的長期風險還不明確,有待進一步研究 特別是針對細小微粒進入人體細胞或滲入血液時 ,對人體 可能產生的影響。


  為了確保奈米級化粧品的安全性
FDA 曾考慮針對此類產品建立一套類似製藥體系的實驗與許可證制度 ,並積極從事相關研究,以求增加此方面的知識進而 評估風險。此外 英國皇家學會也表示,目前仍不清楚這些微粒是否真能深入肌膚,以及是否會對血液產生長期影響。雖然 至今無人能夠證實奈米科技對於人體的危害,但卻有人相當擔心,它可能和基改一樣有利有弊。


  目前化妝品市場平均每年成長百分之十,若干業者更深信奈米科技能夠協助製造新一代產品。由於看好奈米級化粧品的一片榮景
目前國際知名的化妝品公司紛紛投入此類產品的開發 我國相關產業似乎也躍躍欲試 。面對越來越多的業者投入奈米級化粧品的開發與生產, 我國衛生署則提醒,奈米科技在化妝品上的運用是否成熟還需要觀察,其效果與安全性也有待進一步評估 因而民眾選購時應審慎判斷。

相關連結
※ 奈米級化粧品的安全尚待評估, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=484&no=67&tp=1 (最後瀏覽日:2026/04/22)
引註此篇文章
你可能還會想看
新國際協定針對未經請求之行銷電話或電子訊息展開聯合行動

  加拿大隱私專員於2016年6月14日表示,制定支持全球電信監管機構和消費者保護機構,針對垃圾郵件和行銷騷擾電話之跨境共同合作協議。   倫敦行動計畫(London Action Plan)備忘錄(MOU)之簽署國,現已可針對打擊跨國界或逾各個國家監管部門範圍之犯罪從事者的執法行動,相互分享資訊和情報,以獲取協助。   包括加拿大隱私專員辦公室(OPC)在內,目前既已簽署方分別為:澳大利亞通訊及傳媒管理局;加拿大廣播電視和電信委員會、韓國訊息安全局(KISA)、荷蘭消費者和市場監管局(ACM)、英國資訊委員辦公室及公民諮詢局、紐西蘭內政部、南非國家消費者委員會、美國聯邦貿易委員會和聯邦通訊傳播委員會。其他國家之政府當局亦表示願提交備忘錄,以及將來可能加入之意願。   對於加拿大隱私專員辦公室而言,這項協議將有助於達成加拿大反垃圾郵件法(CASL)關於電子郵件地址蒐集和間諜軟體之調查義務與責任,並與具有相同任務之夥伴機構間,進行偵查技巧及策略之分享。   加拿大隱私專員辦公室致力於和國內及國際夥伴合作,並已與國內之CASL執法合作夥伴及其他許多國家的隱私保護機構簽訂協議。

新興網路音樂流通模式之法律政策趨勢與實例研討

澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理

2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟提出「一般資料保護規章」(草案)並審議,以因應未來聯網環境趨勢

  為因應近來智慧聯網(IoT)、巨量資料及雲端運算發展趨勢,為強化線上隱私權利及促進歐盟數位經濟的發展,歐盟執委會於2012年1月25日對於資料保護指令提出新的規章草案:「保護個人有關個人資料處理及自由流通規章(一般資料保護規章)」(Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation)),以取代並廢除(repealed)原有「個人資料保護指令」規範,並修改(amend)「隱私與電子通訊指令」,預計在2013年6月進入歐洲議會、理事會及執委會的三方協商,若順利將在2014年通過,並在2016年生效。   「一般資料保護規章」(草案)中對於聯網環境及智慧化設備運行之因應,重要規範內容有(1)追蹤(tracking)與特徵分析(profiling):訂定第20條「特徵分析措施」(Measures based on profiling)規範條文,保障每個當事人皆有主張不被採取特徵分析措施(如個人傾向、工作表現、財務狀況、位址、健康、個人喜好、可信度)而致產生法律效果或顯著影響該個人的權利(2)被遺忘及刪除權(right to be forgotten and to erasure):訂定第17條,創設新的權利「被遺忘及刪除權」,用以幫助民眾處理線上資料,當其不希望自己的資料被利用且無合法理由保留時,資料將被刪除(3)資料可攜權利(the right to data portability):訂定第18條,當資料處理是以電子化方法,且使用結構性、通用的格式時,資料當事人有權利可以取得該結構性、通用格式下的個人資料,更容易自不同服務提供者間移轉個人資料。(4)當事人的同意要件:第4條第8款明定,不論何種資料處理情況時所需的同意,增列必須是明確(explicitly)同意之要件(5)「設計階段納入隱私考量」(privacy by design)、「預設隱私設定」(privacy by default):訂定第30條,要求資料控制者及處理者應實行適當的技術性、組織性措施,並考量科技發展水準,制定特定領域及特定資料處理情況的標準及條件,並且資料保護將會從產品及服務最初發展、設計時就考量隱私問題應對「設計階段納入隱私考量」及「預設隱私設定」提出標準及條件。   歐盟此次對於「一般資料保護規章」(草案)的修法進程,以及世界各重要國家的立場及反應態度,均值得後續密切觀察研析。

TOP