美國職業安全及健康研究院﹙NIOSH﹚在奈米風險控管上的突破性進展

  美國職業安全及健康研究院﹙NIOSH﹚是美國發展奈米科技的重要政府單位之一。近來,其頻頻透過國際組織的運作來處理與奈米科技有關之職業安全與健康影響問題。NIOSH首長John Howard表示,在國際層次上,科學家及決策者皆明瞭處理與奈米材料製造及產業使用所引致之職業病或職災,是當下最重要的工作之一。而由於NIOSH在促進世界性科學對話上,始終扮演者厥功甚偉的角色,因而在奈米科技發展初期,其亦積極協助此一科技能夠充分考慮安全及健康問題,發展出具全球協調性的技術方法,並有助於美國在國際市場的領先地位。而其近期主要成就在於以下三個部分:

 

1.今﹙2007﹚11月29日,經濟合作暨發展組織﹙OECD﹚人造奈米材料工作小組通過NIOSH-Led計畫,負責執行奈米材料暴露控制與測量等相關資訊之交換,同時透過領導小組,與會員國共同聚焦商討一些足以引起公眾意識的議題,例如在職業環境中之暴露測量與減輕。

 

2.其次,在今年12月4日至同月7日的國際組織會議中,ISO TC229表決通過有關奈米科技在職業環境之安全與健康規範的報告初稿,此報告係以NIOSH所發表一份名為“Approaches to Safe Nanotechnology”的報告作為基礎,而繼續由其發展與修正。本報告初稿送至ISO技術委員會審查,委員會認為報告內容涵蓋完整的技術性工作,且其未來影響將遍及全球,而為全球組織所關切。

 

3.此外,在今年12月2日,NIOSH另參與世界衛生組織﹙WHO﹚之職業健康合作中心全球聯網會議,當次會議之焦點在於奈米科技,會中NIOSH代表負責報告工程奈米粒子在職業安全及衛生上所遭遇之挑戰現況。本次會議中將決定WHO合作機制如何發展運作,以避免暴露於可能有害的工程奈米粒子。

 

  整體而言,關於奈米科技之安全與健康影響及其相關應用的研究,NIOSH統整建置了一套策略性工作計畫,透過這些研究專門處理一些重要問題,包括某些對於評估風險及控制暴露極為有效的科學資訊。除了研究之外,NIOSH亦積極參與國際組織活動,可以預見其對奈米科技未來發展之影響將無遠弗界。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國職業安全及健康研究院﹙NIOSH﹚在奈米風險控管上的突破性進展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2609&no=67&tp=1 (最後瀏覽日:2026/01/22)
引註此篇文章
你可能還會想看
歐盟針對RFID的重要議題召開辯論

  RFID 的利用帶來新一波的物流及管理變革,但是侵犯人權及隱私等相關問題也引發了尖銳的討論,英美等國隱私保護團體及國會議員紛紛呼籲英制訂相關的使用規範。   歐盟在 2006 年 3 月 10 日也舉辦了一場公開意見徵詢,主要徵詢意見的議題有跨國 RFID 系統互通、相容,以及在應用上可能因洩漏位址、身份及歷程而導致的隱私及安全問題。資訊社會及媒體委員會主席 Vivien Reding 表示,隨著晶片技術進步,晶片會變得越來越聰明, RFID 全面應用後可能引發的問題可能在未來會越來越嚴重。透過多網路的連結,必然會促進經濟的繁榮及生活品質的提升,但是隱私保護的問題若不解決,將可能會影響這項科技的應用。因此,對於 RFID 未來的應用應該達成一種社會共識( society-wide consensus )並預先建立可信賴的保護機制。   為此,執委會將公開徵求諮詢,預計在下半年會公布意見資料,後續並可能在進行 2002 年電子通訊及隱私保護指令的修正工作及檢討 RFID 頻率的指配。

從日本政策看我國音樂產業海外拓展之必要性及有效作法

電信產業號碼資料庫之應用與法制議題-以個人隱私保護為中心

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP