美國職業安全及健康研究院﹙NIOSH﹚在奈米風險控管上的突破性進展

  美國職業安全及健康研究院﹙NIOSH﹚是美國發展奈米科技的重要政府單位之一。近來,其頻頻透過國際組織的運作來處理與奈米科技有關之職業安全與健康影響問題。NIOSH首長John Howard表示,在國際層次上,科學家及決策者皆明瞭處理與奈米材料製造及產業使用所引致之職業病或職災,是當下最重要的工作之一。而由於NIOSH在促進世界性科學對話上,始終扮演者厥功甚偉的角色,因而在奈米科技發展初期,其亦積極協助此一科技能夠充分考慮安全及健康問題,發展出具全球協調性的技術方法,並有助於美國在國際市場的領先地位。而其近期主要成就在於以下三個部分:

 

1.今﹙2007﹚11月29日,經濟合作暨發展組織﹙OECD﹚人造奈米材料工作小組通過NIOSH-Led計畫,負責執行奈米材料暴露控制與測量等相關資訊之交換,同時透過領導小組,與會員國共同聚焦商討一些足以引起公眾意識的議題,例如在職業環境中之暴露測量與減輕。

 

2.其次,在今年12月4日至同月7日的國際組織會議中,ISO TC229表決通過有關奈米科技在職業環境之安全與健康規範的報告初稿,此報告係以NIOSH所發表一份名為“Approaches to Safe Nanotechnology”的報告作為基礎,而繼續由其發展與修正。本報告初稿送至ISO技術委員會審查,委員會認為報告內容涵蓋完整的技術性工作,且其未來影響將遍及全球,而為全球組織所關切。

 

3.此外,在今年12月2日,NIOSH另參與世界衛生組織﹙WHO﹚之職業健康合作中心全球聯網會議,當次會議之焦點在於奈米科技,會中NIOSH代表負責報告工程奈米粒子在職業安全及衛生上所遭遇之挑戰現況。本次會議中將決定WHO合作機制如何發展運作,以避免暴露於可能有害的工程奈米粒子。

 

  整體而言,關於奈米科技之安全與健康影響及其相關應用的研究,NIOSH統整建置了一套策略性工作計畫,透過這些研究專門處理一些重要問題,包括某些對於評估風險及控制暴露極為有效的科學資訊。除了研究之外,NIOSH亦積極參與國際組織活動,可以預見其對奈米科技未來發展之影響將無遠弗界。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國職業安全及健康研究院﹙NIOSH﹚在奈米風險控管上的突破性進展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2609&no=67&tp=1 (最後瀏覽日:2026/05/07)
引註此篇文章
你可能還會想看
WIPO的廣播協議激怒了podcasters

  英國支持一項由智慧財產權組織(World Intellectual Property Organization/WIPO)草擬的廣電協議(Treaty on the Protection of Broadcasting Organizations),引起一陣反對聲浪。反對者聲稱,這無疑是送給大財團一項操控媒體內容製作的新權利。 2006年6月21日,在西班牙召開的此項協議的討論會議,賦予無線、有線廣電業者和網路廣播業者一項全新的智慧財產權利。業者將對他們所傳輸的任何作品,擁有「五十年、類似著作權的權利(copyright-like rights)」。此協議的目的是為了讓法律更合乎時代性,特別是要處理數位傳送上所產生剽竊數位訊號的問題。不過,網路廣播業者和podcasters卻擔心,如果WIPO將該規範擴張到網路,將使原無需經過授權散播的作品,或者內容是獲得「Creative Commons」授權,可無限制次數的發表,在某些情況下更可不付費的作品,反將經過網路廣播的傳送,讓一些團體組織獲得新的權利。如此一來,恐怕除了限制民眾獲取文化知識的自由外,更會讓那些原屬於創作者和公眾的權利,落入廣電業者手中。Podcasters認為,podcasting 和廣播不能相提並論,更不該受同樣法規的規範。

2018年直布羅陀公布一系列DLT應用商業活動管制規範

  英國海外屬地直布羅陀,針對透過與日俱增的首次發行代幣(Initial Coin Offerings, 簡稱ICO)募集商業活動,早在2017年9月,其金融服務委員會(Gibraltar Financial Service Commission, 簡稱GFSC)已公布官方聲明,警告投資人運用分散式帳本技術(Distributed Ledger Technology,簡稱DLT)之商業活動,如:虛擬貨幣交易或ICO等具高風險且投機之性質,投資人應謹慎。   GFSC又於2018年1月公布「分散式帳本技術管制架構」(Distributed Ledger Technology Regulatory Framework),凡直布羅陀境內成立或從其境內發展之商業活動,若涉及利用DLT儲存(store)或傳輸(transmit)他人有價財產(value belong)者,均須先向GFSC申請成為DLT提供者(DLT provider),並負擔以下義務: 應秉持誠信(honesty and integrity)進行商業活動。 應提供客戶適當利息,且以公平,清楚和非誤導方式與其溝通。 應準備相當金融或非金融資源(non-financial resources)。 應有效管理和掌控商業活動,且善盡管理人注意義務(due skill, care and diligence),包含適當地告知客戶風險。 應有效配置(arrangement)客戶資產和金錢。 應具備有效公司治理,如:與GFSC合作且關係透明。 應確保高度保護系統和安全存取協定。 應具備系統以預防、偵測且揭發金融犯罪風險,如:洗錢和資恐。 應提供突發事件預備方案以維持商業活動繼續進行。   GFSC和商業部(Ministry of Commerce)又於2018年2月聯合公布,將於第二季提出全世界第一部ICO規範,管制境內行銷(promotion)、販售和散布數位代幣(digital token)行為,強調贊助人須先授權(authorized sponsor),並有義務確保遵守有關資訊揭露和避免金融犯罪之法律。

近來歐盟健康食品上市審查標準之實務觀察

  歐盟自2007年起開始實施「歐盟(EC)1924/2006號食品營養及健康訴求規則」(簡稱營養與健康訴求規則)以來,對於以營養與健康為訴求的產品,要求廠商上市販賣之產品,必須經過科學實證,產品標示必須簡易明瞭,強調科學實證必須證明食用該產品對人體有益,並證明食用產品與其功能效果間能建立因果關係,更強調文字敘述應貼近事實、清楚明瞭、確實可靠,避免使用模糊不清或造成不同解讀的文字,以便於消費者識別選購產品,滿足個人攝取這類食品的需求。   自規則實施以來,業者紛紛向歐盟食品安全管理局(European Food Safety Authority,簡稱EFSA)遞交申請案件,期待通過審查,獲准上市。然而,以營養與健康訴求規則中的第十四項減少疾病風險與促進兒童健康訴求,引起較多爭議。到2008年9月底,九件申請案當中已有八件遭到EFSA駁回,無不引起產業界的恐慌。僅Unilever(聯合利華公司,以下簡稱Unilever)的植物固醇產品(plant sterol)一案通過。反觀其餘個案,廠商遭EFSA駁回申請案的理由不一。例如,法國廠商Bio-Serae以仙人掌纖維衍生物申請具有降低血脂質的健康訴求,EFSA表示提交的證據資料不足以建立食用產品與效果功能間的因果關係。再者,另一件訴求ALA(α亞麻油酸)和LA(亞麻油酸)之攝取可以促進兒童生長的申請案中,EFSA接受廠商檢附的證據資料,但表示孩童經由正常飲食即可攝取足夠的ALA與LA,攝取量高於均衡飲食標準沒有益處。   雖然EFSA之意見不具有法律效力,且負面意見不表示否定產品之成分或功能,僅表示其依據資料不完整,不足以證明兩者具有因果關係,但卻具有相當之影響力。目前某些業者面對法令細節尚未明朗,同時負面意見多於正面意見的情形下,憂心負面意見恐將影響公司與產品形象,先行退出審查過程並暫緩產品上市。到2008年底,EFSA又駁回五件關於益生菌(probiotics)增進兒童健康的申請案,表示提供的證據資料不足以證明其功能為由。累計至去年底二十七申請案中(含上述五件益生菌申請案),僅有五件申請案獲得EFSA之正面意見,負面意見依舊多於正面意見。   然而在2009年1月,EFSA核准西班牙廠商Danone促進兒童骨骼生長的健康訴求,表示證據資料足以建立因果關係,證明維他命D有助於鈣質攝取。顯示出業者提供充足科學證據資料與完整的產品說明,以證明其食用產品與功能效果間的因果關係,將利於審查作業進行,也將助於獲得EFSA之核准上市。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP