美國職業安全及健康研究院﹙NIOSH﹚是美國發展奈米科技的重要政府單位之一。近來,其頻頻透過國際組織的運作來處理與奈米科技有關之職業安全與健康影響問題。NIOSH首長John Howard表示,在國際層次上,科學家及決策者皆明瞭處理與奈米材料製造及產業使用所引致之職業病或職災,是當下最重要的工作之一。而由於NIOSH在促進世界性科學對話上,始終扮演者厥功甚偉的角色,因而在奈米科技發展初期,其亦積極協助此一科技能夠充分考慮安全及健康問題,發展出具全球協調性的技術方法,並有助於美國在國際市場的領先地位。而其近期主要成就在於以下三個部分:
1.今﹙2007﹚11月29日,經濟合作暨發展組織﹙OECD﹚人造奈米材料工作小組通過NIOSH-Led計畫,負責執行奈米材料暴露控制與測量等相關資訊之交換,同時透過領導小組,與會員國共同聚焦商討一些足以引起公眾意識的議題,例如在職業環境中之暴露測量與減輕。
2.其次,在今年12月4日至同月7日的國際組織會議中,ISO TC229表決通過有關奈米科技在職業環境之安全與健康規範的報告初稿,此報告係以NIOSH所發表一份名為“Approaches to Safe Nanotechnology”的報告作為基礎,而繼續由其發展與修正。本報告初稿送至ISO技術委員會審查,委員會認為報告內容涵蓋完整的技術性工作,且其未來影響將遍及全球,而為全球組織所關切。
3.此外,在今年12月2日,NIOSH另參與世界衛生組織﹙WHO﹚之職業健康合作中心全球聯網會議,當次會議之焦點在於奈米科技,會中NIOSH代表負責報告工程奈米粒子在職業安全及衛生上所遭遇之挑戰現況。本次會議中將決定WHO合作機制如何發展運作,以避免暴露於可能有害的工程奈米粒子。
整體而言,關於奈米科技之安全與健康影響及其相關應用的研究,NIOSH統整建置了一套策略性工作計畫,透過這些研究專門處理一些重要問題,包括某些對於評估風險及控制暴露極為有效的科學資訊。除了研究之外,NIOSH亦積極參與國際組織活動,可以預見其對奈米科技未來發展之影響將無遠弗界。
本文為「經濟部產業技術司科技專案成果」
法國憲法委員會於今(2020)年6月18日宣告今年5月甫通過之《打擊網路仇恨言論法》(Lutte contre la haine sur internet, Fighting Hate on the Internet,又稱Avia Law)違憲,認該法侵害人民言論自由之權利。 為打擊網路上日益嚴重之仇恨性言論,法國國民議會於今年5月13日通過《打擊網路仇恨言論法》,該法旨在課予網路社交平台之責任,在其使用者提出檢舉後,平台應於24小時期限內移除明顯的不法言論,包含歧視、仇恨、暴力、煽動犯罪、涉及恐怖主義或兒童色情等,尤以,若該訊息涉及兒童色情或煽動恐怖主義者,則平台刪除該訊息之期限將縮短為1小時內。倘平台若未於期限內刪除之,面臨之罰緩最高達125萬歐元;如經法國高等視聽委員會(Conseil superieur de l'audiovisuel, CSA)審核,發現該平台之內容審查系統存在嚴重且反覆之缺陷者,則最高可對該平台處以其全球收入4%之罰鍰。 該法原定於今年7月1日施行,但經法國憲法委員會審查後,認該法如前述之多項條款要求私人企業判斷使用者之言論是否為明顯涉及非法,將鞏固私人審查權,高額罰款恐將促進平台積極刪除平台上之言論,違反憲法保障之言論自由,因而宣告該條款違憲無效。目前尚不確定法國政府是否會如期施行其餘條款,惟由該法即可看出,法國傾向授權CSA於對網路平台採取更嚴格監管之態度,然是否能有效抑制仇恨性言論,後續尚值得密切觀察。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
公私合作的科技創業投資機制研析-以德國高科技創業者基金(HTGF)為例