美國職業安全及健康研究院﹙NIOSH﹚是美國發展奈米科技的重要政府單位之一。近來,其頻頻透過國際組織的運作來處理與奈米科技有關之職業安全與健康影響問題。NIOSH首長John Howard表示,在國際層次上,科學家及決策者皆明瞭處理與奈米材料製造及產業使用所引致之職業病或職災,是當下最重要的工作之一。而由於NIOSH在促進世界性科學對話上,始終扮演者厥功甚偉的角色,因而在奈米科技發展初期,其亦積極協助此一科技能夠充分考慮安全及健康問題,發展出具全球協調性的技術方法,並有助於美國在國際市場的領先地位。而其近期主要成就在於以下三個部分:
1.今﹙2007﹚11月29日,經濟合作暨發展組織﹙OECD﹚人造奈米材料工作小組通過NIOSH-Led計畫,負責執行奈米材料暴露控制與測量等相關資訊之交換,同時透過領導小組,與會員國共同聚焦商討一些足以引起公眾意識的議題,例如在職業環境中之暴露測量與減輕。
2.其次,在今年12月4日至同月7日的國際組織會議中,ISO TC229表決通過有關奈米科技在職業環境之安全與健康規範的報告初稿,此報告係以NIOSH所發表一份名為“Approaches to Safe Nanotechnology”的報告作為基礎,而繼續由其發展與修正。本報告初稿送至ISO技術委員會審查,委員會認為報告內容涵蓋完整的技術性工作,且其未來影響將遍及全球,而為全球組織所關切。
3.此外,在今年12月2日,NIOSH另參與世界衛生組織﹙WHO﹚之職業健康合作中心全球聯網會議,當次會議之焦點在於奈米科技,會中NIOSH代表負責報告工程奈米粒子在職業安全及衛生上所遭遇之挑戰現況。本次會議中將決定WHO合作機制如何發展運作,以避免暴露於可能有害的工程奈米粒子。
整體而言,關於奈米科技之安全與健康影響及其相關應用的研究,NIOSH統整建置了一套策略性工作計畫,透過這些研究專門處理一些重要問題,包括某些對於評估風險及控制暴露極為有效的科學資訊。除了研究之外,NIOSH亦積極參與國際組織活動,可以預見其對奈米科技未來發展之影響將無遠弗界。
本文為「經濟部產業技術司科技專案成果」
歐盟法院(Court of Justice of the EU ,CJEU) 於2018年1月23日就Hoffman-La Roche and Others v Autorità Garante della Concorrenzae del Mercato案(Case C-179/16)作出先訴裁定(preliminary ruling)。本案涉及歐盟競爭法和藥品監管體系之間的相互影響。 案例事實為:羅氏藥廠的Avastin,原先為抗癌許可藥物,被臨床發現可用作治療老年性黃斑部病變(AMD),但並未經正式核准用於治療AMD,屬於仿單標示外藥物(off-label drugs)。而Lucentis係諾華藥廠一款獲得正式授權核准,作為治療 AMD的眼內注射藥物。 其中,諾華持有羅氏超過33%的股份,Avastin雖與Lucentis作用機理相似,但Lucentis價格卻相對昂貴,銷售方式由羅氏與諾華合作,諾華可從持股中間接獲得利潤。 兩家藥廠為了影響、降低Avastin的需求量及阻礙其分銷,雙方協議,對外聲稱兩種藥物含有不同活性成分,散布Avastin仿單標示外使用之安全性和有效性存在疑義的不實資訊。 2014年時,義大利競爭法主管機關(Autori tà Garante della Concorrenza e del Mercato, AGCM)認為羅氏和諾華兩大藥廠涉嫌藥品市場壟斷,違反歐盟運作條約(Treaty on the Functioning of the European Union, TFEU)第101(1)條,因而裁罰兩家藥廠。 羅氏和諾華不服裁罰,向義大利Lazio地方行政法院(Regional Administrative Court, Lazio)提起訴訟尋求救濟,遭到駁回;羅氏和諾華繼而向義大利國務委員會(Council of State)提出上訴,義大利國務委員會將此案提交歐盟法院,針對歐盟競爭法的解釋進行先訴裁定。 最後,歐盟法院認為兩藥廠之行為構成藥品市場的限制競爭,違反歐盟運作條約第101條之規定。 法院判決結果認為: 當上市許可藥物(marketing authorization, MA)和仿單標示外藥物皆適用治療同一疾病,只要它們具可替代性和兼容性,並且符合製造和銷售的規定,原則上屬於同一個相關市場。只要滿足其他要件,上市許可藥物並不當然決定相關產品市場的範圍。 非競爭者之間的許可協議可能符合歐盟競爭規則:歐盟法院闡述,這種傳播誤導性資訊的「安排」,目的並非限制任何一方對許可協議的商業自主權,而是為了影響監管機構和醫生等第三方選擇使用Avastin的行為。因此,散播不利於Avastin仿單標示外使用的資訊,此一共同協議,不能被認為是許可協議的附屬部分,係實施協議所必需的。其符合歐盟競爭規則的範圍,作為許可協議中的單獨協議。 雙方協議散布安全誤導性的不實資訊,針對此兩種相互競爭的醫藥產品,可能構成對競爭規則的嚴重違反:諾華與羅氏公司,在科學證據不確定的情形下,聯合對外向歐洲藥品管理局(European Medicines Agency, EMA)、醫療專業人員和公眾宣稱有關使用該仿單標示外藥物將造成不良副作用的誤導性資訊,以減少其對其他產品施加的競爭壓力,構成對「競爭對手」(by object)的限制。尤其令人憂慮的是,企業可能會透過散播資訊來減少藥品本身的競爭壓力,從而誇大使用其他產品將導致不良反應的可能性。
國際能源總署發布「擴大轉型金融」報告,旨在說明如何透過金融機制協助高碳排部門邁向淨零國際能源總署(International Energy Agency, IEA)於2025年10月16日發布「擴大轉型金融」(Scaling Up Transition Finance)研究報告,提出轉型金融應與綠色金融作為能源轉型的互補工具,並進一步分析轉型金融的前景與推動建議。 轉型金融是指有助於減排的金融活動,特別適用於難以減排的產業及資金需求高、但綠色金融支持有限的新興市場及發展中經濟體。報告重點分析轉型金融三大領域,並說明各產業投資方向即可量化的減碳目標,重點如下: (1)重工業:鋼鐵及水泥業合計約占全球能源燃燒與製程排放之14%,主流投資仍集中於傳統高碳排製程,導入轉型金融,除可支援中短期減碳措施外,亦能鼓勵企業於設施設計階段預留導入低碳技術之條件(即具「可改造性」,retrofit-ready),避免產生「高碳資產鎖定」與「無法回收之投資風險」。IEA建議,應結合國家層級減碳指標與產業路徑,將轉型金融納入減碳政策框架,並鼓勵金融機構明確區分綠色金融與轉型金融投資組合。 (2)關鍵原物料:原料開採與冶煉雖屬能源轉型必要條件,但亦產生排放量高、高耗水量、土地劣化與生物多樣性流失、及社會與治理風險。轉型金融則可支持低排放技術、改善ESG表現,並促進高影響力投資。IEA建議,應建立礦業轉型金融標準與績效指標;政府與多邊開發銀行應提供保證或融資機制;加強資料透明與監測機制;統籌國際供應鏈治理與稅收誘因。 (3)天然氣:IEA強調,轉型金融可協助天然氣產業減排改造,並推動替代性低碳氣體基礎建設發展,但不得成為長期依賴化石燃料之藉口,因此應用優先順序應為甲烷減量、液化天然氣減排、低排放氣體基礎設施、電力系統調節角色。且必須符合透明性、時限性及一致性等條件。其目的在於支援能源轉型初期之電力穩定與彈性,並為未來低碳氣體基礎設施鋪路。 轉型金融強調企業與金融機構的實質合作,當前挑戰在於擴大資金流與明確界定「轉型」特質。IEA建議,推動轉型金融須兼顧新興市場與中小企業參與,並強化產業別績效指標、改造潛力設計及定期審查。此外,轉型金融應提升為全球減碳融資之第二支柱,藉此面對難以減排之領域,並確保投資帶來實質減碳與能源安全等效益。
德國提出「新冠肺炎及新型冠狀病毒預防接種法」草案,以利疫苗分配之政策規劃及法制基礎德國聯邦健康部(Bundesministerium für Gesundheit, BMG)於2020年12月15日提出「新冠肺炎及新型冠狀病毒預防接種法」(Gesetzes zur Priorisierung bei der Schutzimpfung gegen das Corona-virus SARS-CoV-2, Coronavirus-Impfgesetz)草案,現進入聯邦參議院審議階段。該草案之立法目的在於,確認新冠肺炎及新型冠狀病毒(Coronavirus SARS-CoV-2)疫苗分配的公平性,並藉此降低嚴重疾病與死亡人數。 原則上凡屬於法定健康保險的被保險人,或於德意志聯邦共和國內有住所或長期居留者,得依據新冠肺炎及新型冠狀病毒預防接種法規定,具有接種新冠肺炎及新型冠狀病毒疫苗之權利。然而,由於疫苗的分配涉及基本法第2條第2項第1句生命及身體安全的基本權利(Grundrecht auf Leben und körperliche Unversehrtheit),以及衡酌疫苗資源的有限性問題,該法第3條依據風險群體(Risikogruppen)及適應症群體(Indikationsgruppen)共區分六級的接種優先順序,如違反接種優先順序者,將可能面臨最高三萬元的罰鍰,意圖營利者則將可能面臨一年至五年的有期徒刑。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).