德國今年1月底通過新修法,使國際知名生技公司孟山都主要用做於飼料的基改抗蟲玉米MON810得以在德國更加順利種植。 原來德國法律規定基改作物與其相同種類傳統非基改作物間的種植距離為150公尺,與有機作物間的距離則為300公尺;但這項距離的規定對於農田面積多數不大的德國西部來說始終是一個問題,新法為此提供了一項新的出路,亦即基改作物種植者可與其相鄰傳統作物種植者簽訂契約來排除前述種植距離的限制,此項契約雖可能使傳統作物必須標示成為基改作物,但預估仍不會減低傳統作物種植者簽訂契約的意願。 專家評論德國這項新的立法仍然為德不卒,由於新立法並未將德國公開註冊制度中基改作物需揭露詳細的種植地點改為只需揭露種植地區,使得反基改分子仍將得以順利找到基改作物並加以破壞。另外,此次亦未修正的鄰田污染賠償責任使專家擔憂基改研究仍將限於校園內。 MON810在另一端的法國則顯得命運多舛,自去年秋天起,法國引用歐盟法的防衛條款(Articles 23 of the EU Deliberate Release Directive)來暫時禁種此一抗蟲玉米,於今年1月初,法國政府為此項問題所組成的委員會向環境部長提交調查結果,委員會主席並對外表示嚴重質疑MON810的安全性,並已取得大量MON810對動、植物負面影響的科學證據,使法國政府於1月中宣佈延續去年的禁種令。但專家質疑委員會主席對於調查報告之陳述失之客觀,由於調查報告中關於MON810商業種植對於環境影響的問題仍懸而未定,事實上並未存有委員會主席所謂的「嚴重質疑」。
美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
美國FDA於20250617宣布將試行「局長國家優先審查券」COVID-19疫情後美國開始積極處理藥品供應鏈脆弱性,為提振本土製造與審查效率,美國食品及藥物管理局(Food and Drug Administration, FDA)於2025年6月17日宣布將試辦「局長國家優先審查券」(Commissioner’s National Priority Voucher, CNPV)。該計畫依據《聯邦食品、藥品與化妝品法》(The Federal Food, Drug, and Cosmetic Act, FFDCA)與《公共衛生服務法案》(Public Health Service Act, PHSA)授權。CNPV將不同審查分組集中處理,並結合資料預先提交機制,力求將一般10-12個月的審查流程壓縮至1-2個月,試辦期為一年,並與現行優先審查及優先審查券(Priority Voucher, PRV)機制獨立並行。 內容要點: 1.遴選資格:符合任一「國家優先」標準之廠商 因應公衛危機:如廣效疫苗開發 帶來潛在的創新療法:超越突破性療法認定成效的新型療法 解決未滿足公共衛生需求:如罕病或缺乏療效標準治療之疾病 提升美國供應鏈韌性:如將藥品研發、臨床、生產遷至美國 提高可負擔性:將美國藥價降至最惠國藥價,或減少下游醫療費用 2.使用與要求: 適用階段:可於申請臨床試驗或申請藥證等階段啟用,亦可先領「未指名券」保留資格。 文件要求:需提前60天提交完整藥品化學製造與管制(Chemistry, Manufacturing, and Controls, CMC)與仿單預審,如遇重大缺件FDA得延長審查期限。 有效性:2年內使用,逾期失效;不可轉讓,但併購案中可沿用。 CNPV透過團隊同日決策,有望在FDA人力縮減背景下縮短審查時程。並強調國家利益,可能優先惠及具戰略價值及在美投資的大型藥廠;對我國優化藥品審查流程與吸引製造投資等目標,亦具重要參考價值。