自2011年歐巴馬政府頒布《食品安全現代化法》(Food Safety Modernization Act, FSMA)以來,美國食品藥物管理局(Food and Drug Administration, FDA)研擬多項配套法規和施行細則藉以強化FSMA食品安全標準之具體落實。此外,為形成產業、工協會各方之修法共識,FDA開啟為期一年之意見徵集期間。另於今年度(2013)11月15日,美國全國農民工會(National Farmers Union, NFU)正式向美國食品藥物管理局提交食品安全現代化法案(Food Safety Modernization Act, FSMA)具體意見書,該項意見書要點歸納如下:
1.全國農民工會表示此修法方向,有助於事前預防食源性疾病(foodborne illness)擴散與食品風險之控管,有效達成法規建構之目的。
2.由於配套法規涉及食品鏈供應商、農民與生產者之具體責任,建議政府應評估多階段意見諮詢期(comment period)之規劃,廣納各利益相關者具體建議。
3.全國農民工會針對農業用水的品質標準、檢測措施與規範提出不同之見解,亦建議縮短農產品禁用生物土壤改良劑的時間。
本文為「經濟部產業技術司科技專案成果」
英國的1988年智慧財產權法(The Copyright, Designs and Patents Act of 1988)長久以來,對於慈善及非營利團體在公開場合或活動中播放音樂,一直給予合理使用的空間。然當相關團體受惠於此一規定時,創作人跟表演人卻不樂見此情形。因此,英國主管機關針對此一合理使用規範,在2008年對相關團體進行了意見徵詢。 在2008年10底截止的意見徵詢中,對於改變錄音著作與表演人權利的公開演播合理使用空間,提供了下列三個選項: 一、 完全廢除此一合理使用空間 二、 縮小適用的團體範疇 三、 廢除合理使用空間,但權利人只能以對雙方都公平的費率收取權利金 近日,英國政府宣布根據前述的意見徵詢結果,將廢除慈善與非營利團體的合理使用規定,從2010年4月開始這些團體將必須負擔一個固定的年費,才能在活動或公開場合中使用音樂,但截至目前為止,使用的費率為何尚未確定,但主管機關表示,希望一年不超過100英鎊。 主管機關接下來將對費率部分開始徵詢意見,對於1988年智慧財產權法也預期會進行修正,並於2010年4月開始落實相關規範。這樣的改變對於慈善團體而言固然感到失望,相關團體也以未來在活動場合中,不播放音樂或不付權利金來做為要脅,但整體發展仍有待後續觀察。
美國白宮頒布有關於太空系統的網路安全原則《太空政策第5號指令》由於美國近年來透過太空系統進行通訊、定位導航、太空探索及國防等多方面應用,為避免太空系統受到網路威脅,白宮於2020年9月4日發布《太空政策第5號指令》(Space Policy Directive-5,SPD-5),該指令主要關注太空系統的網路安全,將現有地面使用的網路安全政策應用在太空系統中,旨在提高美國太空設施網路安全。 SPD-5指令建立以下五項太空網路安全原則,作為指導政府及民間單位提高太空系統網路安全的方法: 一、太空系統及相關軟硬體設施,應使用以風險等級為基礎的方式,進行開發運作並建構其網路安全系統。 二、太空系統營運商應制定太空系統網路安全計畫(應包含防止未經授權的存取行為、防止通訊干擾、確保地面接收系統免受網路威脅、供應鏈的風險管理等功能),以確保能掌握對太空系統的控制權。 三、監管機構應訂定規則或監管指南來實施SPD-5指令的原則。 四、太空系統的營運商及其合作對象應共同推動SPD-5指令,並盡力減少網路威脅的發生。 五、太空系統營運商在執行太空系統網路安全的保護措施時,應管理其風險承擔能力。 儘管SPD-5指令並未指示特定機構執行上開原則,但已有美國聯邦通信委員會將SPD-5之網路安全原則納入其法規中,未來SPD-5指令將有可能作為美國太空網路安全措施及法規訂定的基礎。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。