美國食品藥物管理局公布三項食品安全查檢與風險管理相關規定

  為落實美國食品安全現代化法有關食品追溯與風險控管安全認證規定,美國食品藥物管理局(U.S. Food and Drug Administration, FDA)於2015年11月13日公布「農產品安全規則」(The Produce Safety rule)、「第三方審核機構進行食品安全認證規則」(The Accredited Third-Party Certification rule)與「外國供應商審核規則」(The Foreign Supplier Verification Programs, FSVP)等三項實行細則。其中,「農產品安全規則」首次針對美國境內生產農場建立強制性安全標準,為種植、收獲、包裝和保存農產品建立基於科學的標準(包括水質、員工健康和衛生、野生和家養動物、動物源生物土壤改良劑以及設備、工具和建築物等各種要求)。

  而在「第三方審核機構進行食品安全認證規則」與「外國供應商審核規則」主要係確保進口食品符合美國境內生產食品相同之安全認證標準,確保與美國食品追溯制度構聯。食品藥品管理局採用多管齊下的策略,包括與外地監管機關建立夥伴合作關係、檢查出口國的設施、要求進口商就進口食品安全負責,以及對進口食品進行針對性的檢測。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國食品藥物管理局公布三項食品安全查檢與風險管理相關規定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7133&no=55&tp=1 (最後瀏覽日:2026/01/28)
引註此篇文章
你可能還會想看
美國交通部提出自駕車全面性計畫,以促進自動駕駛系統規範環境之整合、透明性與現代化

  美國聯邦運輸部(US Department of Transportation)於2021年1月11日發布「自駕車全面性計畫(Automated Vehicles Comprehensive Plan, AVCP)」,建立了交通部促進合作、透明性與管制環境現代化,並將自動駕駛系統(Automated Driving Systems)安全整合入交通系統之策略。基於過去「自駕車政策4.0」建立之原則上,自駕車全面性計畫定義了三個目標以達成其願景: 促進合作與透明性:交通部將會促進其合作單位與利益相關人可取得清楚且可靠之資訊,包含自駕系統的能力與限制。 使管制環境現代化:交通部將會現代化相關規範並移除對創新車輛設計、特性與運作模組之不必要障礙,並發展專注於安全性之框架與工作以評估自駕車技術的安全表現。 運輸系統之整備:交通部將會與利害相關人合作實施安全的評估與整合自駕系統於運輸系統之基礎研究與行動,並促進安全性、效率與可取得性。   政策文件中也就相關目標提出了關鍵目的以及行動,包含先前交通部所提出的「自駕系統安全性框架(Framework for Automated Driving System Safety)」草案,將透過建立框架定義、評估並提供自駕系統的安全性需求,並同時保留創新發展之彈性;另外此政策文件也提出了如何將自駕系統融合現有技術應用之實際案例。交通部將會定期的檢視相關行動與計畫,以反應技術與產業發展,並減少重複性之行動,並將資源投注於重要領域。

L'oreal v. eBay:歐盟法院判決網路平台交易業者應負商標侵權責任

  有關在網路販售仿冒品所透過之網路交易平台業者是否應負法律責任之問題,歐盟法院(Court of Justice of the European Union)於2011年7月12日針對L’oreal v. eBay案作出判決,認為如eBay之網路交易平台業者應為平台使用者之商標侵權行為負責。   國際知名化妝品品牌L’oreal 於2007年對eBay提出多項商標侵權之控訴,L’oreal認為eBay沒有適當的管控阻止其交易平台使用者之商標侵權行為,其包括在交易平台上販售仿冒品及非賣品,進行平行輸入販售非給歐盟市場流通之商品給位在歐盟會員國之人,以及購買網路關鍵字廣告協助交易平台使用者找到仿冒L’oreal品牌之商品,但eBay認為其適用歐盟電子商務指令(EU E-Commerce Directive)下之有關網路服務業者之免責條款。   歐盟法院之判決認為,網路交易平台業者若有扮演主動的角色,對仿冒商品之販售資料有掌控或知曉,則歐盟電子商務指令之免責條款應不適用,另外,若網路平台交易業者雖然沒有扮演主動的角色,但知道在其交易平台有商標侵權之販售行為但並沒有採取任何阻止行動,則網路平台業者也無法享有上述之免責權。同時,歐盟法院也認為各國法院應可以要求網路交易平台業者採取動作停止及防止交易平台使用者之侵權行為。

Google就隱私權議題與美國FTC達成初步和解,消費者團體呼籲FTC採取更嚴厲的手段

  今年三月底,Google與美國聯邦貿易委員會(Federal Trade Commission, FTC)就Buzz案達成和解。2010年時FTC控告Google Buzz未確實保護消費者的個人資料,侵犯了消費者的隱私權,違反「聯邦貿易委員會法」(FTC Act)以及美國與歐盟所訂定之「安全港架構協議」(U.S.-EU Safe Harbor Framework)。FTC表示,Google搭配在其Gmail中的網路社交服務Buzz,讓Gmail使用者誤以為其可以自主決定是否加入該社群,但事實上縱使Gmail使用者選擇不加入,也無法完全移除此項服務。甚者,選擇加入Buzz的消費者,亦無法找到明確的方式,控制其分享的個人資料。FTC控告Google未取得消費者的同意,將Gmail的資料(通訊錄名單)供社交網路使用,構成目的範圍外的使用。     依據Google與FTC和解內容,Google必須執行一套更為嚴謹的隱私權制度,不得再有誤導消費者其個人資料開放程度的行為,並且在爾後二十年都需接受獨立機構的隱私審查。初步和解內容開放30天(至2011年5月2日 )供社會大眾提供意見,之後FTC將提出最終和解內容。迄今為止,消費者團體提出的意見,包括要求FTC限制Google持有個人資料的時間,將隱私權保護制度適用到其所有的產品,對其儲存於雲端系統的個人資料進行加密動作,以及在進行個人資料蒐集前,應彈跳出視窗取得消費者同意等     值得注意的是,FTC在和解案中關於隱私權政策的客體所使用的語彙為「涵蓋資料」(covered information )而非「個人資料」(personal information),「涵蓋資料」所包含的範圍除了傳統的「個人資料」,尚包含IP位址、個人實體位址,以及通訊名單等等。     本案是FTC首度依職權要求業者採取更為嚴謹的隱私權保護制度以保障消費者權益,亦是FTC初次依「安全港架構協議」所採取的行動。本案對於線上服務的隱私權保護無疑是一大進展,但亦有論者擔心嚴苛的隱私權保護制度,反將造成小公司或新業者市場參進的障礙,愈發壯大Google的市場地位。     除此之外,Google的Buzz服務亦被消費者以集團訴訟提起告訴,最終和解金為850萬美元。     隨著Google成為搜尋引擎界的龍頭,其近年的一舉一動皆備受美國以及歐洲管理當局嚴密注意,今年二月份時,Google即時街景服務亦因不當蒐集個人資料而被法國裁罰14萬美元。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP