新加坡宣布啟動「無形資產轉化」指導計畫,以協助企業更好地利用無形資產

新加坡智慧財產局(Intellectual Property Office of Singapore, IPOS)於2023年2月16日宣布啟動「無形資產轉化」(Mentorship for Intangible Asset Transformation (MINT) Programme)指導計畫(簡稱MINT計畫)。MINT計畫為世界智慧財產權組織(World Intellectual Property Organization, WIPO)與IPOS的合作項目,並得到了新加坡科技與研究局(Agency for Science, Technology and Research, A*STAR)、新加坡企業發展局(Enterprise Singapore, Enterprise SG)和新加坡工商聯合總會(Singapore Business Federation, SBF)的支持。根據此計畫,企業將得到由WIPO於新加坡當地及國際所動員專家之為期四個月的一對一指導,以及下述機會,以使其可更好地發揮無形資產價值,諸如進行技術授權、讓與,或設質、抵押等融資行為:

(1)參與WIPO的實體及線上遠距課程及IPOS的工作坊,以及使用實用工具和資源,如WIPO Academy所研發學習模組的機會;

(2)同儕間的交流及增進人脈的機會;

(3)參與國際項目的獨家機會。

據WIPO智慧財產權和創新生態系統部門(IP and Innovation Ecosystems Sector)助理署長Marco Alemán所稱,隨著無形經濟的興起,智慧財產的策略性管理對於無形資產密集型企業而言十分重要。在與其他頂尖的智慧財產權與商業管理專家的合作下,WIPO和IPOS將與參與此計畫的新加坡企業密切合作,以求可透過對於智慧財產權的策略性使用,使其業務量逐步規模成長。

MINT計畫之開放申請期限截止於2023年3月13日,並於2023年4月初正式開始;前述關於學習、交流機會之更具體內容,後續可持續觀察。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 新加坡宣布啟動「無形資產轉化」指導計畫,以協助企業更好地利用無形資產, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8969&no=67&tp=1 (最後瀏覽日:2026/03/29)
引註此篇文章
科法觀點
你可能還會想看
新加坡無人車測試之法制配套評析

新加坡無人車測試之法制配套評析 資策會科技法律研究所 法律研究員 王凱嵐 106年07月25日 壹、前言   隨著人工智慧的發展其運用日趨多元,與之結合之「無人車」逐漸成為人們熱門關注的科技名詞。所謂無人車(Autonomous Car),其車輛外觀與一般車輛相似,利用感測器及其他科技裝備,搭配電腦運算或機器學習等技術,辨識車輛周遭環境及狀況。同時根據外部資訊如:道路、交通號誌、車輛位置、障礙物等數據做出分析判斷,由電腦控制車輛方向及速度,實現無人車輛依據自身(電腦)意圖做出擬人駕駛的動作[1]。   包括Apple[2]、Google、Uber等非傳統汽車製造產業在內,世界各地串起一場以無人車為首的交通實驗。在無人車發展面向上,美國、新加坡早已有為無人車產業發展,提出修法或補助等政策措施。與我國比鄰的韓國,其政府近來也積極推動自動駕駛技術之發展,不僅核准多家業者上路實測,更計畫打造全球最大無人車車測場地「K-City」[3]。未來我國在台北、高雄[4]等地也即將出現無人車的身影,惟目前我國相關法規仍未針對無人車詳加規範,使得無人車發展上窒礙難行。   我國科學工業園區長久以來扮演著台灣科技工業發展之重要角色,參考國際在相關領域的發展,除硬體、軟體技術上配合,尚提供良好且完善的測試場域或法規配套。本文為建構國內無人車發展環境,打造產業聚落及完備有善法制環境,參考新加坡無人車立法例,提供我國未來科學工業園區區內無人車測試及法規配套之建議參考。 貳、新加坡無人車測試之法規調適   新加坡作為典型的「城市國家」,城市規劃是亞洲甚至全球的典範,良好的交通規劃、道路狀況及相關的基礎建設,都是無人車駕駛試驗所要求的環境。新加坡政府對於無人駕駛的發展,於2014年成立專門委員會管理無人駕駛車,而新加坡陸路交通管理局(LTA[5])近年來也積極的和多家發展無人駕駛技術的廠商密切合作[6]。針對無人駕駛技術的創新與應用,未來只會有增無減,而為適應科技成就所帶來之便利及法制之衝擊,新加坡政府於2017年2月[7]通過《公路交通法修正案》(Road Traffic (Amendment) Bill)。該修正案新增針對無人車測試有關之條文(6C、6D、6E),透過法規的修正讓科技與法制間增進一些彈性與空間。以下針對此次新加坡新修《公路交通法修正案》的三項關於無人車測試的條文分別說明:   首先在條文6C[8]部分,先做初步適用範圍及相關測試規範說明。考量無人車的測試需保護社會大眾之用路安全,該法案給予主管機關相關的權限,得針對無人車測試予以限制及規範,同時明確規範在何種情況下,主管機關得取消無人車業者之測試申請(如有損公眾利益)。針對測試之限制,新增定之條文規範包含測試時之天氣[9]、測試車輛硬體設備[10]、車輛系統建置的限制(要求能隨時介入車輛之操縱)等皆為評估允許無人車測試之依據。另外,對於車輛測試業者,於測試之前政府得要求保「責任險」(Liability Insurance)或相當金額之保證金[11]。測試業者需公布實驗計畫之內容,如測試地點、時間及所屬負責人,所有的測試資料應跟主管單位陸路交通管理局分享[12]。   條文6D則是規範有關於無人車測試時責任豁免(Exemptions)的規定,在有條件或無條件情形下,根據此條文得以免除特定法規或法律[13]。然該免除責任的範圍,仍以此《公路交通法》及其附屬法規為主。新加坡在一般情形下,駕駛人於道路上發生交通事故,根據《公路交通法》將需負擔相關道路責任。不過在最新通過的《公路交通法修正案》無人車測試免責規定中,考量無人車科技無規範「人員過失」之必要,原則上將免除無人車測試相關人員之法律責任(包含駕駛人、參與測試的人員等)。若是無人車業者(測試申請人)違反或不遵守前條6C的規定及條件,則無本條免責之適用。未來無人車真正上路後,若發生故障或交通事故,本次修法並未有說明,其責任歸屬仍待討論。最後在條文6E針對於無人車測試中,有蓄意破壞或是干擾測試者,對其處與相當金額之罰鍰[14]。   整體而言,新加坡政府對於無人車態度較為積極且開放,除法規上預留彈性用以降低無人車發展測試與現行法規的衝擊,另一方面也與多間無人車公司合作,在整體產業面上提供多方面的便利。去年新加坡成為全球第一個讓無人計程車(nuTonomy)[15]上路的國家,預計在2018年,亞洲第一輛投入商業化的無人巴士也將在新加坡上路。 參、小結   隨著科技的進步,新興科技與生活的結合衝擊著現有的法制規範。調整且負有彈性的法制規範,漸漸在國際上得到重視,諸如英國、澳洲及新加坡皆推出金融業的「監理沙盒」制度或政策,我國金管會也於今年( 2017)初提出《金融科技創新實驗條例》草案,帶動金融領域新的成長與翻轉。無論是金融或非金融,法規侷限新興限科技應用的問題皆存在,從「創新、試驗」的角度,新加坡將未來無人車測試的法律依據植入《公路交通法》,針對單一領域法規進行修法,似已成功將「監理沙盒」機制從目前以金融業為主轉換到非金融領域,此作法值得我國參考。 [1] 數位時代, https://www.bnext.com.tw/search/tag/%E7%84%A1%E4%BA%BA%E8%BB%8A(最後瀏覽日:2017/07/04) [2] TechNews科技新報,<蘋果自駕車真面目,矽谷街頭試行照曝光>,2017/04/28,https://technews.tw/2017/04/28/the-lexus-that-apples-using-to-test-self-driving-car-technology/ (最後瀏覽日:2017/06/02) [3] TechNews科技新報,<加速推動自駕車發展,南韓打造全球最大自駕車測試場地>,2017/05/10,https://technews.tw/2017/05/10/south-korea-begins-development-of-test-bed-k-city-for-self-driving-cars/ (最後瀏覽日:2017/06/02) [4] TechNews科技新報,<高雄欲導入的法國EasyMile無人自駕巴士,究竟魅力何在>,2017/04/05,https://technews.tw/2017/04/05/kaohsiung-city-government-signed-mou-with-easymile-and-7starlake-2017/ (最後瀏覽日:2017/06/02) [5] Land Transport Authority, 簡稱LTA. [6] 數位時代, <為什麼新加坡能夠成為無人駕駛「重鎮」?>,2017/07/04, https://www.bnext.com.tw/article/41716/why-singapore-can-be-automated-pilot-strategic-town(最後瀏覽日:2017/07/04) [7] Parliament of Singapore, https://www.parliament.gov.sg/publications/2017 (最後瀏覽日:2017/07/04) [8] Road Traffic (Amendment)Bill, 6C. [9] 6C(1)(f)Prescribe the weather and any climatic or other circumstances when an approved trial or approved special use may or not be undertaken or carried out, as the case may be; [10] 6C(1)(g)Prescribe the construction, design or use of infrastructure technology, equipment or devices in relation to the autonomous motor vehicle or automated vehicle technology involved in the approved trial or approved special use, including requiring that the vehicle- [11] 6D(1)(b)To have in place liability insurance before the approved trial or approved special use starts, and to ensure that it is in force at all times during the period of the approved trial or approved special use; [12] 6D(1)(i)Require the keeping of records by the specified person, and the giving of information to the Authority or any other person designated by the Authority about the approved trial or approved special use undertaken or carried out, including the automated vehicle technology involved in the trial or special use; [13] 6D(1)(a)Exempt (with or without conditions) from the application of section 5 or other specified provisions of this Act or its subsidiary legislation, or any other written law, any of the following. [14] Road Traffic (Amendment)Bill, 6E [15] Inside,<第一批無人駕駛計程車新加坡上市,nuTonomy:我們才是第一>,2016/08/25,https://www.inside.com.tw/2016/08/25/nutonomy (最後瀏覽日:2017/07/18)

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).

英國提出因應GDPR自動化決策與資料剖析規定之細部指導文件

  2018年5月,英國資訊專員辦公室(Information Commissioner’s Office, ICO)針對歐盟GDPR有關資料自動化決策與資料剖析之規定,公布了細部指導文件(detailed guidance on automated decision-making and profiling),供企業、組織參考。   在人工智慧與大數據分析潮流下,越來越多企業、組織透過完全自動化方式,廣泛蒐集個人資料並進行剖析,預測個人偏好或做出決策,使個人難以察覺或期待。為確保個人權利和自由,GDPR第22條規定資料當事人應有權免受會產生法律或相類重大效果的單純自動化處理決策(a decision based solely on automated processing)之影響,包括對個人的資料剖析(profiling),僅得於三種例外情況下進行單純自動化決策: 為簽訂或履行契約所必要; 歐盟或會員國法律所授權; 基於個人明示同意。   英國2018年新通過之資料保護法(Data Protection Act 2018)亦配合GDPR第22條規定,制定相應國內規範,改變1998年資料保護法原則上容許資料自動化決策而僅於重大影響時通知當事人之規定。   根據指導文件,企業、組織為因應GDPR而需特別留意或做出改變的事項有: 記錄資料處理活動,以幫助確認資料處理是否符合GDPR第22(1)條單純自動化決策之定義。 倘資料處理涉及資料剖析或重大自動化決策,應進行資料保護影響評估(Data Protection Impact Assessment, DPIA),判斷是否有GDPR第22條之適用,並及早了解相關風險以便因應處理。 提供給資料當事人的隱私權資訊(privacy information),必須包含自動化決策之資訊。 應確保組織有相關程序能接受資料當事人的申訴或異議,並有獨立審查機制。   指導文件並解釋所謂「單純自動化決策」、「資料剖析」、「有法律效果或相類重大影響」之意義,另就可進行單純自動化決策的三種例外情況簡單舉例。此外,縱使符合例外情況得進行單純自動化決策,資料控制者(data controller)仍必須提供重要資訊(meaningful information)給資料當事人,包括使用個人資料與自動化決策邏輯上的關聯性、對資料當事人可能產生的結果。指導文件亦針對如何向資料當事人解釋自動化決策處理及提供資訊較佳的方式舉例說明。

美國FDA發佈食品安全現代化法(FSMA)之產品安全建議規則(PSPR)最終版

  在農產品業,食品安全在所有人的心中佔了極重要的位置。美國食品及藥物管理局(Food and Drug Administration,下稱FDA)在2015年9月發佈了食品安全現代化法(Food Safety Modernization Act;下稱FSMA)之產品安全建議規則(Produce Safety Proposed Rule;下稱PSPR)的最終版(final rule)。該規則的發布,預將使零售商尋找供應商的方向,轉變為以有遵守FSMA的供應商作為交易的對象。   PSPR主要是在規定人類消費之蔬果產品生長、繁殖、包裝、販售之規則。新增規範重點如下: 1. 農業用水(Agricultural Water):針對農業用水之品質標準、水質測試方式,作出規範。 2. 生物土壤改良(Biological Soil Amendments):對於改良土壤可能使用到之肥料或相關之微生物,作出規範。 3. 抽芽(Sprouts):對於植物在抽芽時相關預防微生物汙染、微生物測試,作出規範。 4. 馴養動物與野生動物(Domesticated and Wild Animals):針對在農場內放牧之動物,或用來幫助耕作動物之管理,作出規範。 5. 人員訓練、健康與衛生管理(Worker Training and Health and Hygiene):針對相關人員之教育訓練、衛生管理以及健康,作出規範。 6. 設備、工具與建築物(Equipment, Tools and Buildings):為了預防生產過程中可能遭受汙染之情況,對於硬體設備作出規範。   FSMA是美國第一個關於食品安全之立法,美國農業部(Department of Agriculture;USDA)為了讓零售商或中盤商更了解其自身對食品安全之需求以找尋適合之供應商,更預計在2016年春季推行集團優良農業作業準則前導計畫( Group Gap Pilot Program),提供第三方認證服務,以確認農產品所有之作業都有遵守FSMA及FDA之建議。

TOP