2014年3月24日歐盟執委會提出有機產品行動計畫

  2014年3月24日歐盟執委會提出一項具體行動計畫,發起歐洲政策有關有機農業的檢討諮詢,希冀幫助有機農民、生產者和零售商適應新的政策,投入有機農業技術研發,並規劃於2015年召開食品業與研發人員溝通會議,進而加入專家意見、利益相關者與地區公眾共同集徵意見。其中,為了幫助有機農民、生產者和零售商調整至所建議的政策規劃方向,歐洲執委會將計畫推動一項有機生產行動計劃,以推動農村發展和歐盟農業政策措施,鼓勵有機農業以加強歐盟有機生產與研究創新項目之間的聯繫,並鼓勵使用有機食品。具體行動計畫重點為:
一、增加歐盟有機生產者的競爭力:
二、為鞏固消費者信任度,計畫執行將對有機產品及其農業技術研發展開控管措施;
三、加強歐盟統一有機產品的標示規格。

  另外,歐盟執委會亦通過有機產品生產和標籤規範修法草案(The Legislative Proposals for a New Regulation on Organic Production and Labelling of Organic Products),將擬制定更完善的有機產品法規,以杜絕假冒及混充。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 2014年3月24日歐盟執委會提出有機產品行動計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6531&no=57&tp=1 (最後瀏覽日:2026/04/10)
引註此篇文章
你可能還會想看
美國聯邦法官指出藥用基改作物之種植應予嚴格管理

  美國聯邦法院最近判決美國聯邦官員在 2001 年及 2003 年,允許四家企業在夏威夷種植基改作物以生產試驗用藥的行為,違反環境法規。該許可內容涉及許可在夏威夷州 Kauai, Maui, Molokai and Oahu 種植玉米或甘蔗。   本案法官 Michael Seabright 判決中特別指出,鑑於夏威夷州乃是許多瀕臨絕種或受到絕種威脅的生物的棲地-該州計有 329 種罕見生物,占全美瀕臨絕種生物及受到絕種威脅生物種類之四分之一,而美國農業部動植物健康檢疫服務( Department of Agriculture's Animal and Plant Health Inspection Service )在許可種植基改作物前,竟未先進行初步的環境檢視( preliminary environmental reviews ),很明顯地已違反該機關依據瀕臨絕種生物法( Endangered Species Act )及國家環境政策法( National Environmental Policy Act )所應盡之義務。   本案原告 EarthJustice 認為,本案是第一件聯法院就 biofarming 所做之判決。所謂 biopharming 係指研究人員利用基改技術將植物用來作為生產藥品、抗體、疫苗等生技藥物的生物反應器( bioreactors )。由於植物可以大量栽種,因而若 biopharming 技術可行,將可有效解決生技藥物供給短缺的問題,嘉惠更多的病患,因而, biopharming 被視為未來可能顛覆傳統的藥物生產的一種生技藥物製造方式。目前, biopharming 廣泛使用的植物包括玉米、煙草等。   biopharming 的構想可以較低的成本解決部分生技藥物生產的問題,但其構想看似極具吸引力,不過發展 biopharming 並非毫無挑戰,尤其是如何就藥用基改植物予以隔離管理,避免基因污染。反對者一般主張,藥用基改植物 並未通過食用安全性測試,並不適合人體食用或是當作家畜飼料, 如果栽種藥用基改植物的隔離管理未做好把關,難保這些本應受到嚴格管制的治療性植物進入到食物供應鏈,影響民眾的身體安全。   在民眾健康及環境生態安全的考量下,反對推展 Biopharming 的力量也越來越大,本案即是一個明顯的例子。

法蘭克福最高法院判決「不好喝保證退費」電視廣告違反「不正競爭防止法

  法蘭克福最高法院在2006年10月19日對於一則「不好喝保證退費」電視廣告,判決被告對消費者因未盡到資訊告知義務(Informationspflicht)而違反不正競爭防止法(UWG)。   被告在一則促銷其所生產之礦泉水電視廣告中,打上「不好喝保證退費」等標語,但關於詳細退費資訊在電視廣告中並無說明,進一步的退費資訊,如退費條件、如何退費等,是黏在寶特瓶瓶身,需待消費者將此標籤撕下,才得以看到相關的退費資訊。原告是符合不正競爭防止法(UWG)第8條第3項第2款「以促進工商利益為目的而具備權利能力之工商團體」(Wettwerbsverband);原告認為被告違反「不正競爭防止法(UWG)」第4條第4款之規定:「未清楚標示引起消費者購買決心之促銷佸動的條件」。   法蘭克福最高法院(OLG Frankfurt a.M.)首先確認被告所刊登之「不好喝保證退費」電視廣告已經符合不正競爭防止法第4條第4款「促銷活動」之構成要件。再者,法院認為在被告所刊登之電視廣告及附在產品瓶身之退費條件標籤並不足以使消費者明確得知退費資訊。被告抗辯,基於現實因素,並無法將具體的保證退費條件一一細數在電視廣告中;惟法蘭克福最高法院認為,即使消費者可以透過其他管道得到相關的退費資訊,亦無法補正被告在電視廣告中未盡到告知義務之缺失。 對於此種類似噱頭之電子媒體行銷手法,是否可以只在產品瓶身明示退費規則,而在電子媒體廣告中忽略不提,是否有不實廣告及消費者權益如何保障等問題,都值得注意。

歐盟發布《營業秘密訴訟趨勢報告》指出,企業應明確界定營業秘密範圍與強化保密措施之落實

歐盟智慧財產局(EUIPO)於2023年6月底發布了《歐盟營業秘密訴訟趨勢報告》(Trade Secrets Litigation Trends in the EU),本報告包含三大部分,分別為判決之量化分析、法律要件之質化分析、各會員國之重要判決摘要,內容涵蓋了2017年1月1日至2022年10月31日間,27個會員國的695個訴訟案件。其重點摘要如下: 一、案件涉及之類型分析 1、約41%的案件與離職員工有關。 2、約17%的案件與商業合作對象有關。 3、約30%的案件雙方無明確的契約關係(但報告中指出此項統計包含員工離職後自行創業,原告以該離職員工及該公司為被告的情況)。 二、案件涉及之營業秘密標的分析(同一訴訟案件可能包含多個標的) 1、約62%的標的為「商業性營業秘密」。其中配銷通路(distribution methods)、廣告策略、行銷資料、客戶名單等供應鏈「下游資訊」(downstream information)占31%最多;定價模式及會計資料等「財務資訊」占13%次之。 2、約33%的標的為「技術性營業秘密」,其中有19%與「製程」(manufacturing process)有關。 3、僅3%的標的為原型(prototypes)或尚未公開的產品設計。 三、案件涉及之產業別分析(根據「歐盟標準行業分類第二修正版NACE Rev. 2」分類) 整體來說,歐盟營業秘密訴訟案件所涉及的產業別相當多元,簡要說明如下: 1、排名第一的產業別為「製造業」(manufacturing),占32%。其中最常涉訟的子產業別為「機械設備製造業」(manufacture of machinery and equipment)及「化學製品製造業」(manufacture of chemicals and chemical products)。 2、排名第二的產業別為「批發及零售業;汽機車維修業」(wholesale and retail trade;repair of motor vehicles and motorcycles)占11%。 3、排名第三的產業別為「金融及保險業」(financial and insurance activities)及「專業、科學及技術服務業」(professional, scientific and technical activities),分別占7%。 四、被告提出之抗辯分析 報告中指出,原告提出之營業秘密主張被法院採認的比例僅27%,有約73%的案件法院最終是做出有利於被告的認定。而被告最常提出的抗辯,第一為抗辯原告所主張之系爭資訊是普遍共知(generally known),不具備秘密性;第二為抗辯原告未採取合理保密措施。 最後,報告結論分析歐盟營業秘密判決的三大趨勢,其中一項趨勢指出,營業秘密所有人若要強化契約措施(如保密協議)於訴訟中的證明力,應明確識別與界定系爭營業秘密的範圍。因此,企業應建立營業秘密管理的整體政策(譬如與員工簽訂之勞動契約中,應明確界定其保密義務範圍;員工離職時應落實離職面談,再次提醒員工應遵守的保密義務範圍等),以便於發生爭議時有效主張權利。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).

TOP