FDA於今年(2012年)4月12日分別發布了兩項有關於評估應用奈米科技於化妝品及食物影響之產業指引草案(draft guidance)。其中就奈米科技應用於食品(以下簡稱奈米食品)之影響,FDA於「產業指引草案:評估包括使用新興科技在內之重要製程,改變對食品原料、與食品接觸物質及食品色素安全性及法規狀態之影響」(Draft Guidance for Industry: Assessing the Effects of Significant Manufacturing Process Changes, Including Emerging Technologies, on the Safety and Regulatory Status of Food Ingredients and Food Contact Substances, Including Food Ingredients that are Color Additives,以下簡稱新興科技衍生食品產業指引草案)中,對於食品製造商應採取哪些步驟以證明使用奈米科技之食品及食品包裝之安全性,有較為具體之說明。
於新興科技衍生食品產業指引草案中,明確表示奈米科技為此文件之涵蓋範圍,惟其聲明將奈米科技納入文件並不代表FDA認定所有內含奈米物質之產品皆屬有害,僅說明FDA認為依據奈米食品之特性,應進行特別的安全性評估以確保安全。文件中也強調,FDA對於食品製程中應用奈米科技所作之考量,與應用其他科技於食品製程者無異,並認為應用奈米科技所產出之最終產品,在原定用途之使用下,其特性及安全性與傳統製程產出者相同。
針對奈米食品之安全性評估,新興科技產業指引草案中指出,應就該食品所使用物質於奈米尺寸下之特性為其判斷基礎,而有可能必須進一步檢驗此等特性之影響,例如該物質對於生物可利用率及其於器官間運輸之影響等。此外,文件中亦提及FDA於過去針對食品添加物、色素及與食物接觸物質之化學及技術數據所作成之產業指引,於此應同樣被遵守,而將奈米食品所涉及與安全性相關之文件提供給主管機關。而FDA也將持續地向產業提供諮詢服務,以確保產品之安全性。
由FDA所發布之相關產業指引觀察,縱使FDA仍秉持美國對於奈米科技不具危害性之基本立場,其仍透過強化安全評估之科學工具及方法,以審慎之態度來取得大眾對於此類產品安全之信任。
本文為「經濟部產業技術司科技專案成果」
日本經產省與環境省共同發布《促進循環經濟與永續金融之揭露及對話指導》 資訊工業策進會科技法律研究所 2021年06月10日 壹、背景目的 伴隨全球人口增加,除了提高資源需求,亦造成大量廢棄物產生,導致氣候變化等環境問題日益嚴重,為從過去大量生產、大量消費、大量廢棄的線性經濟轉型為循環經濟,日本經濟產業省(下稱經產省)與環境省於2021年1月19日共同公布「促進循環經濟與永續金融之揭露及對話指導[1]」(サーキュラー・エコノミーに係るサステナブル・ファイナンス促進のための開示・対話ガイダンス)。該指導旨在促進企業與投資者、金融機構之間在資源循環領域順利進行對話,期能通過企業適當地揭露資訊,推展企業技術及商業模式創新,共同創造價值達成永續企業與永續社會的轉型。 貳、事件摘要 「促進循環經濟與永續金融之揭露及對話指導」參考「環境社會治理」(Environmental, Social, Governance,簡稱ESG)公開框架及「氣候相關財務揭露建議書」(Task Force on Climate-related Financial Disclosures,TCFD)[2],主要著眼於六項重點,除了ESG公開框架與循環經濟特徵共通的「風險與機會」、「策略」、「指標與目標」以及「治理」四者之外,再併入屬於企業經營方針的「價值觀」、「商業模式」兩者。根據上述六項重點,分為三個階層說明彼此關係:(1)首先在「上位方針」階層,「價值觀」作為統合企業實行循環經濟措施的理念與願景,為判斷企業的執行力及實現商業模式可能性的重要因素;而「商業模式」是指企業應分析目前市場環境與未來中長期動向,以及企業採取循環經濟措施對於其在市場地位的競爭優勢,並說明其商業模式所產生的附加價值及確保競爭優勢的差別化因素,使投資者得以適當評價企業進行投資判斷。(2)其次在「實行」階層,「風險與機會」主要包含政策法規、技術、市場及評價四個面向,企業應整理有關依賴線性經濟可能的風險與對財務潛在的影響,以及向循環經濟轉型的機會;並設定相對應的「指標與目標」,檢視商業模式與策略執行的狀況。(3)最後在「PDCA」階層,企業制定「策略」,以確保、強化支撐其商業模式競爭優勢的經營資源、無形資產等;並透過企業規律的「治理」運作,包括企業經營層與董事會積極參與過程,藉由PDCA方法論衡量策略達成情形,並重新進行評估審視[3]。 另一方面,循環經濟涵蓋多種類型,主體主要有(1)本身事業活動採取循環經濟措施的「採用者」(Adopters);抑或(2)通過提供技術、解決方案以提高社會整體循環性的「推動者」(Enablers)。具體而言,即分為企業在本身事業活動中採用循環經濟措施,或是通過提供技術、解決方案對循環經濟措施做出貢獻,並有助於提高社會整體循環性的兩種方式。而循環經濟採取之措施則主要有(1)減量(Reduce),有助於節約資源、抑制廢棄物產生的措施;(2)再使用(Reuse),有助於產品長期使用、有效利用的措施;(3)再循環(Recycle),有助於資源循環利用、再生利用的措施;(4)可再生(Renewable),有助於可再生資源利用的措施[4]。此外,企業在經營事業活動時,應考量循環性,針對產品生命週期,從設計、生產、利用、廢棄等供應鏈所有階段中,根據其業態選擇所適合之循環經濟措施。 參、簡析 隨著ESG投資在國際逐年擴大,且國際供應鏈亦逐步要求企業採行循環經濟措施,日本本次發布「促進循環經濟與永續金融之揭露及對話指導」,即針對循環經濟與永續金融作出政策性宣示,為日本國內企業點明投資發展方向。對於企業而言,除了提供更具循環性的產品、服務,在企業價值創造故事中結合「價值觀」、「商業模式」,同時藉由企業年度報告將六項重點向投資者展示企業價值;對於投資者而言,除了關注投資效益,亦應以中長期的角度看待企業採取循環經濟措施對實現永續社會的價值,並對其進行適當評價與投資。 近年來我國政府與企業亦逐步向循環經濟轉型,於2018年12月通過「循環經濟推動方案[5]」,並在經濟部設立「循環經濟推動辦公室[6]」,以推動循環產業化、產業循環化,促進產業循環共生及轉型。而行政院環保署亦擬訂了「資源回收再利用推動計畫[7]」(2018至2020年),擬定有關如何有效利用資源與廢棄物適當處理之策略。由於推動循環經濟仍需要民間企業與投資者的支持,我國政府得參考日本作法訂定相關政策法規。且由於我國並未針對循環經濟制定專法,在資源利用方面,同時可能有「廢棄物管理法」及「資源回收再利用法」二者之適用,造成國內業者在推行創新商業模式遭遇法規障礙,不利於國內企業轉型循環經濟。故建議政府得因應政策變遷及經濟發展需求,通盤性建置循環經濟專法之制度框架,並滾動式調整相關規範,促進循環經濟產業發展,實現企業創新商業模式與新興合作關係,在永續金融方面則透過企業返還投資利潤予投資者,確立經濟與環境之間的良性循環,將有助於國內產業推行永續企業之循環經濟轉型。 [1]「サーキュラー・エコノミーに係るサステナブル・ファイナンス促進のための開示・対話ガイダンス」を取りまとめました,日本經濟產業省,https://www.meti.go.jp/press/2020/01/20210119001/20210119001.html ;環境省,https://www.env.go.jp/press/108893.html(最後瀏覽日:2021/6/10)。 [2]Task Force on Climate-related Financial Disclosures, Recommendations of the Task Force on Climate-related Financial Disclosures, https://www.fsb-tcfd.org/publications/final-recommendations-report/ (last visited June 10, 2021). [3]サーキュラー・エコノミーに係るサステナブル・ファイナンス促進のための開示・対話ガイダンス(本文),日本經濟產業省與環境省,頁6-7,https://www.meti.go.jp/shingikai/energy_environment/ce_finance/pdf/20200119_2.pdf(最後瀏覽日:2021/6/10)。 [4]同前註,頁12-13。 [5]行政院經濟能源農業處,循環經濟推動方案,https://www.ey.gov.tw/Page/448DE008087A1971/dc1de106-4298-4ad1-a9c7-f5b800f283cb (最後瀏覽日:2021/6/10)。 [6]經濟部工業局,循環經濟推動辦公室,https://cepo.org.tw/Default.aspx (最後瀏覽日:2021/6/10)。 [7]行政院環保署,資源回收再利用推動計畫,https://www.epa.gov.tw/Page/72968DDF9105BE07 (最後瀏覽日:2021/6/10)。
從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例 JD SUPRA研析發布企業員工營業秘密管理戰略根據JD SUPRA於2022年4月29日研析美國Bay Fasteners & Components, Inc. v. Factory Direct Logistics, Ltd.案例,並刊出「制定全面性的營業秘密戰略」一文指出,員工的入職和離職是企業營業秘密糾紛產生的主要風險之一。企業在僱用員工時須避免營業秘密的污染和竊取。員工離職時,企業應採取離職面談與提醒,以防止離職員工洩露營業機密。以下針對員工入職、員工離職兩個情形,整理建議企業應採取之對策。 員工入職時,為避免新員工帶來任何營業秘密的污染,企業應教育新進員工保護前雇主營業秘密的重要性、如何將營業秘密從know-how區分出來,或是要求員工證明他們不會透露與持有前雇主的機密資訊或任何非公開資訊。然而,為保護企業的營業秘密不被員工竊取,最直接的方法是使用契約中的保密協議、競業禁止條款進行約束,作為保護企業的證據。 離職面談是防止離職員工向未來雇主揭露企業營業秘密的有效方法。在離職面談時,企業應提供員工入職時所簽訂的保密協議條款與相關任職期間的協議約定,並要求離職員工簽屬確認書證明已被告知應遵守的營業秘密內容範圍及其所負義務,同時企業應記錄離職面談過程的內容。若知悉離職員工未來任職公司,建議以信件通知該公司提醒應尊重彼此的營業秘密。此外,企業在得知員工要離職時,應指示IT部門確認員工電腦登錄及下載歷史紀錄是否有洩漏營業秘密之可疑活動,例如大量讀取文件、使用非公司的IP登入。員工離職後,IT部門應盡快停用該離職員工相關帳號權限,同時考慮資料備份,即使沒有檢測到可疑的活動,也建議備份員工的設備使用狀況和帳號log紀錄,以作為日後面臨爭訟時之證據。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).