歐洲資料保護委員會(European Data Protection Board, EDPD)於2020年4月24日公布COVID-19疫情期間使用位置資料和接觸追蹤工具指引文件(Guidelines 04/2020 on the use of location data and contact tracing tools in the context of the COVID-19 outbreak),就針對COVID-19疫情期間,歐盟成員國利用定位技術和接觸追蹤工具所引發的隱私問題提供相關指導。
EDPD強調,資料保護法規框架於設計時即具備一定彈性,因此,在控制疫情和限制基本人權與自由方面可取得衡平。在面對COVID-19疫情而需要處理個人資料時,應提升社會接受度,並確保有效實施個資保護措施。然而資料和技術雖可成為此次防疫重要的工具,但此次的資料利用鬆綁應僅限用於公共衛生措施。歐盟應指導成員國或相關機構,採取COVID-19相關應變措施時,若涉及處理個人資料,應遵守有效性、必要性、符合比例等原則。本次指引針對利用位置資料和接觸追蹤工具的特定兩種情況,闡明其利用條件和原則。情況一是使用位置資料建立病毒傳播模型,並進一步評估及研擬整體有效的限制措施;情況二是針對有接觸史病患進行追踪,目的是為通知確診病人或疑似個案以進行隔離,以便儘早切斷傳播鏈。
EDPB指出,GDPR和電子隱私保護指令(ePrivacy Directive)均有特別規定,允許各成員國及歐盟層級公共單位使用匿名及個人資料監控新冠病毒的傳播,並呼籲透過個人自願性安裝接觸追蹤工具。
本文為「經濟部產業技術司科技專案成果」
2009年02月17日美國總統簽署通過「2009年經濟復甦暨再投資法」(America Recovery and Reinvestment Act, ARRA),將醫療產業列為重點發展項目之ㄧ,擬由政府預算進行醫療資訊科技化計畫,俾使電子病歷的傳輸與交換得兼顧效率及安全。而以規範醫療資訊安全為主的「醫療保險可攜及責任法」之隱私權條款(HIPAA, Privacy Rule),亦因此有重大修正。 其中,最主要的變革在於擴充HIPAA的責任主體,由原有的健康照護業者、健康計畫業者及健康照護資訊交換業者,擴充至凡因業務關係而可能接觸個人健康資訊的個人或業者,包含藥劑給付管理公司、代理人及保險業者等,這些機構或個人原本與醫療院所或病患間係依據契約關係進行責任規範,但被納入HIPAA的責任主體範圍後,則需依此負擔民、刑事責任。 而於加強資訊自主權部份,亦有數個重要變革如下:(一)責任主體之通知義務:依據新規定,資料未經授權被取得、使用或揭露,或有受侵害之虞時,責任主體應即早以適切管道通知資訊主體有關被害之情事,以防備後續可能發生的損害。(二)資訊主體之紀錄調閱權:以往資料保管單位得拒絕個人調閱健康資料運用紀錄之請求,有鑒於病歷電子化後,保存及揭露相關紀錄已不會造成過重負擔;依據新規定,資訊主體有權調閱近三年內個人健康資料被使用次數及目的等紀錄。(三)資訊主體資料揭露之拒絕權:以往責任主體得逕行提供個人醫療資訊作為治療、計費及照護相關目的之使用,無論資訊主體曾表達拒絕之意與否;依據新規定,資訊主體得禁止其向保險人揭露相關資訊,除非保險人已全額支付醫療費用。 以上HIPAA之新增規範,預計於2010年02月17日正式施行。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
2014年3月24日歐盟執委會提出有機產品行動計畫2014年3月24日歐盟執委會提出一項具體行動計畫,發起歐洲政策有關有機農業的檢討諮詢,希冀幫助有機農民、生產者和零售商適應新的政策,投入有機農業技術研發,並規劃於2015年召開食品業與研發人員溝通會議,進而加入專家意見、利益相關者與地區公眾共同集徵意見。其中,為了幫助有機農民、生產者和零售商調整至所建議的政策規劃方向,歐洲執委會將計畫推動一項有機生產行動計劃,以推動農村發展和歐盟農業政策措施,鼓勵有機農業以加強歐盟有機生產與研究創新項目之間的聯繫,並鼓勵使用有機食品。具體行動計畫重點為: 一、增加歐盟有機生產者的競爭力: 二、為鞏固消費者信任度,計畫執行將對有機產品及其農業技術研發展開控管措施; 三、加強歐盟統一有機產品的標示規格。 另外,歐盟執委會亦通過有機產品生產和標籤規範修法草案(The Legislative Proposals for a New Regulation on Organic Production and Labelling of Organic Products),將擬制定更完善的有機產品法規,以杜絕假冒及混充。
泰國發布新法令規範數位平臺義務泰國政府於2022年12月22日在政府公報上發布規範數位平臺義務的「數位平臺業務營運通知皇家法令」(the Royal Decree on Operation of Digital Platform Services Which Require Notification,以下簡稱皇家法令),鑒於數位平臺治理的不足與電子交易安全性,泰國政府發布皇家法令用以補充電子交易法(Electronic Transaction Act)之空缺。泰國政府要求數位平臺採取必要措施以符合皇家法令,將於2023年8月20日生效。 皇家法令將「數位平臺」定義為透過電腦網路連結商家、消費者與使用者從而產生電子交易的電子中介平臺。營收達到180萬泰銖的自然人、或營收達到5000萬泰銖的法人、或在泰國境內每月活躍用戶達到5000人的數位平臺需要負擔一定義務,包含向主管機關電子交易發展署(Electronic Transactions Development Agency, ETDA)通報其相關資訊、向ETDA提供年度報告、變更條款的透明度義務、以及境外數位平臺需指定代理人等。此外,數位平臺在提供服務或對數位平臺相關資訊進行修改時,有通知平臺用戶必要資訊的義務。 單一服務營收每年超過3億泰銖、或整體服務營收每年超過10億泰銖、或泰國每月活躍用戶超過總人口10%的數位平臺則為大型數位平臺,大型數位平臺相較於其他數位平臺需要負擔額外義務,除前述數位平臺義務之外,大型數位平臺需要實施風險評估、風險管理措施、系統安全措施與危機管理措施等額外義務。 自歐盟制定數位服務法(Digital Services Act)後,各國陸續建立數位平臺治理制度。經觀察,泰國政府是基於維護電子交易安全目的要求數位平臺負擔相關義務,與歐盟所關注的監督數位平臺與保護使用者基本權利似有所區別,規範對象門檻相比數位服務法來得低,義務也比數位服務法來得少。同時其他亞洲鄰近國家也開始關注數位平臺治理,如南韓、新加坡等也在研擬數位平臺治理法制,各國數位平臺治理法制之發展與走向值得持續觀察。