美國國會於2022年12月22日通過《2022年保護美國智慧財產法》(Protecting American Intellectual Property Act of 2022),經美國總統拜登(Joe Biden)於2023年1月5日簽署後正式生效。鑒於近年來美國營業秘密外洩事件頻傳,中國大陸和駭客透過各類方式竊取美國的智慧財產,對美國的經濟和國家安全產生重大危害。因此,共和黨參議員Ben Sasse與民主黨參議員Chris Van Hollen於2020年6月共同提出本法,並於2021年4月提出修正版本,期待美國政府進一步採取保護美國營業秘密的具體措施。 本法授權美國政府對涉及營業秘密重大竊盜的外國人及外國實體(foreign entity)實施制裁。重點包含: 1.要求美國總統每年應向國會提出報告,且第一份報告應於本法正式施行後6個月內提出,報告應列出符合以下條件之外國人、外國實體名稱及外國實體的執行長或董事會成員: (1)故意竊取美國營業秘密,且其行為很可能或已經對美國國家安全、外交、經濟、金融構成重大威脅者; (2)對上述故意竊取美國營業秘密之行為提供重要的財務、物質、技術、商品、服務等支援,或從中獲得利益者。 2.實施制裁 (1)針對外國實體,本法授權美國政府得實施的制裁手段有12項,包含根據國際緊急經濟權力法(International Emergency Economic Powers Act)凍結其資產、將該實體列入美國商務部的出口管制名單(Entity List)、禁止美國金融機構對該實體提供貸款、拒絕向該實體採購、禁止該實體的外匯交易、禁止美國人投資該實體的股票或債券、限制該實體成員入境、將該實體成員驅逐出境等。美國總統應針對名單中的對象實施至少5項制裁,並可對該外國實體之高層實施上述制裁。 (2)針對外國人,制裁手段包含凍結資產、拒絕入境、撤銷簽證等 3.豁免 總統若認為符合美國國家利益,得豁免對外國人及外國實體之制裁,但應於15天內向國會提交豁免的理由。 本法施行後,美國除了既有的《保護營業秘密法》(Defend Trade Secrets Act of 2016)外,將透過上述的制裁手段強化營業秘密的保護力道。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
加拿大隱私專員與首席選舉官針對聯邦政黨發布個人資料保護指引加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)與加拿大首席選舉官(Chief Electoral Officer of Canada, CEO)於2019年4月1日聯合針對聯邦政黨發布個人資料保護管理之指引(Guidance for federal political parties on protecting personal information)。目前加拿大選舉法(Canada Elections Act, CEA)僅概括規範政黨須制定隱私政策,以保護選民之個人資料,惟其卻未有具體法規制度落實。對此加拿大隱私專員辦公室認為政黨必須提出具體隱私政策來履行其法律義務。 現行加拿大選舉法規範聯邦政黨必須於其網站上公布隱私政策,並提交給加拿大選務局(Elections Canada)。若其隱私政策變更,必須通知首席選舉官,且即時更新網站上隱私政策版本。加拿大聯邦各政黨須於2019年7月1日前完成相關規範,為具體實踐政黨隱私保護制度,加拿大隱私專員辦公室提出幾點隱私政策之必要條件: 一、 聲明蒐集個人資料之類型與如何蒐集個人資料? 二、 如何保護其蒐集之個人資料? 三、 說明如何利用個人資料?是否會將個人資料給予第三方? 四、 針對個人資料蒐集、利用之人員如何培訓?內部控管機制為何? 五、 蒐集分析之資料為何?是否有利用cookie或相關應用程式蒐集? 六、 設置處理個資隱私疑慮專責人員 除此之外,該辦公室更建議參採國際隱私保護作為,著重公平資訊原則,政黨於個資隱私保護上須有其問責制、目的明確性、透明化、限制性蒐集,且未經當事人明確同意不得蒐集政治觀點、宗教或種族等敏感性個資,並應建置保障性措施與合規性管理機制。
Codex研提進口食品含有未經核准之GMO含量的技術指導原則由聯合國農糧組織及世界衛生組織共同成立的The Codex Alimentarius Commission (Codex),刻正研提一份與GMO有關的重要技術指導原則,以協助各國評估並管控進口食品是否含有未經核准的GMO或由未經核准的GMO所製程的風險,藉此降低食品貿易的障礙。 關於未經核准的GMO,目前歐盟採取的零容忍度政策(zero-tolerance policy),亦即,進口之食品或飼料中,絕對不能含有未經核准的GMO或由未經核准的GMO所製程,至於一般所知的歐盟0.9%的GMO標示義務,是適用在經依法核准上市的GMO,若因技術上不可避免的原因而使非基改產品含有此GMO之可容忍界線。 根據Codex調查,許多GMO的上市審查在歐盟受到延宕,但這些GMO在歐盟以外其實很多都已經被其他國家核准,或歐盟的技術審查單位—食品安全管理局(European Food Safety Authority, EFSA)也已提出正面的安全評估意見,但歐盟執委會卻遲遲未完成行政審查,造成在歐盟進口的食品或飼料中若含有這些GMO,即被認定為未經核准而影響產品之進口。 鑑於歐盟的GMO管理與出口國的GMO管理有重大的制度面差異,Codex認為此一制度面的衝突若不尋求解決,未來將越演越烈,影響的作物範圍也會越來越廣,因而Codex才會思考制定相關的技術指導原則,解決某GMO可能在一個或多個國家已經被核准上市,但在進口國還未經核准上市,而進口非基改食品或飼料中卻含有這些GMO的問題,目前Codex預計在2008年7月提出相關的技術指導原則建議。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。