歐盟執委會(European Commission)於2023年6月28日提出第三版支付服務指令(Third Payment Services Directive, PSD3)草案,目前預計於2024年底前通過最終版本,並於2026年施行。
相較第二版支付服務指令(PSD2),PSD3強化歐盟電子、數位支付和金融服務規範,補強安全性(Security)、透明度(Transparency)與促進創新(Innovation),建立更適合歐盟的支付架構。其旨在保護消費者權益和個人資訊,改善支付產業競爭環境,提高消費者對資料掌控度,促進創新金融產品服務發展。
PSD3修正重點歸納如下:
一、消費者保護:強化對未經授權交易之保護,完善支付詐欺或支付錯誤之賠償方案,減少消費者潛在損失。
二、開放銀行(Open Banking):持續推動開放銀行發展,透過加強規範第三方支付服務提供者(Third party payment provider, TPP)與提供更標準化與更安全的應用程式介面(Application Programming Interface, API),促進創新金融產業服務發展。
三、支付系統安全性:強化客戶身分認證(Strong Customer Authentication, SCA),促進支付過程的透明度與安全性。
四、因應新型詐欺:導入新規定與工具對抗日益增加的網路詐欺風險。
五、跨境支付:加強跨境支付措施與降低成本,推動歐盟市場一體化。
六、支付創新與多元化:導入區塊鏈或其他更先進的即時支付系統。
七、監管:制定更明確的法規,加強各方監管,確保市場公平與穩定。
中國國家互聯網信息辦公室於2025年2月12日公布《個人信息保護合規審計管理辦法》(下稱《辦法》)及其配套指引,自2025年5月1日正式實施。《辦法》及指引的發布,旨在落實《個人信息保護法》中的稽核規定,完善個資合規監督架構,為企業提供執行審計的制度依據。 《辦法》區分合規審計為兩大形式:企業可自行或委託專業機構定期進行審計;另當主管機關發現高風險處理活動或發生重大資料外洩事件時,有權要求企業限期完成外部審計,並提交報告。針對處理規模較大的企業,《辦法》特別規定,凡處理超過1,000萬人個資的業者,須至少每兩年完成一次審計。 針對大規模蒐用個資企業,《辦法》亦強化其配合責任,對於處理超過100萬人資料的企業,須設置個資保護負責人;對大型平台服務業者,則須成立主要由外部人員主導的獨立監督機構,以確保審計客觀性。 在審計執行層面,《辦法》對第三方審計機構的條件、獨立性與保密義務提出具體要求,並禁止將合規審計轉委託,防堵審計品質不一,或個資分享過程增加外洩風險。同時,也規範同一機構或審計負責人不得連續三次審計同一對象,以強化審計公正性。 《合規審計指引》進一步列出具體審查項目,包括處理合法性、告知義務、資料共享、敏感及未成年個資保護、境外傳輸、自動化決策與安全措施等,協助企業全面落實個資合規審查。
標準必要專利法制發展及對應策略 亞太經濟合作組織(APEC)糧食安全政策夥伴關係機制(PPFS)2014年8月14日在北京召開成員會議亞太經濟合作組織(Asia-Pacific Economic Cooperation, APEC)糧食安全政策夥伴關係機制(Policy Partnership on Food Security, PPFS)成員國、APEC秘書處、APEC工商諮詢理事會秘書處、糧農組織代表在北京召開全體成員會議,就亞太糧食安全相關議題與糧食安全政策夥伴關係機制(PPFS)建構進行討論。PPFS為政府部門與民間組織、企業溝通對話之平台,係APEC解決亞太糧食安全所建構之機制,茲就本次會議作成之重點分述如下: 1.亞太經濟合作組織(APEC)糧食安全政策夥伴關係機制(PPFS)全於會中作成3項倡議:第一,加強APEC成員糧農政策對話與交流,協商區域合作的規劃和措施。第二,降低貿易和投資成本,消除貿易壁壘促進糧農貿易。第三,加強各政府、產業與個體農民交流,促進私部門參與糧食安全之商業模式,以利亞太糧食安全之永續。相關糧食安全議題及合作方向包括:糧食生產與技術移轉跨國合作;糧食儲備、供應鏈及降低糧損技術之交流與合作和貿易合作、投資與基礎建設等。 2.本次會議除作成前述宣示性倡議外, 另通過「APEC減少糧食損失和浪費行動計畫」、「APEC糧食安全商業計畫」、「APEC增強糧食標準與質量安全互通行動計畫」、「2020糧食安全路線圖」等修訂文件。其中,「2020糧食安全路線圖」,提及PPFS將致力於降低亞太區域之糧食農損失,並宣示於2020年降低農損總量10%之具體目標(以2011-2012年度之農損總量為比較基準)。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。