2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:
隨著新型態支付服務應用不斷推陳出新,利用數位支付型代幣(digital payment token)進行洗錢與犯罪愈加猖獗,新加坡國會(Parliament of Singapore)於2021年1月4日通過「支付服務法修正案」(Payment Services (Amendment) Bill),擴大監管範圍,以降低與數位支付型代幣有關的洗錢、資助恐怖主義(money laundering and terrorism financing, ML/TF)及隱匿非法資產風險。 本次修正重點包含(1)賦予新加坡金融管理局(Monetary Authority of Singapore, MAS)更大權責,可要求支付服務供應商落實相關客戶保護措施,例如要求數位支付型代幣服務供應商所保管之資產與自有資產分開存放,以確保客戶資產不受損失;(2)將虛擬資產服務供應商(virtual assets service providers)納入法規監管,擴大數位支付型代幣服務定義,使其包括代幣轉讓、代幣保管服務與代幣兌換服務;(3)擴大跨境匯兌服務(cross‑border money transfer service)定義,凡是與新加坡支付服務供應商進行資金轉移,不論資金是否流經新加坡,皆受新加坡金融管理局監管;(4)擴大國內匯款服務(domestic money transfer service)範圍,以涵蓋收付雙方均為金融機構之情形。 新加坡金融管理局表示,本次修法目的是為了因應支付服務產業的廣泛應用,降低潛在犯罪風險與維護金融安全,有效保護消費者權益,並維持金融穩定性與維護貨幣政策有效性。
第三方支付法制問題研析 歐盟智慧財產局出版《防偽技術指南》,協助企業及早防免智財侵權風險歐盟智慧財產局(European Union Intellectual Property Office)之智庫「歐盟智財侵權觀察平台」(the European Observatory)於今(2021)年2月出版《防偽技術指南》(Anti-Counterfeiting Technology Guide,下稱本指南),本指南全面介紹目前市面上防偽技術的內容,技術區分成電子型、標記型、化學型、物理型、機械及數位媒體型等五大防偽技術類別,供所有有興趣了解或欲執行防偽技術的各規模、各領域企業們參考。 仿冒為全球性問題,幾乎威脅到了各領域行業的營運與生存,而全球仿冒品數量在互聯網時代之下,以每年增長15%的驚人速度上升中,已嚴重侵害了企業的品牌商譽與智慧財產權。企業雖懂得以註冊智財權的方式自我保護,但仿冒問題對企業帶來的攻擊性日益增加、防偽技術又多如牛毛且複雜,本指南彙整之資訊,尚補充了關於ISO標準的相關技術資訊,如《 ISO 22383:2020 》(產品與文件之安全性、彈性、真實性與完整性-重要產品認證方案之選擇與性能評估標準)。這些資訊可以跟防偽技術一併使用,精進企業整體防偽策略。 此外,本指南對於彙整出的每項防偽技術或ISO的相關技術標準,都予以清楚介紹,並說明技術主要特性、優缺點、用途、實施條件以及相關成本,企業可透過本指南比較各式防偽技術,從而選定最適合其業務性質的防偽技術,及早防範仿冒風險,以保護企業之業務營運與品牌發展。
日本經產省和總務省共同發布AI業者指引草案,公開徵集意見因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下: (1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。 (2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。 (3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。