新加坡金融管理局(Monetary Authority of Singapore, MAS)於2023年8月15日發布穩定幣監管架構,旨在維持金融穩定發展,並將與新加坡幣或十大工業國(G10)貨幣掛勾之單一貨幣穩定幣(single-currency stablecoins, SCS)納入監管,確保穩定幣的安全可靠。符合監管規範之穩定幣發行人,可向MAS申請標註為「MAS監管之穩定幣(MAS-regulated stablecoins)」,有助於區分其他不受政府監管之數位支付代幣(digital payment tokens),以保障穩定幣持有人權益及降低金融穩定之潛在風險。
依據本監管架構,穩定幣發行人需遵循的監管要求包括:(1)價值穩定性,穩定幣儲備資產須遵守其構成、估值、託管與審計方面的要求,以維持價值穩定性;(2)資本,發行人必須維持最低資本與流動資產,以降低破產風險;(3)贖回,持有人可在發行人收到贖回請求後5個工作天內,以穩定幣面值贖回;(4)資訊揭露,發行人必須向持有人揭露相關重要資訊,包括有關穩定幣價值穩定機制、穩定幣持有人權利以及儲備資產審計結果等資訊。MAS表示,穩定幣若受到適當監理,維持價值穩定,將可成為可信賴的數位交易媒介,開創更多創新的金融科技應用,促進金融穩健發展。
香港立法會於今(2021)年9月29日通過《2021 年個人資料(私隱)(修訂)條例》(The Personal Data (Privacy) (Amendment) Ordinance, PDPO),並於同年10月8日實施。本次修訂主要將「人肉搜索(Doxxing)」行為訂為刑事犯罪、賦予私隱專員對肉搜進行刑事調查及要求停止批露肉搜訊息之權責。 香港政制及內地事務局今5月提議修訂PDPO ,表示這是對抗肉搜的必要手段,2019年民主抗議活動中此行徑相當普遍,許多警察及反對派人士深受騷擾。修訂訊息公開後,Facebook、Twitter及Google等科技公司即透過亞洲互聯網聯盟(AsiaInternet Coalition)表示,倘香港政府修訂PDPO ,美國企業恐因網路惡意分享個資,造成香港員工面臨刑事調查或訴追風險,因而停止在香港的服務。香港行政長官林鄭月娥為紓緩各方疑慮做出回應,表示該修訂案對阻止網路惡意散布個資而言有其必要性,受香港民眾廣泛支持,其並指出社交媒體欠缺監管,包括散播仇警訊息、違反人性行為,導致香港今年7月發生刺傷警員後再自殺的事情。 依PDPO 之修訂條文,任何人未經資料當事人同意而披露他人的個人資料,並有意圖或罔顧是否會導致當事人或其家人蒙受指明傷害,例如滋擾、騷擾、纏擾、威脅或恐嚇,或對當事人或其家人造成身體、心理傷害或財產受損,最高將處5年有期徒刑及一百萬港元罰款。 對此,亞洲互聯網聯盟表示聯盟成員反對肉搜行為,惟PDPO 修訂條文措辭含糊,位於香港的企業及員工可能因用戶肉搜行為而受到刑事調查或起訴,對企業造成不成比例且不必要之回應成本,並恐限制言論自由,單純網路分享資訊的行為亦可能被視為犯罪。聯盟甚至指出:「科技企業要避免遭受這些懲罰的唯一途徑,就是不要在香港進行投資和提供服務」。
墨西哥聯邦資料保護法生效墨西哥的聯邦資料保護法在二0一0年四月經墨西哥國會通過後,已於同年七月六日生效。這個新法旨在保護個人的隱私權並強化個人對自身資訊的掌控。與我國新近通過的個人資料保護法相同,墨西哥的這個新法所規範的範圍也包括了私部門對個人資料的蒐集、處理與利用。 在新法通過之後,原本的聯邦公共資訊近用機構(Federal Institute for Access to Public Information),亦擴張執掌並更名為聯邦公共資料近用及資料保護機構(Federal Institute of Access to Information and Data Protection)。在新制下,該機構將在原有負責事務外,另肩負起監督私部門就個人資料保護的相關事務。 此外,該法設計了一個雙重的監督機制:當資料的蒐集、處理或利用人,也就是所謂的資料控制者(Data Controller)出現可能違反聯邦資料保護法的狀況,將先由各相關部門的主管機關,例如主管經濟事務的機關或主管交通事務的機關來介入處理,而非由聯邦公共資料近用及資料保護機構立刻介入。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。