本文為「經濟部產業技術司科技專案成果」
由歐盟二十七個會員國資料保護主管機關組成的第二十九條資料保護工作小組(The Article 29 Working Party)最近公布其應適用何國資料保護法規之意見書。 歐盟資料保護指令(EU Data Protection Directive)第四條對於蒐集或處理個人資料所應適用之法規有所規範,依該條規定,機構必須依其成立之國別適用該國資料保護法規;機構若於其他國家裝置設備處理資料,則須遵守設備所在地之法令。 隨著全球化的趨勢與新興科技的發展,目前處理資料機構之運作方式已與當初制定指令時有所不同,許多機構在世界各國設置營運點,向全球各地提供各類型服務,尤其是網際網路的發展,使得遠端服務及在虛擬環境下分享個人資訊更為容易,但同時也增加辨識資料處理所在地之困難度,因此工作小組提出該意見書,希望藉此釐清資料保護指令第四條之適用。 工作小組於該意見書中指出,資料保護指令所指的應適用法規,並非資料控制者(data controller)所在地之法規,而是附屬於該資料控制者並實質進行資料處理之機構的所在地法規。蓋因同一資料控制者可能在數國成立附屬機構,在此種狀況下判別適用法規的標準,應視實際上相關資料處理活動的發生地,亦即處理資料機構所在地。 而針對處理個人資料所使用之設備,工作小組表示,即使處理資料之機構並未擁有設備,而使用該設備處理個人資料時,亦可適用指令第四條之規定,需遵守設備所在地之相關法規;但工作小組同時特別釐清,以電信電纜或郵政服務等方式傳輸資料並不會落入資料保護法規之範疇。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
澳大利亞政府擬修正《支付系統管理法》將數位支付,如Apple Pay、Google Pay納入法律規範中澳大利亞國庫部(Department of the Treasury)於2023年10月11日發布《支付系統管理法》(Payment Systems(Regulation)Act 1998)修正草案,擬擴張法案適用主體,將Apple Pay、Google Pay等數位支付或提供此項支付服務事業納入規範,其目的在於提升企業的開放性及責任,並關注大型科技企業在其中扮演的角色。 本次修正案中,將修改現行支付系統的定義及適用主體,擴大至提供支付服務平臺企業,將被視為金融機構受到拘束,並授權澳大利亞準備銀行(the Reserve Bank of Australia,下稱RBA)監管數位支付平臺。修正草案內容整理如下: 1.重新定義「支付系統」。現行法定義為「透過任何形式或方式促進貨幣流通的系統」,草案則納入非貨幣(non-monetary,如數位貨幣)及提供便利支付服務的支付平臺系統。 2.擴大「參與者」定義。現行法規中參與者僅包含管理、運作支付系統的企業,草案則擴張至與支付價值鏈(payments value chain)具直接或非直接相關連之所有企業。 3.現行規範中,僅RBA在可能涉及使用者財務安全及公共利益(下述)考量時,有指定支付系統的職權,並有權監管該支付系統,包含決定新參與者的加入、訂定制度內參與者應遵守的標準及指引、對相關爭議問題進行仲裁等。修法後國庫部部長(Minister)將擁有相同權力。規範所稱之「公共利益」,指有助提升財務安全、高效率並具有競爭性,且不會導致金融體系風險增加。 4.提高法案中刑事處罰的罰金金額。現行法規授權RBA訂定支付制度之相關標準及指引,若制度內參與者未依標準或指引行事,RBA會提出要求企業為特定行為或不行為之指示,仍未依循可能會科處澳幣5,500元的罰金(約臺幣11萬3千元),修法後將提高至2倍,惟罰金之處罰權最終仍須法院審判決定。 我國針對電子支付產業有電子支付機構管理條例、金融消費者保護法規範,並要求第三方支付服務業者落實洗錢防制法規定,避免淪為洗錢或地下匯兌工具,未來可持續觀察澳大利亞及其他國家對於支付平臺議題之討論及發展趨勢,作為我國評估相應治理措施及手段參考基礎。
法國國民議會通過反仇恨言論立法提案法國國民議會(National Assembly)於2019年7月9日通過反仇恨言論立法提案,希望效仿德國社群媒體管理法(NetzDG),課予網路平台業者積極管理平台上仇恨言論(hate speech online)之責任。該提案希望透過立法要求大型網路平台及搜尋引擎,如Facebook及YouTube等,必須設置用戶檢舉管道,並於24小時內刪除以種族、宗教、性別、性取向或身心障礙為由之煽動仇恨或歧視性侮辱言論,否則將面臨高達全球營業額4%之罰款。 在主管機關方面,規劃由法國廣電主管機關「最高視聽委員會」(High Audiovisual Council, CSA)進行監管,網路平台業者必須向其提交仇恨言論之處理報告與相關數據。同時,平台業者應加強與法國司法系統的合作,取消違法用戶的匿名權利並提供相關證據資料,以利司法追訴。 2019年3月15日紐西蘭清真寺槍擊案之網路直播事件,讓各國警惕勿讓網路平台成為傳遞仇恨言論的工具。發起立法的法國議員Laetitia Avia表示,對抗網絡仇恨言論是場艱巨且長期的戰鬥,希望透過立法讓各方負起應有的責任,讓仇恨言論無所遁形,但反對者認為平台業者為了避免裁罰的風險,可能會對內容進行過度審查,相關自動化過濾技術也可能對言論自由產生不利影響。本立法提案仍待法國參議院完成審議。