澳洲證券投資委員會(Australian Securities and Investments Commission, ASIC) 於2016年12月15日發布第257號法規指導(Regulatory Guide 257,RG 257)-在未持有AFS或信用執照的狀態下測試fintech產品與服務(Testing fintech products and services without holding an AFS or credit licence)。RG 257並包含澳洲的監理沙盒架構。重要內容如下:
1.有別於其他國家的監理沙盒需要申請方能適用,透過法規以及ASIC澳洲已經提供一些鬆綁機制,換句話說並不需要事先申請就可以取得監管沙盒鬆綁。例如非現金支付產品,包含儲值卡,以及某些國外交易服務。
2.ASIC的fintech 執照豁免見諸於ASIC Corporations (Concept Validation Licensing Exemption) Instrument 2016/1175 以及ASIC Credit (Concept Validation Licensing Exemption) Instrument 2016/1176。
3.ASIC也可個別提供客製化的執照豁免以促進產品或服務測試,個別豁免就比較接近其他國家的監管沙盒架構。
因此基本上,只要符合法定以及上述兩個instruments的規定,就可以自動取得監管沙盒的鬆綁,而無需另外申請,唯需「通知」ASIC,並提供相關資料。監理沙盒的適用期間為十二個月。但是如果不符法定以及Instrument 2016/1175、Instrument 2016/1176的規定,也可以另外向ASIC申請客製化的豁免。
目前可適用Instrument 2016/1175的金融服務包含:
•掛牌的澳洲證券;
•簡易管理的投資架構;
•存款產品;
•某些一般的保險商品;以及
•「授權存款取用機構(authorised deposit-taking institutions,ADIs)」發行的支付產品。
唯須注意的是,Instrument 2016/1176允許有限的信用協助,但是不得提供借貸。另外,使用監理沙盒的fintech企業最多只能有100個零售客戶,以有效控制風險。
Rightscorp, Inc.成立於2011年,總部位於美國洛杉磯,該公司與網際網路服務提供者合作(Internet Service Provider, ISP),監控以P2P方式所進行之非法下載行為,並依數位千禧年著作權法(Digital Millennium Copyright Act)之規定,代理權利人與當事人和解(下載一非法檔案的和解金額是20美元)或透過訴訟以保護權利人之智慧財產權,近年越來越多大學甚至是華納兄弟(Warner Bros.)、唱片公司BMG使用Rightscorp這樣第三方公司的服務來監控非法網路活動。 年初(2015)在喬治亞州(City of Monroe, Georgia),該公司因未得消費者同意以電話留言或者發送簡訊、email的方式威嚇消費者達成非法著作權下載之和解,被控訴違反「電話消費者保護法」(Telephone Consumer Protection Act),原告Brown和Ben Jenkin主張針對每一筆非法之通訊連絡請求損害賠償,總額估算可能會超過千元美元。 去年(2014),Rightscorp在加州聯邦法院(California federal court)面臨之集體訴訟仍在進行中,原告方指出Rightscorp並未提供非法下載之債務有效證明且濫用美國千禧年著作權法(DMCA)的通知機制,控訴該公司違反「電話消費者保護法」(TCPA)、「公平債務催收行為法案」(Fair Debt Collection Practice Act )和「濫用訴訟權利」(Abuse of Process)。 Rightscorp的商業模式,對權利人來說,確實可以有效追蹤侵權行為人,某種程度上可適當地遏止非法下載行為,但手段上也影響到當事人的權利,妥適性有待商榷。惟可預見的是,後續判決結果將可能影響類似公司在防範網路非法下載時的相關反制措施。
歐洲發展智慧電網對資訊安全與隱私保護之現況歐盟執委會於2011年4月發布的「智慧電網創新發展」(Smart Grids: from innovation to deployment, COM(2011) 202 final),在有關資訊安全與隱私的部分指出,應建立消費者(consumer)隱私的保護規範,促進消費者的使用意願並瞭解其能源的使用狀況;在資訊交換的過程中,亦須保護敏感的商業資訊,使企業(companies)願意以安全的方式提供其能源使用訊息。 歐盟保護個人資料指令(Directive 95/46/EC)是保護個人資料的主要規範,同時也適用在智慧電網個人資料的保護上,但此時則需要去定義何謂個人資料,因為在智慧電網的發展中,有些屬於非個人資料。若為技術上的資訊而不屬於個人資料的範圍,能源技術服務業者(energy service companies)則不須經同意即可讀取該些資訊以作為分析使用。考慮將來廣泛建置智慧電網後,各會員國可能遭遇如何認定是否為個人資料及其保護的問題,因此目前傾向採取「privacy by design」的方式,亦即在系統設計之初,即納入資訊的分類,而不做事後的判斷。 對於此,歐盟執委會於2012年3月發布「智慧電表系統發展準備建議」(COMMISSION RECOMMENDATION of 9.3.2012 on preparation for the roll-out of smart metering systems),對於相關定義、資料保護影響的評估(例如各會員國必須填寫並提交執委會提供的評估表格,且提交後則必須遵循相關規範)、設計時的資料保護及預設(例如在系統設計時一併納入對資料的保護,使之符合資料保護的相關法規)、資料保護的方式(例如會員國必須確保個人資料的蒐集、處理及儲存是適當的並且具有關連性)、資料安全(例如對於資料偶然的或非法的破壞、或偶然的喪失等情形,亦應予以規範)、智慧電表的資訊與透明化(例如在蒐集相關個人資料後,仍應依規範提供資料主體相關的訊息)等方面提出建議,供各會員國於制訂相關規範時的依據。
澳洲法院正審理乳癌或卵巢癌基因檢測產品可專利性訴訟BRCA1與BRCA2乃兩個已經被確認的基因,係用來檢測婦女是否容易罹患乳癌或卵巢癌的重要基因。在澳洲這個檢測產品是由基因技術有限公司(Genetic Technologies Limited, 以下簡稱GTL)所擁有。因檢測費用高達3,700元美金且無法有其他的檢測選擇,形成獨占。 今(2010)年3月,美國紐約聯邦地方法院(United States District Court Southern District of New York)認為BRCA1與BRCA2等人類基因乃如同血液、空氣或水的結構,屬於自然的產物,不具有可專利性,系爭專利阻礙了乳癌與卵巢癌相關研究與創新,並限制檢測的選擇性,因而作出BRCA1與BRCA2基因不具可專利性之判決。 受到美國判決之影響,今(2010)年6月澳洲的癌症之聲消費者團體(Cancer Voices),及一名患有乳癌的婦女同向雪梨聯邦法院(Australian Federal Court in Sydney)提起訴訟,希望免除GTL對於檢測乳癌與卵巢癌產品的獨占權利。主要理由包括,對人類的一部分(基因)給予專利,不但阻礙了後續研究,也會阻礙乳癌與卵巢癌治療方法的研發,更提高許多病患接受此檢測的障礙。固然專利權人得維持高檢測費用,但有別於傳統工程或技術上的專利,生物技術專利也含有高度追求人類健康之公共利益,因此握有生物技術專利者,實不應利用獨占地位阻礙的人類健康的維持與追求,阻礙醫療或治療方式的研究。 過去澳洲專利局認為自自然產物分離的基因或物質是具有可專利性的,此案若勝訴,澳洲專利局將調整原先承認自自然產物分離的基因或物質,具可專利性之見解,所以該案的後續發展值得我們關注。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。