日本內閣下設之日本經濟再生本部(日本経済再生本部),為實現2017年6月於「未來投資戰略2017」所提出之建立實驗資料共享體制政策,於2017年8月31日起舉辦自動駕駛官民協議會(自動走行に係る官民協議会),邀請政府相關部門及民間專家等關係人士,檢討自動駕駛實驗結果、實驗資料之共享,以及根據民間需求進行實驗計畫之工程管理等制度的整備方向,預計於年內針對複雜的駕駛環境制定共通指標,以釐清哪些資料是應收集之實驗資料,建構自動駕駛實驗資訊共享、收集體制。自動駕駛官民協議會預計在未來幾次會議中,針對應收集之實驗資料、標準格式、體制、實驗計畫的進程管理、官民合作事項等進行討論,並將在未來投資會議中報告檢討結果,其結果將與明年度之成長戰略一同反映於「官民ITS‧構想藍圖」(官民ITS構想・ロードマップ)中。
本文為「經濟部產業技術司科技專案成果」
新加坡金融管理局(Monetary Authority of Singapore, MAS)於2023年8月15日發布穩定幣監管架構,旨在維持金融穩定發展,並將與新加坡幣或十大工業國(G10)貨幣掛勾之單一貨幣穩定幣(single-currency stablecoins, SCS)納入監管,確保穩定幣的安全可靠。符合監管規範之穩定幣發行人,可向MAS申請標註為「MAS監管之穩定幣(MAS-regulated stablecoins)」,有助於區分其他不受政府監管之數位支付代幣(digital payment tokens),以保障穩定幣持有人權益及降低金融穩定之潛在風險。 依據本監管架構,穩定幣發行人需遵循的監管要求包括:(1)價值穩定性,穩定幣儲備資產須遵守其構成、估值、託管與審計方面的要求,以維持價值穩定性;(2)資本,發行人必須維持最低資本與流動資產,以降低破產風險;(3)贖回,持有人可在發行人收到贖回請求後5個工作天內,以穩定幣面值贖回;(4)資訊揭露,發行人必須向持有人揭露相關重要資訊,包括有關穩定幣價值穩定機制、穩定幣持有人權利以及儲備資產審計結果等資訊。MAS表示,穩定幣若受到適當監理,維持價值穩定,將可成為可信賴的數位交易媒介,開創更多創新的金融科技應用,促進金融穩健發展。
美國正式推行「聯邦政府風險與授權管理計畫」2010年,美國聯邦政府展開「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,FedRAMP),在經過2年的研究與整備後,聯邦政府總務管理局於2012年06月06日宣佈FedRAMP正式運作。 FedRAMP是由國土安全部、聯邦政府總務管理局、國防部、國家安全局以及國家科技研究所共同撰寫及建置。該計畫的目的是建立一套全國政府機關可遵循依據,針對雲端服務的風險評估、授權管理的標準作業規範。 根據FedRAMP,雲端服務業者欲通過該計畫的評估,其評估程序可分為提出申請、檔案安全控管、進行安全測試、完成安全評估等四個階段。未來所有雲端產品與服務業者,都必須達到該計畫的標準規範,才能為美國政府機關提供雲端產品及服務。 對於雲端服務業者的評估,必須經由FedRAMP認證的第三方機構來進行審查,第三方評估機構欲通過認證,除了要符合FedRAMP的需求外,還必須具備雲端資訊系統的評估能力、備妥安全評估計畫、以及安全評估報告等,另外亦同時引進了ISO/IEC17020以及ISO/IEC17011之規定,來驗證檢驗機構的品質與技術能力。目前為止,聯邦政府總務管理局已經公佈十個獲得授權的機構。 聯邦政府總務管理局同時並期待在2012年的年底之前,能夠有三個雲端服務提供者通過審查,然而,由於制度才剛上路不久,是否能夠跟上產業變遷的腳步並順利達成目標,仍有待進一步觀察。
CRTC以違反加拿大「反垃圾郵件法」對波特航空開罰加拿大之地區航空公司-波特航空(Porter Airlines),因違反當地「反垃圾郵件法」(Anti-Spam Law),於2015年6月29日被加拿大廣播電視及通訊委員會(Canadian Radio-television and Telecommunications Commission,簡稱CRTC)裁罰150,000美元。 2014年7月1日施行之反垃圾郵件法,係為杜絕因濫發郵件而對資料當事人造成困擾所制定。在該法中,針對寄送商業電子訊息要求需符合「獲得當事人同意」、「識別發送人之資訊」、「取消訂閱功能設計」等三項條件。然而,波特航空所寄出之商業電子訊息,卻:(1)未設計退訂機制供資料當事人選擇退訂;(2)未提供法規要求之發送人完整聯絡訊息;(3)資料當事人提出取消商業電子郵件訂閱之請求,未於法定之10個工作日內執行;(4)自2014年7月至2015年2月寄出之每一封商業電子郵件,波特航空無法證明其已獲當事人之同意而為之。 CRTC法遵暨執行部門主席Manon Bombardier認為,在過去,企業都習慣依照一般商業慣例或內部政策執行相關工作,透過此一個案,希望能對其他企業產生警示作用。企業應針對發送電子商業訊息之部分,重新檢視並審查其內部相關程序及步驟,是否確實符合當地法規要求及條件,以免類似觸法事件再度發生。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。